You are on page 1of 50

1

Ethiek, kunstmatige intelligentie en autonome machines

Reinoud Kaasschieter

Dilemma's van de IT
professional (W7)
KIVI-jaarcongres Wet,
Wetenschap en Werkelijkheid
27 november 2020

© Capgemini/Altran
2

Het topje van de


ijsberg...
De ethiek van kunstmatige
intelligentie en autonome machines
kan niet worden behandeld in een
presentatie van een half uur.
Het zou immoreel zijn om het
tegenovergestelde te claimen.
En ik zal je geen procedures, beleid
of richtlijnen geven om je project
ethisch te maken. Dat is gewoon

CC BY-SA 3.0 Uwe Kils via Wikimedia


niet de manier waarop het op dit
moment werkt.
3

Disclaimer
• Deze presentatie is onvolledig en kan misleidend zijn. Rechtvaardig uw
ethische beslissingen voor uzelf en anderen niet met deze presentatie.
Gebruik je eigen kennis, intellect, oordeel en geweten.
• Hoewel de grootst mogelijke zorg is besteed om de huidige stand van zaken
rond ethiek rondom AI te beschrijven, zullen omissies, afkortingen en
fouten waarschijnlijk aanwezig zijn.
• Deze presentatie toont mijn persoonlijke opvattingen en niet
noodzakelijkerwijs die van Capgemini. U mag van mening verschillen.
• Ik ben niet verantwoordelijk voor eventuele verwarringen of andere
mentale problemen die voortvloeien uit het bijwonen van deze
presentatie.
4

Deel 1 – Dilemma’s voor de IT-er/ontwerper

«Als ontwerpers hebben we een grote verantwoordelijkheid er


voor te zorgen dat iedereen ons product zo goed mogelijk kan
gebruiken.»
5

Dilemma’s van de Familie

ontwerper
«Als ontwerper: voor zover je Opdracht-
Natuur
gevers
dat nog niet deed ben je
bewust van je macht en
verantwoordelijkheid. Je kunt
onmogelijk alle consequenties 
overzien van je ontwerp,
maar het is je morele plicht je Maat-
Economie
schappij
flink in te spannen om er
zoveel mogelijk te bedenken
en zo nodig bij te sturen.» Ontwerpen
https://www.nieuwemuze.nl/2018/02/ethiek-in-het-ontwerpen/
➢ https://level-level.com/nl/blog/ethische-dilemmas-voor-
ontwerpers/
6

Dilemma’s in het Idee-


vorming
ontwerpproces
Ontwerpdilema’s kunnen ook ethische
dilemma’s zijn. Hergebruik Ontwerp
Tussen stakeholdergroepen en binnen
stakeholdergroepen kunnen waarde-
conflicten ontstaan.
Onopgeloste waardeconflicten leiden
tot tegengestelde (en misschien
onverenigbare) requirements.
De oplossing van waardeconflicten is de
Onderhoud Fabricage
“alignment” (eensporigheid) van
waarden.
In dialoog kunnen we proberen Gebruik
“alignment” te creëren in ons
ontwerptraject.
Value Sensitive Design helpt! 
7

Dilemma’s bij het Veiligheid

gebruik
Het gebruik van producten en diensten Neven-
Context
kunnen ook tot ethische dilemma’s effecten
leiden.
Misbruik, ander gebruik en onvoorzien
gebruik zijn voorbeelden hiervan.
Tot nu toe proberen we daarom alle

consequenties van mogelijk gebruik te
inventariseren…
Ergonomie Kennis
…en mogelijk daartegen maatregelen
nemen, analoog aan risicomanagement.
➢ Maar kunnen we dit bij kunstmatige
intelligentie en autonome machines Gedrag
ook op deze wijze doen?
8

Deterministisch Stochastisch

Dilemma’s bij het


gebruik Statisch Dynamisch
Kunstmatige intelligentie maakt het
mogelijk menselijke denkprocessen,
creativiteit en beslissingen te
automatiseren. Evenwicht Niet-evenwicht
Autonome machines, zoals zelfrijdende
auto’s, moeten zelfstandig beslissingen
kunnen nemen in onvoorziene situaties.
Omdat deze beslissingen ook kunnen Geconditioneerd Ongeconditioneerd
gaan over ethische dilemma’s, spreken
van moral machines.
Omdat deze machines leren, in hun
gedrag veranderlijk in tijd en. Analytisch Simulatie
Het gedrag is daarmee onvoorspelbaar
geworden.
➢ Is dit ernstig of zelfs gevaarlijk? 
9
10
Data-gedreven en intelligentie technologieën, zoals autonome machines, dringen de openbare ruimte
binnen, zonder dat individuen de keuze hebben wel of niet hiermee geconfronteerd te worden.
«…burgers en andere betrokken partijen vaak pas achteraf met digitale oplossingen worden geconfronteerd, wanneer er geen
andere inbreng dan accepteren of protesteren mogelijk is.»
Rijksoverheid – Essaybundel “Behoorlijk datagebruik in de openbare ruimte”
11
Data-gedreven en intelligentie technologieën, zoals autonome machines, dringen de openbare ruimte
binnen, zonder dat individuen de keuze hebben wel of niet hiermee geconfronteerd te worden.
«…burgers en andere betrokken partijen vaak pas achteraf met digitale oplossingen worden geconfronteerd, wanneer er geen
andere inbreng dan accepteren of protesteren mogelijk is.»
Rijksoverheid – Essaybundel “Behoorlijk datagebruik in de openbare ruimte”

De werking van deze technologie niet te doorgronden zijn, zodat daartegen ook geen formeel
bezwaar kan worden gemaakt.
«De kern van de uitspraak is dat er in dat geval te weinig waarborgen zijn voor burgers: zij kunnen niet uitzoeken of hun
gegevens wel juist zijn verwerkt en weten niet waartegen ze precies bezwaar moeten maken.»
NRC - Schimmige algoritmes bij UWV en SyRI zijn topje van de ijsberg (6 maart 2020)
12
Data-gedreven en intelligentie technologieën, zoals autonome machines, dringen de openbare ruimte
binnen, zonder dat individuen de keuze hebben wel of niet hiermee geconfronteerd te worden.
«…burgers en andere betrokken partijen vaak pas achteraf met digitale oplossingen worden geconfronteerd, wanneer er geen
andere inbreng dan accepteren of protesteren mogelijk is.»
Rijksoverheid – Essaybundel “Behoorlijk datagebruik in de openbare ruimte”

De werking van deze technologie niet te doorgronden zijn, zodat daartegen ook geen formeel
bezwaar kan worden gemaakt.
«De kern van de uitspraak is dat er in dat geval te weinig waarborgen zijn voor burgers: zij kunnen niet uitzoeken of hun
gegevens wel juist zijn verwerkt en weten niet waartegen ze precies bezwaar moeten maken.»
NRC - Schimmige algoritmes bij UWV en SyRI zijn topje van de ijsberg (6 maart 2020)

AI kan onbedoeld leiden tot discriminatie: AI en autonome machines kunnen de maatschappelijke


ongelijkheid vergroten, mensen en bevolkingsgroepen discrimineren en uitsluiten, wat grote
maatschappelijke en persoonlijke gevolgen kan hebben.
«Eén van de problemen is dat AI onbedoeld kan leiden tot ongeoorloofde en oneerlijke discriminatie. Dat kan onder meer
gebeuren als een AI-systeem leert van menselijke beslissingen die discrimineren.»
Prof. Frederik Zuiderveen Borgesius – Universiteit van Amsterdam
13

Q1: Is deze ethiek nieuw?


Autonome systemen moeten zich ethisch gaan gedragen. Is dit een
nieuwe gebied van ethisch onderzoek?

❑ Ja, want intelligente systemen zijn nieuw en onvoorspelbaar


❑ Ja, want autonome systemen gaan voor ons beslissingen nemen
❑ Ja, want onze ethische kaders zullen zich moeten aanpassen
❑ Nee, het is een verbijzondering van Business Ethics
❑ Nee, het is een toepassing van Ethics by Design
❑ Nee, want de mens blijft verantwoordelijk
14
15

Deel 2 – Verantwoordelijkheden
➢ Wie is er verantwoordelijk
wanneer een (autonoom)
beslissend systeem een
goede, foute, briljante,
onverwachte, stomme,
gevaarlijke of zelf
dodelijke beslissing
neemt?
16

De mens is altijd
verantwoordelijk
Wensdenken: willen we, moeten
we, kunnen we de mens altijd
verantwoordelijk laten zijn?
De ethische vraag: «Wanneer is een
persoon verantwoordelijk voor zijn
daad?»
Juridische aansprakelijkheid ≠
ethische verantwoordelijkheid.
Het probleem van “many hands”:
als er verschillende mensen bij
betrokken zijn, is het onmogelijk om
«Morele verantwoordelijkheid is het hebben van de
één persoon te identificeren die
verplichting tot het verantwoorden van het eigen gedrag.»
verantwoordelijk is.
Rob van Es
➢ https://www.managementimpact.nl/artikel/morele-
verantwoordelijkheid-wat-is-het/
17

Automatisering
Human-out-the-loop
Volledige automatisering geeft ons
de mogelijkheid om:
• Veel meer dingen te doen;
• En ze sneller te doen;
• En ze goedkoper te doen;
• En ze beter te doen (?)
Maar dingen kunnen fout gaan,

CC BY 2.0 Felipe Menegaz via Wikimedia


zoals bij de geautomatiseerde
handel in aandelen.
«Het vermijden van toekomstige flash-crashes en het beheersen
Hedendaagse handelsalgoritmen van de collectieve kracht van financiële algoritmen vereist een
kunnen grote instabiliteit industrie-brede inzet voor een cultuur van verantwoording,
veroorzaken, ondanks hun reputatie transparantie en integriteit.»
als onpartijdige, rationele actoren. Prof. Christian Borch, Copenhagen Business School
18

Augmented AI
Human-in-the-loop
Autonome AI en ethiek zijn een
gebrekkige combinatie
Mensen blijven aan het roer. En
hebben de uiteindelijke beslissings-
bevoegdheid.
Empowerment: mogen we afwijzen, «Toch kunnen personen, die belast zijn met de
zelfs als onze beslissing slecht, verantwoordelijkheid om toezicht te houden op de werking van
illegaal of zelfs immoreel is? deze systemen, begrijpelijkerwijs terughoudend zijn om in te
Menselijke factoren: zijn we grijpen. Dit dreigt de mens in ‘morele kreukelzones’ te veranderen,
opgeleid als operators van grotendeels totemisch mens wiens centrale rol wordt het opnemen
industriële installaties of piloten van van schuld, hoewel ze slechts gedeeltelijke controle hebben over
vliegtuigen. het systeem, en die kwetsbaar zijn om de zondebok te worden voor
techontwikkelaars en organisaties die de verantwoordelijkheid voor
➢ Big Tech houdt van onbedoelde nadelige gevolgen willen vermijden.»
augmentation, het verduidelijkt Karen Yeung, De Raad van Europa
verantwoordelijkheden
19

Controleerbare AI
Human-on-the-loop
Waarden uit AI-richtlijnen kunnen
worden geïnterpreteerd als human-
on-the-loop-scenario's, zoals:
• Transparantie
• Verantwoording
• Uitlegbaarheid
Achteraf gezien proberen we uit te
zoeken hoe een autonoom besluit is
genomen.
➢ Maar zijn we in staat om de
gemaakte fouten te corrigeren? «De rol van de mens in de huidige robotica ecosysteem zal,
Zowel technisch als waar robots worden ingezet, verschuiven van het “in the
organisatorisch? loop” naar “on the loop”.»
Kunnen we de AI voorspellen? Prof. Saeid Nahavandi, director of IISRI
20

Autonomous
vehicles as moral
machines
Ik gebruik zelfrijdende auto's als
voorbeeld van machines die
autonome beslissingen moeten
nemen. «De bestuurder is verantwoordelijk, als hij zelf het voertuig
bestuurt. Maar als het systeem niet goed werkt, is de
Deze beslissingen kunnen gaan over
producent verantwoordelijk. De wetgeving is voor de testfase
morele of ethische dilemma’s.
voldoende.»
We hebben algoritmes nodig om te Rijksoverheid
beslissen over deze dilemma’s.
➢ Welke ethische regels moeten ze
volgen? Welke regels moeten we
programmeren in de code?
➢ http://www.moralmachines.net
➢ https://www.rijksoverheid.nl/onderwerpen/mobiliteit-
nu-en-in-de-toekomst/vraag-en-antwoord/aansprakelijk-
bij-ongeluk-met-zelfrijdende-auto
21

Q2: Het morele dilemma


Een autonoom voertuig kan niet op tijd remmen. De auto kan kiezen
tussen het raken van een moeder met kind en het raken van een ouder
echtpaar. Welke keuze moet het maken?

❑ Raak het bejaarde paar en red de moeder met haar kind


❑ Raak de moeder en het kind en red het bejaarde paar
❑ Maak een willekeurige keuze als je moet kiezen
❑ Deze vraag is onwerelds
❑ Deze vraag is onethisch
22
23

«Er is een echt sterke veronderstelling in deze dilemma’s


Kan een auto een ingebouwd, namelijk dat er perfecte kennis van de wereld
bestaat. In mijn ogen is dat het meest verontrustend, omdat we
ethisch dilemma niet moeten opereren vanuit een veronderstelling dat deze
voertuigen een perfecte kennis van de wereld hebben.»
detecteren?
Voor een machine zonder Sam Anthony - CTO of Perceptive Automata
bewustzijn, is een ethische
beslissing als elke andere beslissing.
«Echte trolleydilemma's zijn zeer
onwaarschijnlijk, moeilijk op te
sporen, en moeilijk om op te
lossen.»

➢ Voor computervisie zijn een


moeder en kind zijn een groot

National Transportation Safety Board


en een klein mens. En dus?
➢ https://www.roboticsbusinessreview.com/unmanned/
trolley-dilemmas-should-not-formulate-self-driving-
policies/
24

Deel 3 – Ethiek waarborgen



Governance

Ethiek
③ ①
Design for Ethische
Values teams

Eisen en wensen van betrokkenen


25


Ethics in teams
Het is een moeilijke taak om teams in
staat te stellen ethische beslissingen
te nemen:
• Creëer een ethische, inclusieve
omgeving
• Waardeer nieuwsgierigheid
• Huur een divers
personeelsbestand in
• Heroverweeg het
personeelsbestand
Hoe worden maatschappelijke
waarden vertegenwoordigd in de «Een manier om ethiek praktisch te maken is onderzoekers en
teams? ontwikkelaars in staat te stellen relevante deugden te cultiveren -
➢ Zal het werken? bijvoorbeeld rechtvaardigheid, zelfbeheersing, beleefdheid of
moed - zodat ze deze deugden kunnen toepassen en uitdrukken
https://warontherocks.com/2020/03/creating-a-curious- tijdens het onderzoek- en ontwerpproces.»
ethical-and-diverse-ai-workforce/ Marc Steen, TNO
26

Ethische
commissies &
ethische auditeurs
Een ethische commissie is een
orgaan dat ervoor moet zorgen dat
medisch experiment en onderzoek
naar menselijke proef op een
ethische manier worden uitgevoerd
in overeenstemming met het
nationale en internationale recht.
Kunnen we hetzelfde doen voor
kunstmatige intelligentie en
autonome voertuigen?
➢ Ethische commissies faalden bij
Big Tech. Waarom?

Roger H. Goun via Flickr


https://en.wikipedia.org/wiki/Ethics_committee
27


Governance
Governance is gebaseerd op codes,
richtlijnen en regelgeving.
Richtlijnen zijn gebaseerd op
(universele) principes.
Deze principes zijn afgeleid van
maatschappelijke waarden.
Richtlijnen worden opgesteld om
ethische waarden te
operationaliseren
... maar ze zijn meestal als vaag
meetbare eisen geformuleerd.
➢ Moet je richtlijnen vertalen naar
tooling en checklists?
28

Ethische codes,
richtlijnen etc.
Richtlijnen worden steeds meer de
manier om de controle over de
ethiek van AI en AV's te pakken.
Richtlijnen zijn negatief, ze stoppen
ongewenste gevolgen.
Richtlijnen zijn nooit compleet, ze
kunnen geen garanties geven.
Toch zal Europa zijn richtlijnen in
regelgeving omzetten.

https://europa.eu/!VV67my
Misschien zijn regels de enige
manier om ethiek af te dwingen ...
➢ Richtlijnen gebruiken voor
naleving van AI Ethics?
29

Ethiek is geen
compliance
«Als je denkt over ethiek als
compliance of compliance officers
of auditeurs, dan krijg je eigenlijk
het absolute minimum aan ethiek.
Ethiek gaat over... hoe na te denken
over het verantwoordelijk doen van
dingen. Waar denk ik aan als ik
ontwerp en niet “is de compliance
officer aan het toekijken.”»

CC BY-SA 2.0 Alisdare Hickson via Wikimedia


Heather Roff, Johns Hopkins
University

https://fcw.com/articles/2020/10/22/ai-defense-ethics-
compliance.aspx
«Ethiek is geen compliance en als we denken over ethiek als
compliance dan falen we als morele individuen.»
30


Design for Values
‘Design for Values’ is een
overkoepelende term die een
diversiteit aan
ontwerpbenaderingen, theoretische
achtergronden, weloverwogen
waarden en toepassingsdomeinen
omvat.
https://www.delftdesignforvalues.nl/design-for-values-an-
introduction/

Value sensitive design (VSD) is een

CC BY-NC-SA 2.0 Venessa Miemis via Flickr


theoretisch gefundeerde
benadering van het ontwerp van
technologie die op een principiële
en alomvattende manier rekening
houdt met menselijke waarden.
https://en.wikipedia.org/wiki/Value_sensitive_design
31

Waardes zijn
aanwezig
Ontwerpen, waarin onze waarden zijn
opgenomen, kunnen deze waarden
niet teniet doen.
Voorbeeld: het ontwerpen van een
schaar om de veiligheid van een kind
te waarderen, kan impliceren dat uw
ontwerp niet zo goed zal knippen als
een ander (gevaarlijkere) schaar.
Ontwerpen voor waarden betekent
verantwoordelijkheid nemen als
ontwerper en die
verantwoordelijkheid niet overdragen
aan de gebruiker. U moet de
gebruiker beschermen.

➢ Vrijheid versus veiligheid in AV's?


32

Q3: Kies uw waarden


Welke van de zeven waarden van de Europese Unie moet het belangrijkste
zijn om te worden opgenomen in het ontwerp van een autonoom voertuig?

❑ Menselijke controle en menselijk toezicht


❑ Technische robuustheid en veiligheid
❑ Privacy en datagovernance
❑ Transparantie
❑ Diversiteit, non-discriminatie en eerlijkheid
❑ Milieu- en maatschappelijk welzijn
❑ Verantwoordingsplicht
33
34

Aannames over het


ontwerpen met
waarden
1. Waarden kunnen worden
uitgedrukt en ingebed in
producten / diensten /
technologieën / systemen /
ruimten;
2. Bewust en expliciet denken
over de waarden in onze
ontwerpen is sociaal en moreel
belangrijk;
3. Een dergelijke reflectie moet al
vroeg in het ontwerpproces
plaatsvinden, wanneer het nog
een verschil kan maken.
https://www.delftdesignforvalues.nl/design-for-values-an-
introduction/
➢ https://uxdesign.cc/what-is-value-centered-design-
a9c5fbf2641
35

Waardes
opdringen?
Vaak leggen de ontwerpers hun
waardes onbewust en intrinsiek op
aan de gebruikers van hun
systemen, zoals:
• antwoordmogelijkheden op
formulieren, bijv. gender
• sociale media
Maken we onze waardes expliciet,
dan ontstaat er een dialoog over:
• ontwerpkeuzes
• waardeconflicten

➢ https://www.businessnews.com.au/article/Big-data-big-
potential-big-challenges «Technologie is niet waarde-neutraal.»
Rachel Cardell-Oliver, University of Western Australia
36

Deel 4 – Value Sensitive Design

«In de loop der tijd is Value Sensitive Design een bewuste poging
geworden om technologieën zodanig te ontwerpen dat ze de
menselijke waardigheid, rechtvaardigheid, welzijn en mensenrechten
behouden.»
37

Waarden en AI
Value Sensitive Design wordt gezien als
de beste methode om waardes in de
ontwerpen op te nemen.
Maar AI-systemen zijn lerend en kunnen
hun gedrag veranderen.
Hoe gaan we controleren of AI wel
ethisch blijft?
1. Ethische filters toepassen
2. Terugkoppelingen inbouwen
3. Uitleggen/verantwoorden
4. Audits uitvoeren
➢ http://www.personifiedsystems.com/Which-Ethics-
Consequentialism.html
38

Mijn drie niveaus


Bijvoorbeeld energiezuinig rijden
1. Het product of dienst kan
waardevol toegepast worden.
• AV rijdt gemiddeld zuinig
• Ligt aan de bestuurder
2. Het product of dienst kan aan
de waardes voldoen, mits als
zodanig gebruikt.
• Zuinig rijden is een keuze
• Maar hoeft niet
3. Het product of dienst voldoet
altijd aan de waardes.
• AV heeft alleen ECO-stand
• Wordt afgedwongen
39

Q4: Waardegebaseerd ontwerpen is het beste


Hier wordt gepresenteerd dat ontwerpen gebaseerd op gedeelde
waarden de beste methode is om ethisch te ontwerpen. Is dat zo?
❑ Ja, want we kunnen de consequenties van autonome machines niet
overzien
❑ Ja, want we kunnen geen sluitende regels formuleren waaraan
autonome machines moeten voldoen
❑ Nee, want waardes lossen geen ethische dilemma’s op
❑ Nee, want de invulling van waardes is persoonlijk en dus subjectief
40
Designing with values in complex projects

https://www.youtube.com/watch?v=oL5I5orMDIM
42

Designing for
humans
Human-centered design (HCD)
• Design Thinking
Begin met empathie voor de gebruiker
• Behavioural design (Stanford)
Wetenschappelijke inzichten gebruiken om
nieuwe ideeën te genereren
• Value Sensitive Design
Neem de gemeenschappelijke waarden
van de stakeholders als uitgangspunt

CC BY-SA 4.0 Mvtestani via Wikimedia


• Design by Values (TU Delft)
Hoe creëer je verantwoordelijke innovaties
• Whole human design (MIT)
Ontwerp voor mensen, niet gebruikers
43

Menselijke
waarden in HCD
• Waarden, geen gevolgen of
intenties, vormen de basis voor
ethisch ontwerp.
• Stakeholders en gebruikers zijn
in staat om persoonlijke, groeps-
en maatschappelijke waarden in
te brengen.
• Waarden kunnen worden

CC BY-SA 3.0 SuperTank17 via Wikimadia


uitgedrukt en ingebed in
producten etc.
• Wanneer waarden zijn
ingesloten, kunnen ze niet
ongedaan worden gemaakt door
het ontwerp.
44

Scoping Society
• Social Contract,
Ethics
and the why?
• De ethiek van het product, niet
alleen van AI, moet worden
• Business
geëvalueerd. Organisation Ethics
• Waarden van de AI moeten
worden afgeleid vanuit de
context van het gebruik.
• Design for
• Waarom moeten we AI in de Product Values
eerste plaats gebruiken?
• Hoe gebruiken we AI in dit
product?
AI
• Wat kunnen we doen om het
ethisch te laten gedragen?
➢ KISS: kunnen we het systeem
bouwen met eenvoudigere, meer
controleerbare middelen?
45

Scoping Society
• Social Contract,
Ethics
and ethics?
• Richtlijnen en regelgeving voor
AI en AV’s zijn vertalingen van
• Business
maatschappelijke normen en Organisation Ethics
waarden.
• Ze pretenderen universeel te
zijn.
• Design for
• Maar ethiek is situationeel. Voor Product Values
iedere ontwerpopdracht moet
de evaluatie opnieuw gedaan
worden.
• Bijv. gender-gebaseerde privacy AI
in medische onderzoeken versus
selectie van kandidaten bij 
recruitment.
46

Value Sensitive Design


Ethisch ontwerpen
1. Het richt zich op menselijke waarden.
2. Het houdt rekening met waardeconflicten en hoe
bepaalde waarden voordelen of schade kunnen hebben.
3. Er wordt nagegaan hoe bepaalde functies specifieke
waarden ondersteunen.
4. Zij houdt rekening met de indirecte beïnvloede
belanghebbenden door technologie.
5. Het bekijkt technologie vanuit een sociaal-structureel
perspectief.
6. Het heeft een unieke methodologie en tool-set.
7. Het biedt u de gegevens om uw managers te beïnvloeden.
8. Het wordt iteratief toegepast.

Drawkit
➢ https://uxdesign.cc/human-values-matter-why-value-sensitive-design-should-be-part-of-every-ux-
designers-toolkit-e53ffe7ec436
47

Value Sensitive Design en AI


(of autonome voertuigen, wat dat betreft)

Aanbevolen… Maar wat…


“… toont aan dat de verschillende en vaak ❖ De leercurve van AI, met steeds
veranderend gedrag?
uiteenlopende groepen van belanghebben-
❖ Beperkte mogelijkheden om empirisch
den die betrokken zijn bij AI-ontwerp en onderzoek te doen?
‐gebruik een aantal gemeenschappelijke ❖ Toegang tot (indirecte) stakeholders?
waarden delen die kunnen worden gebruikt ❖ Het oplossen van morele overbelasting
om de inspanningen van het ontwerp- van waardeconflicten?
proces verder te versterken. VSD blijkt ❖ Zich niet verbinden aan een te
zowel deze gemeenschappelijke waarden te gebruiken ethische theorie?
kunnen destilleren door een kader te
bieden voor de coördinatie van Steven Umbrello: Beneficial Artificial Intelligence Coordination by Means of a Value Sensitive Design
Approach (2019)

belanghebbenden."
48

Wees ethisch
nu...
«Mijn hoop is dat we ernaar streven
niet verrast te worden door
onbedoelde gevolgen die de belofte
die baanbrekende technologie biedt
kunnen ontsporen, alleen maar
omdat we geen moment hebben
geanticipeerd op hoe we ermee om
konden gaan. Goed en kwaad

CC BY 2.0 Av Ryohei Noda via Store Norske Leksikon


worden immers beïnvloed door
andere factoren dan alleen de voor-
en nadelen van een situatie.»
Rudeon Snell
«De grootste boosdoeners zijn degenen die het zich niet
https://www.digitalistmag.com/improving-lives/2019/04/02/rise-
herinneren, omdat ze nooit over de kwestie hebben nagedacht
of-autonomous-vehicles-why-ethics-matter-06197534/ en, omdat er geen herinnering aan is, kan niets hen
tegenhouden.»
Hannah Arendt
49

Vragen
«Ik heb liever vragen die niet
kunnen worden beantwoord
dan antwoorden die niet
kunnen worden bevraagd.»
Richard Feynman
50

Contact
Ir. Reinoud Kaasschieter
ECM & AI-expert bij Capgemini

 █████████████████
in █████████████████
 █████████████████

 ██████████████████████████████████
██████████████████████████████████
██████████████████████████████████

You might also like