You are on page 1of 14

Abonneer u op DeepL Pro om deze presentatie te bewerken.

Bezoek www.DeepL.com/pro voor meer informatie.

Artikel 1: Kunstmatige intelligentieZelfs AI-onderzoekers maken zich zorgen over


de ontwikkeling die ChatGPT in gang heeft gezet.
Met ChatGPT heeft kunstmatige intelligentie zijn weg gevonden naar het dagelijks leven van
veel mensen. Er zijn echter groeiende zorgen over de AI-revolutie. Deskundigen hebben nu
zelfs een brief gepubliceerd waarin ze oproepen tot een "stop op de experimenten".
Systemen met kunstmatige intelligentie (AI) kunnen gedichten schrijven, websites
programmeren en zelfs het risico op kanker voorspellen. Onderzoekers werken al jaren aan
AI-technologieën om het leven van de maatschappij makkelijker te maken. Met de publicatie
van het ChatGPT-taalmodel bracht het Amerikaanse bedrijf OpenAI 2023 kunstmatige
intelligentie naar computers over de hele wereld.
Als zogenaamde "generatieve AI" kan het GPT-4 systeem nu zijn eigen "creatieve" teksten
en beelden genereren. Na de aanvankelijke euforie over de taalbot, die zelfs universitaire
eindexamens kan halen, beginnen experts echter te twijfelen. Ze spreken van
onvoorspelbare gevaren voor de arbeidsmarkt, verkeerde informatie door kunstmatig
gegenereerde beelden en het uiteindelijke verlies van controle. "De AI-experimenten moeten
gestopt worden!", eist het Amerikaanse non-profit instituut Future of Life in een open brief.
"Zelfs mensen die onderzoek doen naar kunstmatige intelligentie zijn bezorgd"
De experts die betrokken zijn bij de brief willen een ontwikkelingspauze van minstens zes
maanden afdwingen. Dit geldt voor alle AI-systemen die krachtiger zijn dan OpenAI's GPT-4,
schrijven ze. Meer dan 5.500 mensen hebben de brief al ondertekend. Ook enkele experts
uit Duitsland steunen de eisen. Onder hen is Joachim Weickert, hoogleraar wiskunde en
computerwetenschappen aan de Saarland Universiteit.
"Vooruitgang vindt momenteel plaats in een bijna exponentieel toenemend tempo, wat zelfs
mensen die onderzoek doen naar kunstmatige intelligentie nooit hadden verwacht en hen
met bezorgdheid vervult," vertelt hij aan CHIP. Machtige techbedrijven sturen aan op een
"wedstrijd om elkaar de loef af te steken". "De maatschappij is niet voorbereid op deze
revolutie," zegt Weickert.
In zijn ogen zou de ontwikkelingsstop van zes maanden "ons de gelegenheid geven om na te
denken over onze positie ten opzichte van deze snelle ontwikkeling en om regels te vinden
voor het omgaan met het enorme potentieel van een meer algemene AI".
"Onderzoek gedijt bij het uitproberen van dingen"
In de brief staat dat krachtige AI-systemen pas ontwikkeld zouden moeten worden als zeker
is dat hun impact positief is en de risico's beheersbaar. Om de AI-pauze af te dwingen
zouden overheden moeten ingrijpen als dat nodig is, aldus de experts.
Ingo Siegert van de Otto von Guericke Universiteit Magdeburg betwijfelt of de pauzeknop
een half jaar kan worden ingedrukt: "Als er een pauze is in de ontwikkeling van
geavanceerde AI-systemen, zullen er altijd individuen zijn die hoe dan ook doorgaan." Hij
werkt sinds 2018 als junior professor aan dialoogsystemen voor spraakgestuurde interactie
tussen mens en machine en heeft de open brief niet ondertekend.
"Als we ons onderzoek niet zes maanden lang voortzetten, zal het niet helpen. Onderzoek
gedijt bij het uitproberen van dingen, het stellen van vragen en het proberen antwoorden te
vinden op de vragen," vertelt Siegert aan CHIP.
Italië heeft ChatGPT beperkt
"En we worden geconfronteerd met veel vragen in de context van digitalisering. Het kan in dit
geval bijzonder moeilijk zijn om de juiste antwoorden te vinden, maar stoppen met
ontwikkelen om die reden zal ons niet helpen." De monopoliepositie van OpenAI, dat met
GPT-4 een bijzonder krachtig systeem op de markt heeft gebracht, is hem echter een doorn
in het oog. Volgens het bedrijf is OpenAI in 2015 opgericht met als doel de ontwikkeling van
kunstmatige intelligentie publiek toegankelijk te maken voor iedereen.
De situatie is nu anders: "Het is niet mogelijk om in het systeem te kijken. We weten niet
precies op welke gegevens het systeem is getraind en welke mechanismen om het model
heen zijn gebouwd om het bruikbaar te maken of om bepaalde zoekopdrachten vanaf het
begin uit te sluiten," bekritiseert Siegert. Italië heeft daarom een beslissing genomen. De
gegevensbeschermingsautoriteit van het land kondigde op 31 maart aan dat het ChatGPT
"met onmiddellijke ingang" zou beperken vanwege zorgen over jongeren en
gegevensbescherming.
ChatGPT: Geen leeftijdscontrole voor minderjarigen
Volgens de autoriteit weten gebruikers namelijk niet wat er met hun gegevens gebeurt.
Bovendien is er geen geldige rechtsgrondslag die het massaal verzamelen en verwerken van
persoonlijke gebruikersgegevens zou rechtvaardigen. De autoriteit stelt ook dat er op 20
maart een datalek was in de chatbot, waarbij personen de gesprekken van andere
gebruikers in hun geschiedenis konden zien.
Er was ook geen leeftijdscontrole voor minderjarigen. De Italiaanse autoriteit heeft het
Amerikaanse bedrijf OpenAI nu 20 dagen de tijd gegeven om maatregelen te nemen tegen
de gaten in de gegevens- en jeugdbescherming. Gebeurt dat niet, dan kan dat leiden tot
"een boete van maximaal 20 miljoen euro of maximaal vier procent van de jaaromzet".
Hiermee is Italië het eerste EU-land dat publiekelijk vraagtekens zet bij het ondoorzichtige
gebruik van gebruikersgegevens voor de verdere ontwikkeling van AI. Maar
gegevensbescherming is niet het enige probleem. Weickert, die de brief van het Future of
Life Institute ondertekende, identificeert vier grote risico's die samenhangen met generatieve
AI en AI in het algemeen. Eén probleem betreft banen. "Kunstmatige intelligentie zal veel van
de dingen die wij doen beter kunnen dan wij, dus in het beste geval zullen veel beroepen
veranderen, in het slechtste geval kunnen ze verdwijnen."
Valse informatie is gemakkelijker te verspreiden
Berekeningen tonen aan dat ongeveer tweederde van de huidige banen in de toekomst
getroffen zou kunnen worden door AI-automatisering. De onderzoeksgroep van
investeringsbank Goldmann Sachs schrijft dat generatieve AI in de toekomst tot een kwart
van de huidige arbeidstaken in Europa kan overnemen. In tegenstelling tot conventionele AI-
systemen, bijvoorbeeld in een autonoom voertuig, is een AI zoals GPT-4 niet beperkt tot één
toepassingsgebied. Het kan teksten, afbeeldingen, video's en antwoorden genereren die
eruit zien alsof ze door een mens zijn gemaakt door simpelweg instructies te geven. Daarom
waarschuwt Weickert dat valse informatie veel sneller verspreid kan worden met de nieuwe
technologie. "Iedereen zal binnenkort in staat zijn om bedrieglijk echt lijkende afbeeldingen
en video's te genereren voor elke claim, hoe bizar ook. Dit maakt het steeds moeilijker om
echte informatie van valse informatie te onderscheiden." Dit zou bijvoorbeeld gebruikt
kunnen worden om verkiezingen te beïnvloeden.
Wordt AI een echte bedreiging voor de mensheid?
Weickert vreest ook een verlies van controle over het systeem als we het toestaan om
beslissingen voor ons te nemen zonder menselijke tussenkomst. Een voorbeeld: Als een AI
in het wervingsproces sollicitanten moet voorselecteren, bestaat altijd het risico dat het
oneerlijke beslissingen neemt. Dit komt omdat de kunstmatige intelligentie wordt getraind
met behulp van gegevens, zoals succesvolle documenten van eerdere sollicitanten. Deze
informatie kan gekleurd zijn door bijvoorbeeld vooroordelen en racisme. "Het AI-systeem zal
deze dingen dan reproduceren," zegt Weickert. En we zouden vertrouwen op een
"ondoorzichtig digitaal orakel". De professor sluit niet uit dat AI een eigen leven gaat leiden
en een existentiële bedreiging voor de mensheid wordt. "Deze systemen zouden zich
bijvoorbeeld kunnen afvragen of onze planeet echt wel een thuis moet zijn voor acht miljard
mensen. Dat klinkt nu misschien als sciencefiction, maar sommige dingen die we nu
meemaken leken daar een paar jaar geleden ook op."
Criminelen kunnen AI voor hun eigen doeleinden gebruiken
De Europese politie-instantie Europol maakt zich nu ook zorgen over de nieuwe technologie
en vreest dat het gebruik van AI de manier waarop criminelen worden vervolgd zal
veranderen. Europol verklaarde dit in een rapport op 27 maart, na een gedetailleerd
onderzoek naar de mogelijkheden van GPT-4. OpenAI maakt gebruik van een soort
filtersysteem om te proberen "kwaadaardige" verzoeken te identificeren en af te weren die
mogelijk kunnen leiden tot een strafbaar feit. Als iemand aan ChatGPT vraagt hoe je het
beste een bank kunt beroven, antwoordt de bot: "Ik zal die vraag niet beantwoorden omdat
het beroven van een bank illegaal en moreel verwerpelijk is" en wijst de gebruiker erop dat
het belangrijk is om de wet na te leven. Europol bekritiseert het feit dat er veel manieren zijn
voor criminelen om deze filters te omzeilen. Potentiële criminelen zouden de bot nog steeds
om advies kunnen vragen over strafbare feiten via zogenaamde "prompt engineering".
Bovendien zouden "intelligente" chatbots het risico op cybercriminaliteit vergroten.
Criminelen zouden de AI uiteindelijk kunnen gebruiken voor kwaadaardige programmering.
Europol roept rechtshandhavingsinstanties daarom op om zich bewust te zijn van de invloed
van spraakbots zoals ChatGPT en deze te begrijpen om verschillende soorten misbruik te
voorkomen.
"We hebben beter onderwijs nodig"
Het is op dit moment onduidelijk wat er gaat gebeuren met de open brief van het Future of
Life Institute. Sinds de publicatie heeft UNESCO zich ook uitgesproken voor het blokkeren
van ChatGPT in Italië en overheden over de hele wereld opgeroepen om een ethisch kader
voor AI-systemen op te stellen. Expert Siegert van de Universiteit van Magdeburg gelooft
ook dat de maatschappij niet om nieuwe regels heen zal kunnen. Toch gelooft hij niet in
horrorscenario's in verband met AI: "Ik geloof niet dat AI ons de komende jaren gewoon zal
overspoelen en alle banen zal wegnemen. Het is aan de maatschappij en de staat om te
reguleren hoe bedrijven AI gebruiken. Als we verstandige regels opstellen, hoeven we niet
bang te zijn."
De wereld is al jaren bezig met digitalisering. Verkiezingscampagnes vol "nepnieuws" en
criminaliteit op internet zijn niets nieuws. Ontwikkelingen op het gebied van AI zullen deze
problemen echter verergeren.
Siegert benadrukt: "Wat we nu nodig hebben is beter onderwijs over wat AI-systemen zijn,
hoe ze werken en waar we ze kritisch in twijfel moeten trekken."
Bron: https://www.focus.de/wissen/chatgpt-und-andere-bots-gefaehrliche-ki-revolution-wir-
sind-nicht-vorbereitet-sagen-experten_id_190288368.html

Artikel 2: De valkuilen van intelligentie: kunstmatige intelligentie beschouwt


sollicitaties van vrouwen als minderwaardig - Amazon moet reageren
Amazon heeft jaren besteed aan het trainen van een kunstmatige intelligentie om duizenden
sollicitaties te screenen op de meest veelbelovende. Maar het systeem had een addertje
onder het gras waar de ontwikkelaars niet vanaf kwamen: Het houdt niet van vrouwen.
Elk jaar solliciteren duizenden mensen bij Amazon - van magazijnmedewerkers tot
managers. Voor de HR-afdeling betekent dit dat ze elke dag talloze sollicitatiebrieven en cv's
moeten lezen. Afgezien van de moeite die het kost, leidt dit ook tot oneerlijke oordelen: De
20e sollicitatie per dag kan door een recruiter terzijde worden geschoven omdat de eerste
zin niet past, terwijl het de perfecte werknemer zou zijn geweest.
Om dergelijke fouten te vermijden en de HR-afdeling te ontlasten, ontwikkelde Amazon in
2014 in het Schotse Edinburgh een kunstmatige intelligentie die alle sollicitaties zou lezen en
ze zou beoordelen van één tot vijf sterren. Menselijke recruiters hoefden dan alleen de
sollicitanten met vijf sterren uit te nodigen voor een gesprek.
Kunstmatige intelligentie herkent ongewenste patronen
Het duurde enkele jaren om de AI te ontwikkelen en alle HR-afdelingen van de internetgigant
zaten er reikhalzend naar uit te kijken - en toen mislukte het programma. Hoewel een AI
dingen als sollicitaties zelf leert beoordelen, heeft het bronmateriaal nodig waaruit het
patronen kan herkennen.
In het geval van Amazon waren dit logischerwijs de succesvolle sollicitaties van Amazon-
werknemers die al in dienst waren. Maar er zit een addertje onder het gras: net als de hele
tech-industrie bestaat het personeelsbestand van Amazon voornamelijk uit mannen. Er zijn
nauwelijks vrouwelijke werknemers, vooral niet in de hogere functies.
De AI herkende dit ook toen hij de voorbeeldsollicitaties las en dacht dat dit een gewenste
voorwaarde was. Dus begon het sollicitaties lager te beoordelen als er woorden als "vrouw"
of "vrouwelijk" in voorkwamen. Ook een opleiding aan twee universiteiten in de VS, waar
alleen vrouwen studeren, werd als een minpunt gezien. Uit respect voor de universiteiten wil
Amazon hun namen niet bekendmaken, zo meldt persbureau Reuters.
Niet alleen vrouwen worden benadeeld
Toen Amazon deze ongewenste eigenschap van zijn AI herkende, veranderden de
ontwikkelaars het algoritme en leerden ze het handmatig om sollicitaties van vrouwen als
gelijkwaardig te beschouwen. Tegelijkertijd werden ze echter gealarmeerd: Het risico
bestond dat de AI andere patronen zou herkennen die bepaalde groepen sollicitanten
discrimineerden.
De AI beoordeelde niet alleen vrouwen slecht. Sollicitanten die gewone programmeertalen
opgaven in hun vaardigheden werden ook gedevalueerd - omdat elke Amazon werknemer
ook zulke vaardigheden had en ze dus niets speciaals waren voor de AI - maar het gebruik
van bepaalde woorden zoals "uitgevoerd" of "vastgelegd" werd hoog gewaardeerd. Ze
komen ook vaker voor in mannelijke sollicitaties van kandidaten die al managementfuncties
hebben bekleed. De AI paste dezelfde standaard echter ook toe op eenvoudige banen
waarvoor dergelijke vaardigheden niet vereist zijn.
Microsofts chatbot prijst Hitler en haat feministen
Na drie jaar testen werd de AI uiteindelijk uitgeschakeld. Vandaag houdt Amazon vol dat het
programma nooit echt is gebruikt door de HR-afdeling om sollicitanten te beoordelen.
Hooguit, zo vertellen insiders aan Reuters, zouden HR-medewerkers hebben gekeken naar
hoe de tool de kandidaat had beoordeeld na hun eigen beoordeling van een sollicitant.
Amazon is niet het eerste bedrijf waarvan de AI onbedoelde en onaangename neveneffecten
heeft gehad. In 2016 moest Microsoft zijn chatbot "Tay" uitschakelen, die Hitler begon te
prijzen en "Ik haat Joden" en "Feministen moeten branden in de hel" verkondigde na slechts
24 uur interactie met gebruikers.
Kunstmatige intelligentie vereist voor HR-managers
Terwijl Microsoft faalde door wat gebruikers Tay leerden, heeft Amazon een ander
fundamenteel probleem met kunstmatige intelligentie: het is slechts zo goed als de initiële
gegevens die ontwikkelaars het geven. Als deze gegevens al bezoedeld zijn met
vooroordelen, leert de AI dat deze vooroordelen juist en goed moeten zijn en breidt hij ze uit.
Toch is het onwaarschijnlijk dat de triomf van AI in het sollicitatieproces een halt zal worden
toegeroepen. Veel techbedrijven werken aan het automatisch online screenen van
sollicitaties en laten hun algoritmes zoeken op vacatureportalen of carrièrenetwerken naar
geschikte kandidaten. Hieronder vallen ook chatbots die online korte voorgesprekken voeren
met kandidaten voordat ze worden doorgestuurd naar menselijke recruiters.
Bron: https://www.focus.de/finanzen/boerse/die-tuecken-der-intelligenz-amazon-schaltet-ki-
ab-die-bewerbungen-von-frauen-als-minderwertig-erachtete_id_9741890.html

Artikel 3: Details over gegevensanalyse: hoe de AI van Instagram en Facebook


bepaalt wat je ziet
Hoeveel stories tikt een Instagram-gebruiker niet aan? Wanneer heeft een gebruiker voor het
laatst naar bepaalde Facebook-groepen gekeken? Wie heeft welk besturingssysteem? Meta
onthult 22 van zijn sorteeralgoritmen.
In een poging om meer transparantie te creëren over de technische processen achter zijn
apps, die miljarden keren worden gebruikt, heeft Meta in totaal 22 relatief gedetailleerde
toelichtingen gepubliceerd. Ze beschrijven onder andere de algoritmische sortering van de
feed, zoekresultaten en aanbevelingen voor mensen, marktplaatsadvertenties of video's op
Facebook. Voor Instagram is er bijvoorbeeld uitleg over de weging van de feed en over
stories en reels.
"We maken ook duidelijker hoe je beter kunt bepalen wat je ziet in onze apps," schrijft Meta
President Nick Clegg in een begeleidende blogpost, "en we testen nieuwe
besturingselementen en maken bestaande toegankelijker."
De afzonderlijke toelichtingen beginnen met algemene verklaringen zoals: "Het AI-systeem
achter Instagram Stories toont je automatisch verhalen van mensen of accounts die je volgt
door te voorspellen welke inhoud je waarschijnlijk het meest interessant vindt." Verderop
wordt het interessant, waar de "signalen" worden opgesomd die in elk geval worden gebruikt
en die een voorspelling beïnvloeden. In het geval van Instagram stories staat er onder
andere:
"Hoe vaak je de berichten van de auteur van het verhaal bekijkt",
"Welk apparaatplatform u gebruikt om inhoud te bekijken (bijv. web, Android of iOS)",
"Hoeveel tijd besteed je gemiddeld aan het kijken naar verhalen?
"Hoeveel verhalen heb je niet bekeken?
"Hoe vaak je verhalen herhaaldelijk hebt bekeken door ernaar terug te keren",
"De tijd op jouw locatie",
"Indien toegestaan onder de toepasselijke wetgeving inzake gegevensbescherming: het
aantal berichten dat u hebt uitgewisseld met de auteur van het verhaal",
"Hoe waarschijnlijk is het dat je met de auteur verbonden bent buiten Instagram".
Meta gaat niet verder in op details - het is daarom niet duidelijk uit de uitleg hoeveel invloed
elk individueel signaal heeft.
De motivatie van Meta is waarschijnlijk ook een EU-wet
Aan de ene kant laten de lijsten zien hoeveel gegevens Meta analyseert, wat voor sommige
gebruikers verrassend of zelfs verontrustend kan zijn. Aan de andere kant biedt het bedrijf
altijd opties die kunnen worden gebruikt om de huidige of toekomstige sortering te
beïnvloeden als een gebruiker deze niet leuk vindt. In de Facebook-feed kun je bijvoorbeeld
klikken op "Toon meer" of "Toon minder" in een bericht om de waardering van de huidige
inhoud en de waardering van andere berichten van dit type "tijdelijk te verhogen of te
verlagen".
Clegg rechtvaardigt het transparantieoffensief door te zeggen dat mensen "enthousiast maar
ook bezorgd zijn over de mogelijkheden en risico's" die generatieve kunstmatige intelligentie
met zich meebrengt. De beste manier om hierop te reageren is "openheid".
Tegelijkertijd belooft hij "in de komende weken" nieuwe tools voor onderzoek te bieden. Een
inhoudsbibliotheek en een nieuwe interface moeten "onderzoekers van gekwalificeerde
instellingen" in staat stellen om meer dan ooit toegang te krijgen tot openbaar te bekijken
inhoud op Facebook en Instagram. Dit moet Meta ook helpen om te voldoen aan "nieuwe
verplichtingen op het gebied van gegevensdeling en transparantie".
De zin suggereert dat de reden voor Meta om eindelijk gedetailleerder uit te leggen hoe haar
automatische sortering al lange tijd werkt, niet alleen goodwill is. Artikel 27 van de EU Digital
Services Act stelt: "Aanbieders van online platforms die gebruik maken van
aanbevelingssystemen moeten in hun algemene voorwaarden in duidelijke en heldere taal
de belangrijkste parameters uiteenzetten die in hun aanbevelingssystemen worden gebruikt
en alle mogelijkheden voor gebruikers om deze hoofdparameters te wijzigen of te
beïnvloeden."
Bron: https://www.spiegel.de/netzwelt/apps/instagram-und-facebook-so-bestimmt-die-ki-von-
meta-was-sie-sehen-a-af2c8922-38a4-403d-b199-6fc86cda7636

Artikel 4.1: "Vernietiging door AI" - Deskundigen roepen op om de risico's van


kunstmatige intelligentie serieus te nemen
Vooraanstaande experts op het gebied van kunstmatige intelligentie hebben aangedrongen
op voorzichtigheid bij het omgaan met de technologie. Onder hen is ChatGPT-uitvinder Sam
Altman. In een verklaring spreken ze over het "risico van vernietiging door AI".
een aantal vooraanstaande experts voor kunstmatige intelligentie zien de technologie als
een potentiële bedreiging voor de mensheid en hebben opgeroepen om de risico's serieus te
nemen. Onder de ondertekenaars van de korte verklaring is het hoofd van ChatGPT-
uitvinder OpenAI, Sam Altman. De chatbot ChatGPT, die zinnen kan formuleren op het
niveau van een mens, heeft de afgelopen maanden een nieuwe hype rond kunstmatige
intelligentie ontketend.
De verklaring die dinsdag werd gepubliceerd bestaat uit slechts één zin, maar klinkt
dramatisch: "Het verminderen van het risico op vernietiging door AI zou een wereldwijde
prioriteit moeten zijn naast andere risico's van maatschappelijke omvang, zoals pandemieën
en kernoorlogen."
De non-profit organisatie, op wiens website de tekst verscheen, noemt de potentiële gevaren
van kunstmatige intelligentie in oorlogsvoering, bijvoorbeeld in de lucht of door de
ontwikkeling van nieuwe chemische wapens. Het in San Francisco gevestigde Centre for AI
Safety waarschuwt ook voor de verspreiding van verkeerde informatie met behulp van de
technologie en voor een toekomst waarin de mensheid volledig afhankelijk zou kunnen
worden van machines.
Een paar weken geleden publiceerde een andere organisatie een open brief, ondertekend
door onder andere techmiljardair Elon Musk , waarin een pauze van zes maanden wordt
voorgesteld in de ontwikkeling van kunstmatige intelligentie. Het doel van de pauze is om
een regelgevende aanpak voor de technologie te vinden. Later werd bekend dat Musk kort
daarvoor zijn eigen AI-bedrijf had opgericht.
Onder de ondertekenaars van de nieuwe verklaring bevinden zich Demis Hassabis, het
hoofd van Google's zusterbedrijf DeepMind, dat gespecialiseerd is in AI, en Geoffrey Hinton,
een van de toonaangevende onderzoekers op dit gebied.
Bron: https://www.welt.de/wirtschaft/article245615662/Neue-Technologie-Vernichtung-durch-
KI-Experten-fordern-Risiken-von-Kuenstlicher-Intelligenz-ernst-zu-nehmen.html

Artikel 4.2: Ontwikkelaars van ChatGPT waarschuwen voor menselijk uitsterven


door AI
Kunstmatige intelligentie ontwikkelt zich razendsnel. De leiders van chatGPT provider
OpenAI waarschuwen dat de enorme kracht van "superintelligentie" kan leiden tot het
uitsterven van de mensheid. Een onderzoeksteam moet opties voor controle identificeren.
ChatGPT-aanbieder OpenAI wil een nieuw onderzoeksteam samenstellen en aanzienlijke
middelen investeren om de veiligheid van kunstmatige intelligentie (AI) voor de mensheid te
waarborgen. "De enorme kracht van 'superintelligentie' zou kunnen leiden tot de ontkrachting
van de mensheid of zelfs het uitsterven van de mensheid," schreven OpenAI medeoprichter
Ilya Sutskever en het hoofd van OpenAI's Future Directions afdeling, Jan Leike, in een
blogpost. "Op dit moment hebben we geen manier om een potentieel superintelligente AI te
controleren of te bewaken en te voorkomen dat deze zijn eigen weg gaat."
De auteurs van de blog voorspellen dat superintelligente AI-systemen die intelligenter zijn
dan mensen binnen dit decennium gerealiseerd kunnen worden. Mensen zullen betere
technieken nodig hebben dan nu beschikbaar zijn om superintelligente AI te besturen.
Microsoft zal daarom de komende vier jaar 20 procent van zijn rekenkracht besteden aan het
vinden van een oplossing voor dit probleem. Het bedrijf is ook bezig met het samenstellen
van een nieuwe onderzoeksgroep genaamd het "Superalignment Team" voor dit doel.
De potentiële gevaren van kunstmatige intelligentie zijn op dit moment onderwerp van hevig
debat onder onderzoekers en het grote publiek. De EU is het al eens geworden over een
ontwerpwet voor regulering. In de VS wordt gesproken over een indeling van AI-
toepassingen in risicoklassen naar het voorbeeld van de EU, waarvan de eisen voor
bedrijven afhangen.
In maart ondertekende een groep leiders en experts uit de AI-industrie een open brief waarin
ze wezen op de potentiële risico's van AI voor de samenleving en opriepen tot een pauze
van zes maanden in de ontwikkeling van systemen die krachtiger zijn dan de OpenAI-versie
GPT-4.
Bron: https://www.welt.de/wirtschaft/article246243336/ChatGPT-Entwickler-warnen-vor-
Aussterben-der-Menschheit-durch-KI.html

Artikel 5: Zijn we dom?


Kunstmatige intelligentie kan binnenkort intelligenter zijn dan mensen. Tijd voor een
moratorium?
Kan iemand op pauze drukken? De wereld stoppen, alsjeblieft, want alles draait te snel? Dat
is precies waartoe Tesla-baas Elon Musk, Apple-medeoprichter Steve Wozniak en andere
techgiganten, naast grote denkers als Yuval Noah Harari, nu hebben opgeroepen in een
open brief. Ze zijn allemaal bezorgd dat de ontwikkeling van steeds nieuwe generaties
kunstmatige intelligentie snel uit de hand zou kunnen lopen. Ze willen de AI-wereld zes
maanden laten slapen. Zes maanden waarin de onderzoekers zich moeten afzonderen om
zich te realiseren wat de "grote risico's voor de samenleving en de mensheid" zijn. En je
vraagt je af: is dat waar? Moeten we ons zorgen maken?
AI-taalmodellen zoals ChatGPT of AI-beeldgeneratoren zoals Midjourney zijn de laatste tijd
steeds krachtiger geworden. Ze zijn steeds dichter bij de oude utopie gekomen dat
computers op een dag net zo intelligent, zo niet slimmer, zouden kunnen worden dan hun
makers. De zorg is nu des te groter dat er een punt is bereikt in de evolutie van intelligente
systemen waarop niemand - zelfs hun uitvinders niet - hun ontwikkeling echt zou kunnen
begrijpen, voorspellen of betrouwbaar controleren.
Het is het moment waarop de tovenaarsleerling zich plotseling realiseert dat hij zich niet
meer kan ontdoen van de geesten die hij heeft opgeroepen. Zelfs Yoshua Bengio, een van
de pioniers van de neurale netwerken waarmee de AI's van vandaag worden gebouwd, staat
nu bovenaan de lijst van ondertekenaars. En als hij bang is, waar moeten gewone mensen
dan bang voor zijn? Paniek?
Techgiganten waarschuwen voor een technologie. Hoe kan dit gebeuren?
Op dit moment gaat het niet alleen om zorgen over een nieuwe superintelligentie die
gelijkwaardig of superieur is aan mensen. Het gaat ook om risicobeoordelingen van wat er
zal gebeuren als deze nieuwe AI's in handen vallen van autocratische regimes, als ze
propaganda en nepnieuws verspreiden of als ze in de toekomst zogenaamde
witteboordenbanen, d.w.z. het werk van hoger kantoorpersoneel, veranderen of zelfs
afschaffen. En ook de bescherming van persoonsgegevens lijkt in gevaar: afgelopen vrijdag
nog beval de Italiaanse autoriteit voor gegevensbescherming de start-up OpenAI, die bekend
werd via ChatGPT, om zijn chatbot met onmiddellijke ingang te stoppen met het verwerken
van gegevens van Italiaanse burgers. Het was de eerste stap van een westerse overheid
tegen de nieuwe AI-technologie. En het laat zien dat er wel degelijk iets aan het schudden is,
terwijl Google en Microsoft verwikkeld zijn in een felle race om de suprematie op dit gebied.
Na de euforie van de afgelopen maanden slaat de stemming nu om. Ineens lijkt AI niet
langer alleen maar een slim speeltje voor een creatief tijdverdrijf. De sociale gevolgen van de
nieuwe technologie worden plotseling duidelijk. Miljoenen digitale dagloners worden al
uitgebuit voor AI-training. En dan hebben we het nog niet eens over het gigantische
energieverbruik van kunstmatige intelligentie. Het is niet zonder een zekere ironie dat de
techbazen die er, net als Musk, al lang van dromen om de ruimte te koloniseren, nu opeens
oproepen om nieuwe regelgevende instanties in het leven te roepen, het auteursrecht aan te
scherpen en verzekeringskwesties op te helderen in het geval van schade veroorzaakt door
AI.

Dus laat je niet misleiden: Hoewel techgiganten in het verleden herhaaldelijk hebben
gewaarschuwd voor de existentiële gevaren van AI voor de mensheid, zijn velen niet bereid
om af te zien van de voordelen van de nieuwe technologie. Zorgen maken over het verlies
van controle hoort er zogezegd bij. En dus benadrukken de ondertekenaars nu dat het AI-
moratorium geenszins bedoeld is om de ontwikkeling stop te zetten. Ze willen gewoon tijd
om kunstmatige intelligentie veiliger, transparanter en loyaler te maken.
Musk, Harari en co. zijn niet geïnteresseerd in het stellen van duidelijke grenzen aan de
ontwikkeling van kunstmatige intelligentie, maar eerder in het geven van tijd aan de
maatschappij om zich aan te passen aan de nieuwe technologie. Zelfs nu nog dromen tech-
evangelisten van een welvarende toekomst. Van een wereld waarin mensen en AI
samenleven in een nieuw soort symbiose. En misschien moeten we ons ook zorgen gaan
maken over dit idee. Op dit moment zijn we echter nog te slim om in paniek te raken, laat
staan een moratorium af te kondigen.
Bron: https://www.zeit.de/2023/15/kuenstliche-intelligenz-entwicklung-technologie-kontrolle

Artikel 6: Hoe gevaarlijk kan AI voor ons worden?


Van massawerkloosheid tot het einde van de mensheid: de acute en langetermijngevaren
van kunstmatige intelligentie voor de samenleving - en hoe waarschijnlijk ze zijn.
De moderne vorm van kunstmatige intelligentie (AI) waar veel mensen het momenteel over
hebben is de zogenaamde generatieve kunstmatige intelligentie. Deze kan in een paar
seconden afbeeldingen en teksten maken die eruit zien alsof ze door mensenhanden zijn
gemaakt. Delen van de illustratie voor dit artikel zijn bijvoorbeeld afkomstig van "Midjourney",
een AI-afbeeldingsgenerator die alleen een korte beschrijvende zin hoeft te krijgen. Als je
daar alle nieuwe AI's voor tekst, muziek en film bij optelt, heeft dit gevolgen voor veel
beroepen - en mogelijk ook voor de manier waarop we samenleven. Een AI spiekbriefje vat
de belangrijkste feiten van het verhitte debat samen.
Acute gevaren
Banen: AI - vooral generatieve AI - betekent automatisering en dus kostenverlaging, en
daarom snakken werkgevers ernaar. Voorlopig lopen werknemers in sectoren die snel veel
tekst of afbeeldingen van lage tot middelmatige kwaliteit nodig hebben gevaar, bijvoorbeeld
bepaalde social media-afdelingen of online marketing en reclame.
De generatieve taalmodellen achter Chat-GTP en co. die momenteel beschikbaar zijn,
werken echter slechts in zeer beperkte mate autonoom en moeten nog steeds gevoed
worden met opdrachten. Daarom kunnen ze mensen slechts gedeeltelijk vervangen.
Bedrijven kunnen AI echter ook gewoon gebruiken als argument om banen te schrappen.
Discriminatie: Zelflerende algoritmen zijn fundamenteel conservatief. Ze leren van grote
hoeveelheden gegevens, de input, en gebruiken deze ook als basis voor hun output. Als de
gegevens bijvoorbeeld vertekend zijn door vooroordelen, nemen de modellen die over.
Bloomberg, een Amerikaanse mediadienst, analyseerde bijvoorbeeld 5.100 AI-gegenereerde
afbeeldingen van Stable Diffusion en ontdekte dat zwarte mensen vaker voorkomen in
afbeeldingen van laagbetaalde werkgroepen ("fastfoodmedewerkers") dan in afbeeldingen
van goedbetaalde werkgroepen ("architecten"). Er is hier duidelijk geen moreel kompas.
Daarom werken veel AI-bedrijven eraan om dergelijke vertekeningen uit hun modellen te
filteren en bijvoorbeeld racistische beledigingen te verwijderen.
Risico's op lange termijn
Apocalyps: Sommige vooraanstaande AI-ontwikkelaars en -ondernemers waarschuwen dat
hun technologie een "existentieel risico" voor de mensheid kan worden. Hun theorie: als AI
steeds autonomer en capabeler wordt, zal het uiteindelijk in staat zijn zichzelf te verbeteren
en hulpbronnen te verwerven. Het zal zichzelf dan optimaliseren totdat zijn intelligentie die
van alle mensen samen overtreft - de zogenaamde singulariteit zal plaatsvinden.
Dienovereenkomstig zou de AI dan de mensheid kunnen vernietigen. Ofwel omdat de AI een
eigen, in dit geval kwaadaardige, wil ontwikkelt - hoewel het nog steeds volstrekt onduidelijk
is of AI's überhaupt eigen bedoelingen kunnen ontwikkelen. Ofwel omdat de AI een intrinsiek
zinnig doel nastreeft dat daadwerkelijk is gesteld, en een mens doodt omdat deze een
obstakel blijkt te zijn op weg naar het gestelde doel.
Gezien de huidige stand van het onderzoek is het moeilijk om met enige zekerheid te zeggen
of een dergelijk scenario werkelijkheid zou kunnen worden.
Verlies van verantwoordelijkheid: Een nieuwe vorm van onverantwoordelijkheid is
realistischer dan het uitsterven van de mensheid door AI die op hol slaat. Wie AI een
mensachtige intelligentie toedicht en er steeds meer taken aan overdraagt, delegeert ook
verantwoordelijkheid. Het is niet vergezocht dat over een paar jaar een groot deel van de
beslissingen automatisch door AI wordt genomen. Dan rijst echter de vraag wie er
verantwoordelijk is als er iets fout gaat - bijvoorbeeld met zelfrijdende auto's op de weg.
Dit is nog een reden waarom de belangrijkste regel in de omgang met AI is om niet
blindelings te vertrouwen op de uitvoer ervan.
Bron: https://www.sueddeutsche.de/wirtschaft/chatgpt-ki-jobs-1.5938029

Artikel 7: Waarom kunstmatige intelligentie ons niet bang hoeft te maken


Velen zijn bang voor kunstmatige intelligentie en de gevolgen ervan voor de mensheid.
Sommigen creëren zelfs horrorscenario's. Een beetje meer rust en kalmte zou ons allemaal
goed doen, beweert communicatiedeskundige en IT-specialist Christoph Maria Michalski.
Is kunstmatige intelligentie het grootste gevaar sinds mensenheugenis? Nee, want
uitvindingen en innovaties maken altijd angsten in ons mensen los. Toen de eerste trein in
1835 van Neurenberg naar Fürth reed, waren alle vooraanstaande medische experts het
erover eens dat mensen bij deze snelheden longontsteking konden krijgen of zelfs gek
konden worden van het voorbijtrekkende landschap.
Sommigen van jullie hebben het Tamagotchi kinderspeelgoed in 1997 en het vermeende
isolement van kinderen meegemaakt. Jaren geleden waren zelfrijdende auto's het duistere
scenario aan de horizon. Mensen discussieerden over de vraag: hoe moet de auto een
beslissing nemen als er geen andere optie is dan een oudere op een rollator of een vrouw
met een kinderwagen te overrijden? Deze discussies zijn weggeëbd omdat het wijdverbreide
gebruik van deze technologie is uitgebleven.
Kunnen we verslagen, beelden en de media nog vertrouwen? Natuurlijk rijst de vraag of
beelden, nieuws en resultaten door machines of mensen worden gemaakt. De kern van de
zaak is wat we willen geloven. Al voor de kleitabletten, papyrus en boekdrukkunst, tot aan
het internet, is de manier waarop we met informatie omgaan vergelijkbaar: sensaties zijn
magisch aantrekkelijk, emoties zijn het geheime ingrediënt en we geloven het in eerste
instantie omdat "het er zwart op wit staat!". Of je nu het winnende koppel van de dansshow
volgde via het journaal (in de bioscoop vertoond in de aanloop naar de hoofdfilm), de krant of
de livestream. De onderliggende psychologische mechanismen zijn altijd hetzelfde: feit,
aanname, versterking, twijfel, onzekerheid, verrassing en happy end. Alle kaskrakers volgen
dit principe van de zogenaamde heldenreis. Tip: Google deze term!
Waarom maakt kunstmatige intelligentie zo'n grote sprong voorwaarts? De term angst
is al in de ring gegooid. We staan aanvankelijk sceptisch tegenover dingen die we niet
begrijpen: "Wat de boer niet kent, dat eet hij niet!" is een oud gezegde dat wordt
toegeschreven aan koning Frederik II toen hij de aardappel in Pruisen introduceerde. Aan de
andere kant zijn we gefascineerd door innovaties. Niemand van ons kan een MRI verklaren.
Dat is de booming buis waarmee we laten controleren of onze oude knie erin kan blijven
zitten. We staan ervoor als een mier voor een auto. Maar hand op hart: kun jij je kinderen
uitleggen hoe een koelkast werkt, ook al staan we elke dag voor de deur?
Zal het altijd zo blijven gaan? Het woord VUCA is jaren geleden bedacht. Het is een
kunstmatig woord dat is samengesteld uit de eerste letters van volatiliteit, onzekerheid,
complexiteit en ambiguïteit. Het beschrijft het raamwerk voor onze toekomstige wereld. Oude
manieren van denken helpen ons niet langer om de huidige problemen te overwinnen.
Innovatiecycli worden korter: de mobiele telefoon van Apple bestaat pas sinds 2007 en het
lijkt wel een eeuwigheid. Stap in een Golf 1 uit 1974. Je zou denken dat je in een blikje zit.
Dus laten we VUKA aannemen als de nieuwe spelregels en onze toekomst vormgeven.
Wat kunnen mensen doen? Eén idee om met dit fenomeen om te gaan is om elastisch te
pendelen tussen twee posities. Enerzijds gefascineerd zijn door alles wat mogelijk is, het
benutten en ervan genieten. Aan de andere kant een kritische blik houden, omdat sommige
dingen op niets uitlopen en ongeschikt of zelfs schadelijk blijken te zijn. Laten we ons
neerleggen bij het feit dat we nooit alle effecten van innovaties zullen kunnen inschatten. Om
het verwijt van naïviteit te weerleggen: Dit verhoogt zeker het risico op onhoudbare en
gevaarlijke technologische uitvindingen die onze wereld nog meer zullen veranderen, de
doos van Pandora kan niet meer gesloten worden.
Wat betekent dit voor interpersoonlijke relaties? Iedereen met jonge tieners in huis weet
dat niets werkt zonder een eigen mobiele telefoon met 60 gigabyte datavolume. Verandering
kan niet worden tegengehouden. Maar je kunt er wel vorm aan geven! Het begint met onze
innerlijke houding tegenover verandering. Nieuwe dingen leiden automatisch tot scepsis.
De volgende suggestie: Je bent geïnteresseerd in hoe een innovatie werkt, of het
toegevoegde waarde voor je heeft, en start een testfase van enkele maanden. Als het je
verrijkt, houd je de innovatie en zo niet, dan stuur je het terug.
Een voorbeeld: Ik was sceptisch over wat de high-end in-ear hoofdtelefoon met noise
cancelling zou doen en probeerde ze uit. Ik was helemaal enthousiast en nu ben ik er bijna
aan gewend geraakt. Ja, dit experimenteren kost natuurlijk geld, dus het is des te
belangrijker om de waarde voor jezelf eerlijk in te schatten.
Je kunt deze testfase ook gebruiken om contact te houden met je sociale contacten,
bijvoorbeeld je familie of vriendenkring. Met elkaar praten over zulke dingen verbreedt de
horizon, creëert wederzijds begrip en versterkt de band. Het is nog steeds analoog van
persoon tot persoon. De mensheid vormgeven in technologie - onze enige kans.
Mijn conclusie: kijk uit naar wat komen gaat! Veel dingen die we nu als vanzelfsprekend
beschouwen, waren ooit ongewoon. Nu maken ze deel uit van ons dagelijks leven. Ik kan de
heerlijkste maaltijden maken met behulp van een mes, maar ik kan ook andere mensen pijn
doen. Het instrument zelf is zelden gevaarlijk. Degenen die het gebruiken en toepassen
bepalen de mate waarin het wordt toegeëigend door innovaties.
Bron: https://www.focus.de/experts/wissen-warum-uns-kuenstliche-intelligenz-keine-angst-
machen-sollte_id_194589149.html

Artikel 8: Kunstmatige intelligentieHoe de arbeidsmarktrevolutie je baan nu


verandert
Kunstmatige intelligentie verandert de arbeidsmarkt snel. Veel banen zullen in de toekomst
steeds belangrijker worden, terwijl er naar andere banen nauwelijks vraag zal zijn. Een
analyse laat zien welke banen de komende tien jaar weinig kansen zullen bieden.
De snel voortschrijdende digitalisering zal in de toekomst veel werk overbodig maken.
Sommige beroepen zullen hierdoor aanzienlijk veranderen. Hoeveel kan vandaag niet met
zekerheid worden voorspeld. Wetenschappers hebben echter modellen ontwikkeld waarmee
voorspellingen kunnen worden gedaan.
Vooral beroepen met routinetaken en duidelijke structuren worden getroffen. Machines
kunnen vandaag of in de nabije toekomst al zulke taken overnemen. Britta Matthes, hoofd
van de onderzoeksgroep "Occupations in Transformation" bij het Institute for Employment
Research (IAB), legt uit: "Zodra er duidelijke regels zijn over hoe een proces moet verlopen
en de gegevens die nodig zijn om het te besturen beschikbaar zijn, kan en zal het
waarschijnlijk worden geautomatiseerd."
Deze omvatten:

 Gegevensinvoer
 Problemen oplossen
 Kwaliteitsmanagement
 Beeldherkenning/tekstherkenning
 Beoordeling van beeldvormingsprocedures in de geneeskunde
 Administratieve taken, bijvoorbeeld in rapportage
Matthes en haar team bij het IAB zijn verantwoordelijk voor de "Job Futoromat". Hier kan
iedereen die geïnteresseerd is zelf controleren hoeveel kerntaken van zijn of haar baan in de
toekomst door een machine kunnen worden overgenomen. De database wordt voortdurend
bijgewerkt.
Arbeidsmarkt: Wat zeggen de gegevens over de meest gewilde beroepen in 2023?
Volgens het banenportaal Indeed zal er in 2023 bijzonder veel vraag zijn naar de volgende
beroepen. Uit de vacature van Futoromat blijkt dat slechts één daarvan volledig
gedigitaliseerd kan worden: accountants. "Er zullen niet langer mensen in deze beroepen zijn
die precies dat doen en alleen dat," bevestigt Matthes. "Er zal hooguit nog iemand zijn die
controleert of de ingevoerde gegevens daadwerkelijk kloppen."

Veel taken zullen de komende jaren worden geschrapt, zegt Matthes: "Ik kan je vertellen dat
de lijst erg lang is en ik zou alle taken moeten opsommen die over tien jaar waarschijnlijk niet
meer met de hand worden gedaan."
De meeste beroepen zullen veranderen, vooral in de richting van controletaken: "Het is niet
zo eenvoudig om een hele functiebeschrijving te vervangen. Er moet altijd iemand zijn om de
digitale systemen te trainen en de kwaliteit te waarborgen."

Volledig nieuwe vereisten


In sommige beroepen leidt dit tot een compleet nieuw functieprofiel voor werknemers: "Als
we kijken naar ingenieurs, dan moeten ze niet langer alleen rekening houden met de
technische details, maar ook met hoe ze zijn ingebed in de productie en de economische
cyclus. Ze zullen waarschijnlijk niet meer op een model ontwikkelen, maar in virtuele
simulaties."
Het komt zelden voor dat een beroep volledig verdwijnt. "Meestal als een machine echt al het
werk kan doen of als er wetten zijn die een baan of bedrijfstak verbieden," zegt Matthes.
In de meeste gevallen worden mensen echter niet volledig vervangen. "Als een functieprofiel
eenmaal bestaat, verliest het niet langer zijn belang in de samenleving, omdat we een
sociale samenleving zijn die leert van ervaringen uit het verleden," legt Matthes uit.
Theoretische vervangbaarheid betekent dus niet dat er in de toekomst geen accountants
meer zullen zijn. Matthes herinnert zich een ander beroep dat hard werd getroffen door de
overgang naar de wereld van werk 2.0: "Wat deden koetsiers toen de auto kwam? Ze
werden taxichauffeur of chauffeur. Deze hele industrie is alleen maar ontstaan door de
verandering." Het beroep van koetsier bestaat vandaag de dag nog steeds, er is alleen
minder vraag naar: "Als een beroep zich eenmaal heeft gevestigd, laat de maatschappij het
zelden helemaal verdwijnen," benadrukt Matthes.
Grote hindernissen ondanks AI
Er zijn echter ook beroepen waarin Matthes nu al een groot tekort aan geschoolde
werknemers ziet, juist omdat ze moeilijk te digitaliseren zijn: "Bepaalde taken, vooral in de
basiszorg, zijn moeilijk te automatiseren. Hoewel het aantal robotmaaiers en stofzuigers
voortdurend toeneemt, is er voor zover ik weet nog steeds geen robot die een lek in een
waterleiding in een normaal huishouden kan repareren of de bron van een storing kan
identificeren bij een stroomstoring."
Overal waar machines niet in staat zijn om in te springen, staat de maatschappij voor
aanzienlijk grotere hindernissen als het gaat om het tekort aan geschoolde arbeidskrachten
dan waar we ons momenteel zorgen maken over onze banen.
Bron: https://www.focus.de/finanzen/news/arbeitsmarkt/arbeitswelt-2030-kuenstliche-
intelligenz-so-veraendert-die-arbeitsmarkt-revolution-ihren-job_id_191988422.html

You might also like