Skepsiscongres 2024: ‘AI kookt zo over’

Wat te doen met kunstmatige intelligentie, oftewel AI? De alomtegenwoordige technologie verdient een sceptische blik, bleek op het zeer goed bezochte jaarlijkse Skepsis-congres, 9 november jl. in Amersfoort.

Angstwekkend trefzeker is kunstmatige intelligentie absoluut, demonstreert Skepsis-voorzitter Eric-Jan Wagenmakers bij de opening van het jaarlijkse Skepsis-congres, dat in de Eenhoorn in Amersfoort plaatsvond. Hij vroeg aan chatbot en taalmodel Chat- GPT wat Stichting Skepsis kan doen om een jonger publiek aan zich te binden. En ja hoor, er rolt een lijst uit met zes wel héél concrete suggesties. 

Ja, dat is heus ontzagwekkend, zegt dagvoorzitter Richard Engelfriet, maar misschien we moeten we ons daar niet al te veel door laten meeslepen. Technologische hypes waar weinig van overblijft zijn immers van alle tijden. ‘We zijn ook niet allemaal massaal gaan rijden met Segways.’ 

Wat we wél massaal doen, meent taalwetenschapper Mark Dingemanse van de Radboud Universiteit, is het zien van betekenis in willekeur. Dat fenomeen kent een lange geschiedenis – oude beschavingen lazen bijvoorbeeld ingewanden uit geslachte dieren af en namen zo beslissingen. Actuelere technologies of decision making als horoscopen zijn ‘schijnbaar onpartijdig’ en geven ons ‘specifieke vaagheden’ die ons verleiden tot schijnzekerheid.

Potje, kook!

Deze vaagheden als waarheid aannemen – het Forer-effect – is heel aantrekkelijk, liet een therapeutisch experiment van Harold Garfinkel uit de jaren vijftig zien. In dit experiment mochten studenten vragen stellen aan een zogenaamde therapeut, die voor de antwoorden slechts een van tevoren vastgelegde toevalsrij van ja’s en nee’s oplas.

Toch zagen de studenten enorm veel betekenis in de antwoorden. Schijnbare onpartijdigheid, specifieke vaagheden en onweerstaanbare interactie zijn de ingrediënten die het mensen volgens Dingemanse zo verleidelijk maken om betekenis te leggen in ChatGPT. Omdat deze chatbot zo ogenschijnlijk menselijk is (het is geprogrammeerd om netjes met twee woorden te spreken en zich te verontschuldigen), schrijven wij er ook andere eigenschappen aan toe, zoals intelligentie of autoriteit. Maar, zoals de zaal vaker merkt die dag, is AI verre van intelligent.

Elke respons van ChatGPT is een pastiche van webteksten en gespreksgeschiedenis die het op het internet kan vinden. Zo bijt het programma zich helemaal stuk op feitelijke informatie als hij het vraagt naar de Londense wijnimporteur Otros Vinos van Fer- nando Berry, vertelt Dingemanse. Met willekeurige snippers van het internet die gaan over Spaanse wijn, maakt de chatbot een woordenbrij, en beweert het dat Otros Vinos dus óók in Spanje zit in plaats van Londen, en dat Fernando zélf wijn maakt (beide fout). De manier waarop ChatGPT hier werkt, doet Dingemanse denken aan Grimms sprookje ‘De zoete pap’. Zei je ‘Potje, kook’, dan kookte het potje heerlijke zoete gierstepap. In Grimms sprookje kookt het potje uiteindelijk over en overspoelt de stad met brij, zodat de inwoners zich er doorheen moeten eten.’ 

Screenshot

Betekenisvolle controle

De tweede spreker, AI-onderzoeker Lotte van Elteren van de Radboud Universiteit, schept orde in de data die aan deze woordenbrij ten grondslag liggen. Mensen weten niet langer waar die data vandaan komen. Tegelijkertijd worden algoritmische processen steeds vaker gebruikt in besluitvorming. Van Elteren vertelt dat we die besluitmacht om drie redenen niet uit handen mogen geven aan AI. 

De eerste reden – AI bias – is dat algoritmes keuzes maken op basis van bevooroordeelde datasets, zoals met de toeslagenaffaire gebeurde. Zo hangt een vooroordeel over afkomst samen met je verdiende inkomen en wat je kunt kopen. Als je door het ene algoritme op een plek wordt gezet, nemen andere algoritmes dit over en versterken ze dit oordeel in een vicieuze cirkel. 

De tweede reden lijkt op wat Dingemanse eerder al vertelde: mensen neigen ernaar om AI-voorstellen te makkelijk voor waar aan te nemen, iets dat algorithmic bias heet. Maar als AI gemeengoed wordt, bijvoorbeeld onder artsen die het gebruiken voor diagnostiek, wie neemt er dan nog de moeite om te checken of het geen fouten maakt?

De laatste reden gaat over wie er verantwoordelijk is: het algoritme of de mens. Wie is er bijvoorbeeld verantwoordelijk voor een ongeluk in een zelfrijdende auto? Door mensen bij aankoop een papiertje te laten ondertekenen legt Tesla die verantwoordelijkheid bij mensen. Niet echt ethisch, vindt Van Elteren. Kijkend naar deze risico’s pleit Van Elteren voor betere regelgeving en technologie. Afgelopen jaar nam de EU al de AI-Act aan, die regels verbindt aan verschillende algoritmische risiconiveaus.

Tegenstanders vrezen dat zulke strenge regels de AI-innovaties afremmen, maar volgens Van Elteren is het juist omgekeerd: de technologie verbetert door betekenisvolle menselijke controle. De toekomst: AI-experts opleiden die controle houden en achter een beslissing kunnen staan, gegrond op mensenrechten, onder andere. 

Privacymoeheid 

Die controle lijkt nu nog ver te zoeken. Door online informatie te delen op sociale media of via sporthorloges krijgen bedrijven schatten aan onze data in handen die ze verkopen voor allerlei doeleinden. Zo traint het Amerikaanse Clearview AI hun tools met menselijke foto’s om deze individuen via camerabeelden op straat te identificeren. Dat gaat overigens niet altijd goed; door de tools zijn mensen onterecht voor misdaden veroordeeld. ‘If this is the age of information, privacy is the issue of our times’, vindt IT-professor Alessandro Acquisti. 

Maar mensen zijn nu al moe om hun eigen privacy te beschermen, constateert Sophie Boerman, die aan Wageningen University onderzoekt hoe communicatie ons overtuigt. Deze privacy fatigue stelt bedrijven in staat ons via algoritmes te manipuleren opdat we bijvoorbeeld bepaalde aankopen doen. Sommige mensen zijn daar volgens Boerman extra kwetsbaar voor, zeker als ze AI gaan gebruiken. De informatie die ze via chatbots met Big Tech delen, maakt het voor de AIbedrijven nóg makkelijker om ze verder uit te buiten. Die mensen verdienen bescherming, stelt Boerman. 

 

Journalist Menno van den Bos, die voor NRC en Vrij Nederland schrijft, laat zien dat er in de onheilspellende AI-jungle ook veel broodjeaapverhalen rondslingeren. Zo is er het onzingerucht dat taalmodel GPT-4 uit eigen wil succesvol zzp’ers op klusjessite TaskRabbit zou hebben benaderd om de beveiliging van websites te omzeilen door ze CAPTCHA’S te laten oplossen – puzzeltjes om websitebezoekers als mens te identificeren. Bestsellerauteur Yuval Noah Harari is een hardnekkige verspreider van dit verhaal, en anderen praten hem dan weer na. Het echte verhaal ligt anders, vertelt Van den Bos: een groep mensen bleek GPT-4 constant instructies te geven om door de website- barricades te komen. Dat laat zien, zegt hij, dat niet AI, maar slechte intenties van mensen te vrezen vallen.

In werkelijkheid is AI volgens Van den Bos helemaal niet nodig om mensen te misleiden. Kwaadwilligen putten nog voldoende uit ‘gewone’ misinformatie – denk aan Trump die zomaar claimde dat immigranten honden eten. Het is dus niet nodig te focussen op de spannendste technologie. Voor minder AI-angst pleit Van den Bos voor meer AI-geletterdheid, te luisteren naar kritische onderzoekers zonder belangen in plaats van Big Techs en minder ontvankelijk te worden voor misinformatie. Daar hoort ook bij om niet vroegtijdig met AI in zee te gaan om ‘het monster voor te blijven’, zoals in de zorg misschien wel gebeurt. 

Spookverhalen 

Dat is iets wat Paul Iske, Chief Failure Officer Instituut voor Briljante Mislukkingen, beaamt: ‘Te vroeg is niet op tijd.’ Iske ging van de ABN AMRO naar Shell en verliet daarna het bankwezen; noem het een mislukte carrière. Nu is hij innovatiehoogleraar aan de School of Business and Economics van de Universiteit Maastricht. Via een interactieve peiling verzoekt Iske de zaal recente mislukkingen in te voeren. Missers als ‘een band verkeerd plakken’ of ‘aankomen tijdens het afvallen’ zijn een stuk minder complex dan bij AI. Met oneliners krijgt Paul de lachers op z’n hand en legt hij in één klap uit hoe mislukte AI-innovaties bij bedrijven vaak voor ‘faalkosten’ zorgen. Maar nu kunnen anderen van die fouten leren; ‘briljante mislukkingen’ noemt Iske die. Het gaat immers dikwijls om goed voorbereide ideeën die toch anders uitpakken dan verwacht. Door te leren van faalpatronen, zoals ‘te lang ergens mee doorgaan’, ontstaan er ‘faalopbrengsten’ waar anderen de vruchten van moeten kunnen plukken. Iske wil het recht ‘Briljant te Mislukken’ toevoegen aan de mensenrechten van de VN. Instituten als de Vrije Universiteit Amsterdam gingen met ondertekening van het recht al voor. 

In de koffiepauze komt een live verbinding met de laatste spreker tot stand. Amerikaan Guy P. Harrison is historicus, antropoloog, schrijver van bestsellers en – niet onbelangrijk: kritisch denker. Hij verschijnt op het grote scherm. ‘It’s very early in the morning in LA’, stelt dagvoorzitter Richard Engelfriet vast. ‘Are you a morning person, Guy?’ ‘I am today’, antwoordt Harrison – voor sceptici staat hij graag vroeg op.

Net als Van den Bos stelt Harrison vast dat AI potentieel gevaarlijk is omdat er ménsen bij betrokken zijn. ‘Het ene moment vinden mensen vliegtuigen uit, het volgende laten we er bommen uit vallen’. Stel dat AI leidt tot chaos en misinformatie op het internet, dan ziet Harrison toch een lichtpuntje aan die zogeheten ‘AI-Apocalyps’. Hij houdt rekening met de mogelijkheid dat de mensheid veel sceptischer en rationeler wordt. Want op het moment dat iedereen voor de gek is gehouden met AI-gegenereerde nepinhoud, worden mensen misschien vanzelf weer sceptischer en bedachtzamer, schetst Harrison. ‘Je brein is de eerste en laatste verdediging tegen wat je aan informatie binnenlaat’, besluit Harrison.

Daarmee – weet ook de Amerikaan – vertelt hij het publiek niks nieuws. Toch zet Harrison met deze uitsmijter de zaal wel op scherp, net zo goed als de overige sprekers dat lukte. Blijf ook sceptisch over AI-spookverhalen, tipte Van den Bos de zaal eerder nog. In het kader van die spookverhalen attendeerde Engelfriet ons bij de opening er al op dat mensen bij de introductie van de trein nog bang waren dat hun bloed ging koken. 

Duidelijk is dat AI de gemoederen voorlopig blijft bezighouden, weet de congresbezoeker als dagvoorzitter Engelfriet afsluit. Het blijft nog maar de vraag welke wijn van Otros Vinos ChatGPT de bezoekers nou weer bij de borrel zou hebben aangeraden. 

Niels Olfert, freelance wetenschapsjournalist 
Foto’s Thomas de Wit

 

Vond u dit artikel interessant? Overweeg dan eens om Skepsis te steunen door donateur te worden of een abonnement op Skepter te nemen.

Steun Skepsis