AI en de lange termijn
Kunstmatige intelligentie kan zomaar de mensheid uitroeien. De technologie moet dus snel worden beteugeld, aldus een aantal wereldwijd circulerende petities. Er is echter ook twijfel — vooral over de filosofie achter dit ‘existentiële risico’, het zogeheten longtermism.
door Ronald Veldhuizen – Skepter 36.4 (2023)
IN ONS zonnestelsel zweeft een kristallen schijf met daarop een boekenreeks geëtst: Isaac Asimovs fameuze Foundation-trilogie. De schijf werd in 2018, samen met een Tesla-sportwagen, gelanceerd door techmiljardair Elon Musk. De diskette is gefabriceerd met het oog op de toekomst: als het goed is, gaat hij veertien miljard jaar mee om de menselijke kennis ‘voor eeuwig te bewaren en te verspreiden’. Asimovs sciencefiction verhaalt hoe de mensheid op een extreem lange termijn in de toekomst kijkt en alvast voorsorteert op mogelijke rampen. Juist door millennialang vooruit te plannen, sterft onze soort niet uit.
Het idee is weer actueel: dezelfde redenatie circuleert in de discussie rond kunstmatige intelligentie, oftewel AI. De precieze term is longtermism, langetermijnisme dus.
Overheden en bedrijven zouden nu al aan de slag moeten om te voorkomen dat zelfdenkende computers in de verre toekomst de mensheid gaan uitroeien, vinden filosofen en goeroes van invloedrijke techbedrijven zelf — onder wie Elon Musk. Maar ook wetenschappers en opiniemakers tekenden het afgelopen jaar petities en open brieven om AI te beteugelen. De oproepen repten zonder uitzondering over een existentiële AI-dreiging.
De urgentie spreekt voor zich: sinds een jaar kunnen mensen nu al opdrachten geven aan vernuftige computerprogramma’s. Denk aan ChatGPT, een programma dat op verzoek hele verhalen kan afdraaien. De volgende stap is een zelfdenkende computer, met alle gevolgen van dien.
Toch heerst ook veel skepsis over de dreiging. Niemand weet precies hoe kunstmatige intelligentie zich verder ontwikkelt. Ook is het maar de vraag wat je er op voorhand tegen zou moeten doen. Is longtermisme een handig hulpmiddel om AI te beteugelen, of een dwaling?
Iedereen telt mee
Longtermisme als filosofische richting, opgekomen in het begin van dit millennium, is uiteraard niet zomaar langetermijndenken. De nadruk ligt op het idee dat toekomstige levens, zelfs die van mensen die nog geboren moeten worden, even zwaar wegen als die van mensen die er al zijn. Zo schreef de Britse filosoof Nick Bostrom al in 2013 dat de waarde van een leven niet afhangt van het feit ‘of het al bestaat of nog zal gaan bestaan als een resultaat van toekomstige gebeurtenissen en keuzes’. Omdat de komende millennia er mogelijk nog honderden miljarden mensen bij komen, heeft het ‘de hoogste morele prioriteit’ te verzekeren dat zij een waardig bestaan krijgen, aldus Bostrom.
De stap naar existentiële risico’s is dan snel gemaakt. Bostrom schrijft dat de mensheid klimaatverandering nog wel zal overleven, maar een uit de hand gelopen kernoorlog of AI kan ertoe leiden dat al die miljarden toekomstige mensen nimmer ter wereld komen.
De longtermistische ideeën komen voort uit het effectief altruïsme, een beweging die in Oxford ontstond rond de jonge filosofen William MacAskill en Toby Ord. Het verschil is dat effectief altruïsme vooral kijkt naar hoe je het best het huidige leed kunt bestrijden, in plaats van het toekomstige leed. In 2009 richtten zij Giving what we can op, met het doel mensen te laten beloven 10 procent van hun inkomen te schenken aan evidence-based goede doelen om armoede in de wereld te bestrijden.
De Vlaamse filosoof en skepticus Maarten Boudry is effectief altruïst. Hij mailt meteen dat hij zich niet identificeert als overtuigd longtermist. Toch vindt hij dat er wel wat te zeggen valt voor het vermijden van enorme rampen. ‘De kans op mensgemaakte catastrofes was nooit eerder zo groot als vandaag, en daar gaat véél te weinig aandacht naar uit. Dat gevaar moeten we dringend onderzoeken en bedwingen.’
Ontwrichtende pandemieën
Waar longtermisme met reële risico’s in de nabije toekomst overlapt, is er dan ook weinig controverse. Zo is MacAskill ervan overtuigd dat er te weinig wordt gedaan om een ontwrichtende pandemie, bijvoorbeeld door een ontsnapt laboratoriumvirus, te voorkomen. Dat het Amerikaanse budget voor preventie van epidemieën zelfs na corona slechts een fractie is van de honderden miljarden die jaarlijks naar contraterrorisme gaan, vindt hij onbegrijpelijk.
Maar MacAskill is ook bezorgd over kunstmatige intelligentie — al geeft hij meteen toe dat de dreiging daarvan wat vager is. De filosofen speculeren hierover dan ook heel wat af. Het bekendst is misschien wel Bostroms paperclipmachine, een kunstmatige intelligentie die op een dag besluit dat alle grondstoffen in de wereld moeten worden ingezet om alleen nog maar paperclips te maken.
Toby Ord waarschuwt in zijn boek The precipice uit 2020 al even dringend dat een echt zelfdenkende kunstmatige intelligentie wereldleiders kan afpersen en economische systemen kan breken. De mensheid zou in beide scenario’s verhongeren.
Messianistisch
De grote vraag is: tegen welke prijs is het verantwoord om nu al iets te doen aan een vage dreiging als AI? Dat vereist volgens de aanhangers een kansberekening. Het lastige aan die berekening is dat die de waarde afzet van iedereen die nu leeft, tegen de verwachte waarde van de mensheid in de toekomst.
De kansberekening werkt alleen als de uitbetaling in de toekomst ‘astronomisch’ veel kan opleveren, becijfert Christian Tarsney, een collega van MacAskill aan het Global Priorities Institute. Daarmee lijkt longtermisme een beetje op de ‘gok van Pascal’: de filosoof Blaise Pascal opperde in 1669 dat je beter kunt aannemen dat God wel bestaat dan niet bestaat — als hij niet bestaat, verandert er niets, als hij wel bestaat, maak je kans op eeuwige straf, maar als je goed hebt gegokt op eeuwige gelukzaligheid.
Maar hoe meer waarde we aan de toekomst hechten, hoe nadeliger de rekensom uitpakt voor het heden en de mensen die nu leven. Zoiets geldt met name voor het longtermisme zoals Bostrom predikt: het idee is juist dat er, als we goed aan de lange termijn denken, nog triljoenen mensen (al dan niet digitaal) na ons zullen komen, op deze en andere planeten. Daar wegen de crises en rampen en strevingen van de huidige mens nooit tegenop.
Met zulke population ethics heeft Boudry, zoals veel andere filosofen, nogal wat moeite. Rechtvaardiging voor gruweldaden liggen volgens hem op de loer voor ‘wie oprecht gelooft dat een oneindig goed in het verschiet ligt’.
Omdat niemand weet hoe AI — laat staan de toekomst — er straks uit gaat zien, hebben longtermisten alle ruimte scenario’s naar eigen goeddunken in te vullen. ‘Zo kunnen legitieme zorgen over de toekomst makkelijk worden vertekend en vermengd met persoonlijke wensen, doelen en messianistische overtuigingen of politieke en zakelijke belangen,’ aldus ethici Anja Kaspersen en Wendell Wallach van de Amerikaanse denktank Carnegie Council.
Boudry beschouwt de ‘techno-utopistische beloften’ van futuristen als Nick Bostrom en Ray Kurzweil, waarbij mensen niet meer sterven dan wel digitaal verder leven, als zo’n gekleurde overtuiging. Mits we de goede investeringen doen, komt er volgens de futuristen een nieuw Duizendjarig Rijk of hiernamaals. ‘Het kan snel omslaan in pseudo-religieuze waanbeelden en in anti-humanisme,’ aldus Boudry. Omdat de toekomst belangrijker is, bagatelliseren longtermisten investeringen om rampen in het heden te voorkomen.
Zo stelt Bostrom in zijn essay ‘Existential Risks’ dat aardbevingen, vulkaanuitbarstingen, wereldoorlogen en pandemieën zich vaak hebben voorgedaan zonder dat ze het bestaan van de mensheid op het spel hebben gezet, en daarom zelfs de ergste catastrofes ‘slechts rimpelingen zijn op de grote zee des levens’.
Elke seconde dat de mensheid zich bezighoudt met dat soort bijzaken, vindt Bostrom, gaat ten koste van een triljoen maal een biljoen potentiële levens die in de toekomst geboren hadden kunnen worden, bijvoorbeeld als de mensheid een ander sterrenstelsel koloniseert. Geld voor humanitaire kwesties, zoals die eerdergenoemde aardbevingen, noemde Bostrom ooit ‘feel-good’-doelen waar we niet te veel aandacht aan moeten besteden.
Dominant
Toch is het opvallend: waarom zouden juist de leiders van AI-bedrijven zélf met ‘existentiële risico’s’ van kunstmatige intelligentie pendelen? Critici zien meerdere verklaringen. Ze leiden af van de werkelijke, actuele problemen, en ze zijn, aldus hoogleraar computerlinguïstiek Emily Bender van de Universiteit van Washington in de NRC (25 augustus 2023) ook gewoon marketing: ‘Door te roepen dat deze technologie een existentiële bedreiging is, wek je de indruk dat het iets heel krachtigs is. Dat maakt het waardevol, makkelijker om aan de man te brengen.’
Elon Musk, ondertekenaar van de petitie, heeft intussen toch maar een eigen AI-bedrijf in de steigers gezet.
‘Ik zit wel met een dilemma,’ zegt Reijer Passchier, een van de ondertekenaars van de Nederlandse ‘Control AI’-petitie en hoogleraar Digitalisering en de democratische rechtsstaat aan de Open Universiteit. De petitie pleit ervoor dat de overheid de regie neemt over AI, en die niet in handen van het bedrijfsleven laat. ‘Aan de ene kant leidt dat debat over longtermism af van de reële kanten van het AI-probleem, die zich nu ook al manifesteren. Maar zulke petities bieden ons wel een kans om het over die reële problemen te hebben.’
Andere ondertekenaars zijn onder meer Lodewijk Asscher, Arend Jan Boekestijn, Rutger Bregman, Klaas Dijkhoff, Maxim Februari, Bas Heijne en Martin Koolhoven. De huidige problemen, aldus de petitie, zijn talrijk: de bestaande AI-systemen lijken levensechte gesprekken te voeren, maar ze kunnen dat door ongelofelijk veel teksten van het internet te plukken, ook die waarop auteursrecht rust. Amerikaanse media willen daarom een vergoeding van de makers van chatbot ChatGPT.
AI kan ook mensenrechten ondermijnen, vooral wanneer landen het gaan gebruiken om hun burgers te bespioneren, aldus de VN. En AI-algoritmes verrijken zich doorgaans met gegevens waar menselijke fouten in kunnen zitten. Zo vergroten ze vooroordelen uit, bijvoorbeeld als het gaat om medische beslissingen, bleek uit een spraakmakende studie van Ziad Obermeyer in Science.
Uiteindelijk zijn het inderdaad niet overheden, maar bedrijven die bepalen hoe de algoritmes werken. Bij elkaar opgeteld tekent volgens Passchier zich een patroon af: dankzij AI kunnen grote bedrijven uit Silicon Valley ongekend veel macht verwerven. ‘Ik zou niet zeggen dat de mensheid voor een existentieel risico staat, maar dat dit wel geldt voor de waarden die ons leven en onze welvaart mogelijk maken. Het is de democratische rechtsstaat die onder existentiële druk staat.’
Stroomversnelling
Kunstmatige intelligentie werkt als een soort schaalvergroter, denkt Passchier. Het is hem duidelijk dat bedrijven zoals Google en Meta al jaren een enorme vinger in de pap hebben van internetdiensten zoals nieuwsvoorziening en emailverkeer, en daardoor een enorm machtige lobby erop nahouden. ‘Met AI komt dat in een stroomversnelling. Je kunt AI alleen goed ontwikkelen als je veel data verzamelt, dus het bedrijf dat de beste infrastructuur regelt, gaat de AI-race winnen. En als je eenmaal de beste AI hebt, komt iedereen naar jou. Net zoals dat iedereen nu Google als zoekmachine gebruikt.’
Op het moment dat een AI-bedrijf een belangrijke voorziening in de samenleving gaat verzorgen, zegt Passchier, kan het ook wetgeving gaan beïnvloeden en zelfs corrumperen. ‘Ze kunnen ook allerlei rechtszaken gaan voeren en die dan eindeloos rekken.’
Intussen, stelt hij, kan zo’n bedrijf bepalen waar de belangrijkste AI-investeringen heen gaan. Dat zal vooral voor winstoogmerk zijn; advertenties en dergelijke. ‘Rond AI doen universiteiten allemaal heel interessante dingen op het gebied van klimaat en gezondheidszorg. Maar ze zullen dat onderzoek nooit kunnen opschalen als het bedrijfsleven bepaalt dat die ontwikkelingen niet de moeite waard zijn.’
‘De toekomst is nu’
Pak daarom juist die huidige problemen aan, schrijven Carnegie-ethici Kaspersen en Wallach, zodat je de weg vrijmaakt voor een welvarende toekomst. ‘De toekomst is nu,’ noteren ze. Iets als longtermisme zit een eerlijke discussie op prioriteiten in de (nabije) toekomst alleen maar in de weg.
En wat zal de toekomst überhaupt brengen? Wie weet is het longtermistische perspectief daarop gewoon verspilde moeite, moppert filosoof Eric Schwitzgebel op zijn blog. ‘Risico’s zoals een kernoorlog, ongehoorzame AI, of een genetisch gemanipuleerde pandemie waren zo kort als honderd jaar geleden maar moeilijk voorstelbaar. Ook wij hebben misschien geen flauw idee van wat de echte risico’s over honderd jaar zijn.’
Literatuur
- N. Bostrom: Astronomical waste: the opportunity cost of delayed technological development. Utilitas 2003;5:308.
- N. Bostrom: Existential risk prevention as global priority. Global Policy 2013;4:15.
- Future of Life Institute: Pause giant AI experiments: an open letter, 12 april 2023.
- Control AI: Politiek, neem controle over AI, 2023. Aipetitie.nl.
- Z. Obermeyer, B. Powers, C. Vogeli, S. Mullainathan: Dissecting racial bias in an algorithm used to manage the health of populations. Science 2019;366:447.
- É. P. Torres: Against longtermism, 19 oktober 2021.
- E. Schwitzgebel: Against longterminism, 5 januari 2022.