De opkomst van ChatGPT en vergelijkbare kunstmatige intelligentiesystemen heeft geleid tot een sterke toename van bezorgdheid over AI. De afgelopen maanden hebben executives en onderzoekers op het gebied van AI-veiligheid voorspellingen gedaan, ook wel “P(doom)” genoemd, over de waarschijnlijkheid dat AI een grootschalige ramp zal veroorzaken.
In de AI-gemeenschap is de term “P(doom)” in de mode geraakt om de waarschijnlijkheid van zo’n ondergang te beschrijven. P(doom) is een poging om het risico van een doemscenario te kwantificeren waarin AI, vooral superintelligente AI, ernstige schade toebrengt aan de mensheid of zelfs leidt tot menselijke uitsterving.
De zorgen bereikten hun hoogtepunt in mei 2023 toen de non-profit onderzoeks- en belangenorganisatie Center for AI Safety een eenvoudige verklaring uitbracht: “Het beperken van het risico op uitsterven door A.I. zou wereldwijd een prioriteit moeten zijn, naast andere maatschappij brede risico’s zoals pandemieën en nucleaire oorlog.” De verklaring werd ondertekend door veel belangrijke spelers in het veld, waaronder de leiders van OpenAI, Google en Anthropic, evenals twee van de zogenaamde “godfathers” van AI: Geoffrey Hinton en Yoshua Bengio.
Hoe zou het zich manifesteren?
Je vraagt je misschien af hoe deze existentiële angsten zich zouden moeten manifesteren. Een bekend scenario is het gedachte-experiment van de “paperclip-maximizer” dat is beschreven door de Oxford-filosoof Nick Bostrom. Het idee is dat een AI-systeem dat belast is met het produceren van zoveel mogelijk paperclips buitengewone maatregelen kan nemen om grondstoffen te vinden, zoals het vernietigen van fabrieken en het veroorzaken van auto-ongelukken.
Een minder resource-intensieve variant omvat een AI die belast is met het verkrijgen van een reservering bij een populair restaurant en daarbij mobiele netwerken en verkeerslichten uitschakelt om te voorkomen dat andere gasten een tafel krijgen.
Of het nu gaat om kantoorbenodigdheden of een diner, het basisidee is hetzelfde: AI wordt steeds meer een vreemde intelligentie die goed is in het behalen van doelen, maar gevaarlijk omdat het niet per se overeenkomt met de morele waarden van zijn makers. En in de meest extreme versie van dit argument verandert dit in expliciete zorgen over AI die de mensheid onderwerpt of vernietigt.
Werkelijke schade
De afgelopen jaren hebben mijn collega’s en ik van het Applied Ethics Center van de UMass Boston de impact bestudeerd van de betrokkenheid bij AI op het begrip van mensen van zichzelf, en ik geloof dat deze catastrofale angsten overdreven en verkeerd gericht zijn.
Ja, de mogelijkheid van AI om overtuigende deepfake-video’s en -audio te creëren is angstaanjagend, en het kan worden misbruikt door mensen met slechte bedoelingen. In feite gebeurt dat al: Russische operatoren hebben waarschijnlijk geprobeerd Kremlin-criticus Bill Browder in verlegenheid te brengen door hem in gesprek te laten gaan met een avatar van de voormalige Oekraïense president Petro Poroshenko. Cybercriminelen gebruiken AI-voice cloning al voor diverse misdaden, van geavanceerde overvallen tot gewone oplichting.
Besluitvormingssystemen op basis van AI die krediet- en sollicitatiegoedkeuringen aanbieden, brengen het risico van algoritmische vooringenomenheid met zich mee, aangezien de trainingsgegevens en beslissingsmodellen gebaseerd zijn op langdurige sociale vooroordelen.
Dit zijn grote problemen en ze vereisen aandacht van beleidsmakers. Maar ze bestaan al een tijdje en zijn verre van catastrofaal.
Niet in dezelfde categorie
De verklaring van het Center for AI Safety plaatste AI in dezelfde categorie als pandemieën en nucleaire wapens als een groot risico voor de beschaving. Er zijn echter problemen met die vergelijking. COVID-19 heeft wereldwijd bijna 7 miljoen doden veroorzaakt, heeft een massale en voortdurende geestelijke gezondheidscrisis teweeggebracht en heeft economische uitdagingen met zich meegebracht, waaronder chronische tekorten in de toeleveringsketen en hyperinflatie.
Nucleaire wapens hebben meer dan 200.000 mensen gedood in Hiroshima en Nagasaki in 1945, hebben in de jaren daarna nog veel meer levens geëist door kanker en hebben decennialang diepgaande angst veroorzaakt tijdens de Koude Oorlog. Tijdens de Cubaanse rakettencrisis in 1962 brachten ze de wereld aan de rand van de vernietiging. Ze hebben ook de berekeningen van nationale leiders veranderd over hoe te reageren op internationale agressie, zoals momenteel te zien is bij de Russische invasie van Oekraïne.
AI is simpelweg nog lang niet in staat om dit soort schade aan te richten. Het paperclip-scenario en soortgelijke scenario’s zijn sciencefiction. Bestaande AI-toepassingen voeren specifieke taken uit in plaats van brede oordelen te vellen. De technologie is ver verwijderd van het vermogen om doelen en subdoelen te beslissen en te plannen die nodig zijn om het verkeer stil te leggen om jou een plek in een restaurant te bezorgen, of een autofabriek op te blazen om aan je behoefte aan paperclips te voldoen.
Niet alleen ontbreekt de technologie aan de complexe capaciteit voor meerlagige beoordeling die bij deze scenario’s komt kijken, maar ze heeft ook geen autonome toegang tot voldoende delen van onze kritieke infrastructuur om dat soort schade te veroorzaken.
Wat het betekent om menselijk te zijn
In werkelijkheid schuilt er een existentieel gevaar in het gebruik van AI, maar dat risico is existentieel in filosofische zin, niet apocalyptisch. AI in zijn huidige vorm kan de manier waarop mensen zichzelf zien veranderen. Het kan vaardigheden en ervaringen degraderen die mensen als essentieel beschouwen voor hun menselijkheid.
Bijvoorbeeld, mensen zijn wezens die oordelen vellen. Mensen wegen rationeel bijzonderheden af en nemen dagelijks oordeelsbeslissingen op het werk en in hun vrije tijd over wie ze moeten aannemen, wie een lening moet krijgen, wat ze moeten kijken, enzovoort. Maar steeds meer van deze oordelen worden geautomatiseerd en uitbesteed aan algoritmes. Terwijl dat gebeurt, zal de wereld niet vergaan. Maar mensen zullen geleidelijk aan het vermogen verliezen om deze oordelen zelf te maken. Hoe minder oordelen mensen maken, hoe slechter ze waarschijnlijk worden in het maken ervan.
Of neem de rol van toeval in het leven van mensen. Mensen waarderen toevallige ontmoetingen: per ongeluk op een plek, persoon of activiteit stuiten, erin worden meegesleept en achteraf de rol van toeval waarderen bij deze betekenisvolle ontdekkingen. Maar de rol van aanbevelingsalgoritmen is om dat soort serendipiteit te verminderen en te vervangen door planning en voorspelling.
Ten slotte, kijk naar de schrijfvaardigheden van ChatGPT. De technologie is bezig met het elimineren van schrijfopdrachten in het hoger onderwijs. Als dat gebeurt, zullen onderwijzers een belangrijk instrument verliezen om studenten te leren kritisch te denken.
Niet dood, maar wel gedecimeerd
Dus nee, AI zal de wereld niet opblazen. Maar de steeds kritiekloze omarming ervan, in verschillende beperkte contexten, betekent de geleidelijke uitholling van enkele van de belangrijkste vaardigheden van mensen. Algoritmes ondermijnen nu al het vermogen van mensen om oordelen te vellen, van serendipiteuze ontmoetingen te genieten en kritisch denken te ontwikkelen.
De menselijke soort zal dergelijke verliezen overleven. Maar onze manier van bestaan zal daardoor verarmd worden. De fantastische angsten rondom de komende AI-catastrofe, singulariteit, Skynet, of hoe je er ook over denkt, verhullen deze subtielere kosten. Laten we de beroemde slotregels van “The Hollow Men” van T.S. Eliot herinneren: “This is the way the world ends,” schreef hij, “not with a bang but a whimper.”
Geraadpleegde bronnen:
- AI doom, AI boom and the possible destruction of humanity | VentureBeat
- AI Is an Existential Threat–Just Not the Way You Think – Scientific American
Like ons op Facebook om meer artikelen zoals deze in je feed te zien verschijnen die je anders zou missen.