DELEN | AFDRUKKEN | E-MAIL
Vóór Covid zou ik mezelf een technologie-optimist hebben genoemd. Nieuwe technologieën verschijnen bijna altijd te midden van overdreven angsten. Spoorwegen zouden leiden tot psychische problemen, fietsen zouden vrouwen onvruchtbaar of gek maken, en de vroege elektriciteit werd verantwoordelijk gehouden voor alles, van moreel verval tot fysieke ineenstorting. Na verloop van tijd verdwenen deze angsten, pasten samenlevingen zich aan en steeg de levensstandaard. Het patroon was zo bekend dat kunstmatige intelligentie waarschijnlijk hetzelfde patroon zou volgen: ontwrichtend, soms misbruikt, maar uiteindelijk beheersbaar.
De coronajaren hebben dat vertrouwen aan het wankelen gebracht, niet omdat de technologie faalde, maar omdat de instellingen faalden.
In grote delen van de wereld reageerden regeringen en deskundige instanties op onzekerheid met ongekende sociale en biomedische interventies, gerechtvaardigd door worstcasescenario's en met opmerkelijke zekerheid afgedwongen. Concurrerende hypotheses werden gemarginaliseerd in plaats van besproken. Noodmaatregelen werden omgezet in beleid voor de lange termijn. Toen de bewijzen veranderden, werden fouten zelden toegegeven en was verantwoording nog zeldzamer. De ervaring legde een dieperliggend probleem bloot dan welke beleidsfout dan ook: moderne instellingen lijken slecht toegerust om onzekerheid te beheersen zonder hun bevoegdheden te overschrijden.
Die les weegt nu zwaar mee in de debatten over kunstmatige intelligentie.
De AI-risicokloof
Grofweg valt de bezorgdheid over geavanceerde AI uiteen in twee kampen. De ene groep – geassocieerd met denkers als Eliezer Yudkowsky en Nate Soares – stelt dat voldoende geavanceerde AI per definitie catastrofaal gevaarlijk is. In hun opzettelijk scherpe formulering, Als iemand het bouwt, sterft iedereenHet probleem zit hem niet in slechte bedoelingen, maar in de prikkels: concurrentie zorgt ervoor dat iemand de kantjes eraf loopt, en zodra een systeem niet meer onder controle te houden is, doen goede bedoelingen er niet meer toe.
Een tweede groep, waaronder figuren als Stuart Russell, Nick Bostrom en Max Tegmark, neemt de risico's van AI ook serieus, maar is optimistischer dat afstemming, zorgvuldig bestuur en geleidelijke implementatie ervoor kunnen zorgen dat systemen onder menselijke controle blijven.
Ondanks hun verschillen komen beide kampen tot één conclusie: ongebreidelde AI-ontwikkeling is gevaarlijk en een vorm van toezicht, coördinatie of beperking is noodzakelijk. Waar ze van mening verschillen, is over de haalbaarheid en de urgentie. Wat echter zelden wordt onderzocht, is of de instellingen die deze beperking moeten bieden, zelf wel geschikt zijn voor die rol.
Covid geeft aanleiding tot twijfel.
Covid was niet zomaar een crisis in de volksgezondheid; het was een levend experiment met door experts gestuurd bestuur onder onzekerheid. Geconfronteerd met onvolledige gegevens kozen de autoriteiten herhaaldelijk voor maximale interventies, gerechtvaardigd door speculatieve schade. Dissidentie werd vaak beschouwd als een morele tekortkoming in plaats van een wetenschappelijke noodzaak. Beleid werd niet verdedigd door middel van transparante kosten-batenanalyses, maar door een beroep te doen op autoriteit en angst voor hypothetische toekomstscenario's.
Dit patroon is belangrijk omdat het laat zien hoe moderne instellingen zich gedragen wanneer er existentiële belangen op het spel staan. De prikkels verschuiven naar daadkracht, controle over het narratief en morele zekerheid. Foutcorrectie wordt reputatieschade. Voorzichtigheid houdt op een instrument te zijn en wordt een doctrine.
De les is niet dat experts per definitie gebrekkig zijn. Het is dat instellingen overmoed veel betrouwbaarder belonen dan bescheidenheid, vooral wanneer politiek, financiering en publieke angst samenvallen. Zodra buitengewone bevoegdheden worden opgeëist in naam van de veiligheid, worden ze zelden vrijwillig weer opgegeven.
Dit zijn precies de dynamieken die nu zichtbaar zijn in de discussies over toezicht op AI.
De "Wat als"-machine
Een veelvoorkomende rechtvaardiging voor omvangrijke overheidsinterventie is de hypothetische boosdoener: Wat als een terrorist dit bouwt? Wat als een schurkenstaat dat doet? Vanuit die premisse vloeit het argument voort dat regeringen preventief, op grote schaal en vaak in het geheim moeten optreden om een catastrofe te voorkomen.
Tijdens de coronapandemie werd een vergelijkbare logica gebruikt om grootschalige biomedische onderzoeksagenda's, noodmaatregelen en sociale controlemaatregelen te rechtvaardigen. De redenering was cirkelredenering: omdat er iets gevaarlijks was. macht Als dat gebeurt, moet de staat nu buitengewone maatregelen nemen – maatregelen die op zichzelf aanzienlijke, slecht begrepen risico's met zich meebrengen.
AI-governance wordt steeds vaker op dezelfde manier benaderd. Het gevaar schuilt niet alleen in het feit dat AI-systemen zich onvoorspelbaar kunnen gedragen, maar ook in het feit dat de angst voor die mogelijkheid een permanente noodregering – gecentraliseerde controle over computergebruik, onderzoek en informatiestromen – zal legitimeren, met als argument dat er geen alternatief is.
Privérisico, publiek risico
Een onderbelicht onderscheid in deze debatten is het verschil tussen risico's die worden veroorzaakt door private actoren en risico's die worden veroorzaakt door overheidsinstanties. Private bedrijven worden – onvolmaakt, maar wel degelijk – beperkt door aansprakelijkheid, concurrentie, reputatie en marktwerking. Deze beperkingen sluiten schade niet uit, maar creëren wel terugkoppelingseffecten.
Overheden werken anders. Wanneer staten handelen in naam van catastrofepreventie, verzwakt de terugkoppeling. Mislukkingen kunnen worden geherclassificeerd als noodzakelijkheden. Kosten kunnen worden afgewenteld op externe partijen. Geheimhouding kan worden gerechtvaardigd door veiligheidsmaatregelen. Hypothetische toekomstige schade wordt een instrument voor beleidsvorming in het heden.
Verschillende AI-denkers erkennen dit impliciet. Bostrom heeft gewaarschuwd voor "lock-in"-effecten – niet alleen van AI-systemen, maar ook van bestuursstructuren die in panieksituaties zijn ontstaan. Anthony Aguirre's oproep tot wereldwijde terughoudendheid, hoewel logisch coherent, is afhankelijk van internationale coördinatieorganen die de laatste tijd een slechte reputatie hebben op het gebied van bescheidenheid en het corrigeren van fouten. Zelfs meer gematigde voorstellen gaan ervan uit dat toezichthouders in staat zijn politisering en een steeds verdergaande uitbreiding van hun taken te weerstaan.
Covid geeft ons weinig reden om vertrouwen te hebben in die aanname.
De paradox van toezicht
Dit leidt tot een verontrustende paradox in het hart van het AI-debat. Als men werkelijk gelooft dat geavanceerde AI moet worden ingeperkt, vertraagd of gestopt, dan zijn het overheden en transnationale instellingen die daar het meest waarschijnlijk de macht toe hebben. Toch zijn het juist deze actoren wier recente gedrag het minste vertrouwen wekt in een beheerst en omkeerbaar gebruik van die macht.
De manier waarop noodsituaties worden geformuleerd, is hardnekkig. De autoriteit die wordt verworven om hypothetische risico's te beheersen, heeft de neiging te blijven bestaan en uit te breiden. Instellingen bagatelliseren zelden hun eigen belang. In de context van AI roept dit de vraag op of de reactie op AI-risico's fragiele, gepolitiseerde controlesystemen versterkt die moeilijker te ontmantelen zijn dan welke individuele technologie dan ook.
Het gevaar schuilt, met andere woorden, niet alleen in het feit dat AI aan menselijke controle ontsnapt, maar ook in het feit dat de angst voor AI de machtsconcentratie versnelt in instellingen die er al om bekend staan traag te zijn in het toegeven van fouten en vijandig te staan tegenover afwijkende meningen.
Het werkelijke risico opnieuw bekijken
Dit is geen pleidooi voor zelfgenoegzaamheid ten aanzien van AI, noch een ontkenning dat krachtige technologieën daadwerkelijk schade kunnen aanrichten. Het is een pleidooi voor een breder perspectief. Institutioneel falen is op zichzelf een existentiële variabele. Een systeem dat uitgaat van welwillend, zelfcorrigerend bestuur is niet veiliger dan een systeem dat uitgaat van welwillende, op elkaar afgestemde superintelligentie.
Vóór Covid was het aannemelijk dat het meeste technologische pessimisme te wijten was aan een menselijke neiging tot negativiteit – de neiging om te geloven dat de uitdagingen van onze generatie uniek onoverkomelijk zijn. Na Covid lijkt scepsis minder op een vooroordeel en meer op een ervaring.
De centrale vraag in het AI-debat is daarom niet alleen of machines in lijn kunnen worden gebracht met menselijke waarden, maar ook of moderne instellingen erop te vertrouwen zijn dat ze onzekerheid beheersen zonder deze te versterken. Als dat vertrouwen is afgenomen – en Covid wijst daarop – dan verdienen oproepen tot uitgebreid toezicht op AI minstens evenveel kritische blik als beweringen over technologische onvermijdelijkheid.
Het grootste risico is misschien niet dat AI te machtig wordt, maar dat de angst voor die mogelijkheid vormen van controle rechtvaardigt waarvan we later ontdekken dat ze veel moeilijker te verdragen – of te ontvluchten – zijn.
-
Roger Bate is Brownstone Fellow, Senior Fellow bij het International Center for Law and Economics (januari 2023-heden), bestuurslid van Africa Fighting Malaria (september 2000-heden) en Fellow bij het Institute of Economic Affairs (januari 2000-heden).
Bekijk alle berichten