Före covid skulle jag ha beskrivit mig själv som en teknologisk optimist. Ny teknik dyker nästan alltid upp mitt i överdrivna farhågor. Järnvägar ansågs orsaka mentala sammanbrott, cyklar ansågs göra kvinnor infertila eller galna, och tidig elektricitet anklagades för allt från moraliskt förfall till fysisk kollaps. Med tiden bleknade dessa orosmoment, samhällen anpassade sig och levnadsstandarden steg. Mönstret var tillräckligt välbekant för att artificiell intelligens verkade sannolikt följa det: störande, ibland felanvänd, men i slutändan hanterbar.
Covidåren rubbade det förtroendet – inte för att tekniken misslyckades, utan för att institutionerna gjorde det.
Över stora delar av världen reagerade regeringar och expertorgan på osäkerhet med exempellösa sociala och biomedicinska interventioner, motiverade av värsta tänkbara scenario-modeller och upprätthölls med anmärkningsvärd säkerhet. Konkurrerande hypoteser marginaliserades snarare än debatterades. Nödåtgärder hårdnade till långsiktig politik. När bevisen förändrades var erkännanden av fel sällsynta, och ansvarsskyldighet ännu sällsyntare. Erfarenheten avslöjade ett djupare problem än något enskilt politiskt misstag: moderna institutioner verkar dåligt rustade för att hantera osäkerhet utan att överdriva.
Den lärdomen väger nu tungt i debatterna om artificiell intelligens.
Riskklyftan inom AI
I stort sett kan oron kring avancerad AI delas in i två läger. En grupp – associerad med tänkare som Eliezer Yudkowsky och Nate Soares – menar att tillräckligt avancerad AI per automatik är katastrofalt farlig. I sin avsiktligt skarpa formulering, Om någon bygger det, dör alla, problemet är inte dåliga avsikter utan incitament: konkurrens säkerställer att någon tar genvägar, och när ett system undslipper meningsfull kontroll spelar avsikterna inte längre någon roll.
Ett andra läger, inklusive personer som Stuart Russell, Nick Bostrom och Max Tegmark, tar också AI-risker på allvar men är mer optimistiska om att anpassning, noggrann styrning och gradvis implementering kan hålla systemen under mänsklig kontroll.
Trots sina meningsskiljaktigheter är båda lägren överens om en slutsats: obegränsad AI-utveckling är farlig, och någon form av tillsyn, samordning eller begränsning är nödvändig. Där de skiljer sig åt är genomförbarhet och brådska. Det som dock sällan undersöks är huruvida de institutioner som förväntas tillhandahålla den begränsningen själva är lämpliga för rollen.
Covid ger anledning till tvivel.
Covid var inte bara en folkhälsokris; det var ett verkligt experiment i expertstyrd styrning under osäkerhet. Inför ofullständiga data valde myndigheterna upprepade gånger maximala interventioner motiverade av spekulativa skador. Oliktänkande behandlades ofta som ett moraliskt misslyckande snarare än en vetenskaplig nödvändighet. Politik försvarades inte genom transparenta kostnads-nyttoanalyser utan genom vädjanden till auktoriteter och rädsla för hypotetiska framtider.
Detta mönster är viktigt eftersom det visar hur moderna institutioner beter sig när insatser framställs som existentiella. Incitament förskjuts mot beslutsamhet, narrativ kontroll och moralisk säkerhet. Felkorrigering blir kostsamt för anseendet. Försiktighet slutar vara ett verktyg och blir en doktrin.
Lärdomen är inte att experter har unika brister. Den är att institutioner belönar överdriven självförtroende mycket mer tillförlitligt än ödmjukhet, särskilt när politik, finansiering och allmän rädsla går hand i hand. När extraordinära befogenheter väl tas i anspråk i säkerhetens namn, avstår man sällan från dem frivilligt.
Det är just den dynamik som nu syns i diskussioner om AI-tillsyn.
"Tänk om"-maskinen
En återkommande motivering för expansiv statlig intervention är den hypotetiska dåliga aktören: Tänk om en terrorist bygger detta? Tänk om en skurkstat gör det? Från den premissen följer argumentet att regeringar måste agera förebyggande, i stor skala och ofta i hemlighet för att förhindra katastrofer.
Under covid-19 rättfärdigade liknande logik omfattande biomedicinska forskningsagendor, nödtillstånd och sociala kontroller. Resonemanget var cirkulärt: eftersom något farligt kanske Om det händer måste staten vidta extraordinära åtgärder nu – åtgärder som i sig medförde betydande, dåligt förstådda risker.
AI-styrning utformas alltmer på samma sätt. Faran är inte bara att AI-system kan bete sig oförutsägbart, utan att rädslan för den möjligheten kommer att legitimera permanent krisstyrning – centraliserad kontroll över beräkningar, forskning och informationsflöden – med motiveringen att det inte finns något alternativ.
Privat risk, Offentlig risk
En underskattad skillnad i dessa debatter är mellan risker som genereras av privata aktörer och risker som genereras av statliga myndigheter. Privata företag begränsas – ofullständigt, men meningsfullt – av ansvar, konkurrens, rykte och marknadsdisciplin. Dessa begränsningar eliminerar inte skada, men de skapar återkopplingsslingor.
Regeringar fungerar annorlunda. När stater agerar i katastrofförebyggandets namn försvagas återkopplingen. Misslyckanden kan omklassificeras som nödvändigheter. Kostnader kan externaliseras. Sekretess kan rättfärdigas av säkerhet. Hypotetiska framtida skador blir politiska påtryckningsmedel i nuet.
Flera AI-tänkare erkänner implicit detta. Bostrom har varnat för ”inlåsningseffekter” – inte bara från AI-system, utan från styrningsstrukturer som skapas under panikopslag. Anthony Aguirres uppmaning till global återhållsamhet, även om den är logiskt sammanhängande, bygger på internationella samordningsorgan vars senaste erfarenhet av ödmjukhet och felkorrigering är dålig. Ännu mer moderata förslag förutsätter att tillsynsmyndigheter kan motstå politisering och mission creep.
Covid ger oss föga anledning att vara säkra på det antagandet.
Övervakningsparadoxen
Detta leder till en oroande paradox i hjärtat av AI-debatten. Om man verkligen tror att avancerad AI måste begränsas, bromsas eller stoppas, är det regeringar och transnationella institutioner som sannolikt har makten att göra det. Ändå är det just dessa aktörer vars senaste beteende ger minst förtroende för en återhållsam, reversibel användning av den makten.
Kritiska ramar är svåra att hantera. Befogenheter som förvärvats för att hantera hypotetiska risker tenderar att bestå och expandera. Institutioner nedvärderar sällan sin egen betydelse. I AI-sammanhang ökar detta möjligheten att responsen på AI-risker befäster sköra, politiserade kontrollsystem som är svårare att avveckla än någon enskild teknologi.
Faran är med andra ord inte bara att AI undgår mänsklig kontroll, utan att rädslan för AI påskyndar koncentrationen av auktoritet i institutioner som redan visat sig vara långsamma med att erkänna fel och fientliga mot oliktänkande.
Ompröva den verkliga risken
Detta är inte ett argument för självbelåtenhet kring AI, inte heller ett förnekande av att kraftfulla teknologier kan göra verklig skada. Det är ett argument för att vidga ramen. Institutionellt misslyckande är i sig en existentiell variabel. Ett system som antar välvillig, självkorrigerande styrning är inte säkrare än ett som antar välvillig, samordnad superintelligens.
Före covid var det rimligt att tillskriva den mesta teknologiska pessimismen till mänsklig negativitetsbias – tendensen att tro att vår generations utmaningar är unikt ohanterliga. Efter covid ser skepticism mindre ut som bias och mer som erfarenhet.
Den centrala frågan i AI-debatten är därför inte bara huruvida maskiner kan anpassas till mänskliga värderingar, utan om moderna institutioner kan litas på att hantera osäkerhet utan att förstärka den. Om det förtroendet har urholkats – vilket Covid antyder – då förtjänar krav på omfattande AI-tillsyn minst lika mycket granskning som påståenden om teknologisk oundviklighet.
Den största risken kanske inte är att AI blir för kraftfull, men att rädslan för den möjligheten rättfärdigar former av kontroll som vi senare upptäcker är mycket svårare att leva med – eller undkomma.
-
Roger Bate är Brownstone Fellow, Senior Fellow vid International Center for Law and Economics (januari 2023-nutid), styrelseledamot i Africa Fighting Malaria (september 2000-nutid) och Fellow vid Institute of Economic Affairs (januari 2000-nutid).
Visa alla inlägg