Pentagon i storbråk om militär AI – men motståndarna inga hjältar
Publicerad
Idag 14:00
Lästid
6 Min
Foto: Lisa Ferdinando/DOD. Kollage: Lukas Hökegård/Kvartal
AI-kapplöpningen fortsätter och ett storbråk i Pentagon visar potentialen i den nya tekniken, skriver matematikprofessorn Olle Häggström.
Skribent
Presenteras av
I skuggan av den amerikanska militära uppladdningen och attacken på Iran briserade härom veckan en annan maktkamp av största betydelse för allas vår framtid. Den pågår ännu, och står mellan å ena sidan USA:s krigsdepartement Pentagon, och å andra sidan det ledande amerikanska AI-företaget Anthropic.
Fram till nu har Anthropic varit Pentagons huvudleverantör av AI-system, vilket ursprungligen går tillbaka till Bidenadministrationen och sedan befästes i ett utvidgat kontrakt sommaren 2025. Mer nyligen har Pentagon med krigsminister Pete Hegseth i spetsen uttryckt missnöje med detta kontrakt, och i synnerhet med två röda linjer rörande vad Anthropics produkter får användas till.
De får inte ta beslut om dödliga krigsinsatser utan någon människa med i beslutsloopen, och de får inte medverka till massövervakning av amerikanska medborgare.
Ett ultimatum om de röda linjerna
Dessa avtalade röda linjer ser Hegseth som en orimlig inskränkning i den amerikanska militärmaktens handlingsfrihet, och menar att ingen privat underleverantör ska få lov att diktera villkoren för vad Pentagon får och inte får göra. I ett laddat möte med Anthropics vd Dario Amodei tisdagen den 24 februari gav Hegseth ett ultimatum: om Anthropic inte senast påföljande fredag, den 27 februari, gått med på att stryka de röda linjerna, så drar sig krigsdepartementet ur samarbetet. Och inte bara det: Hegseth hotade även att formellt stämpla Anthropic som en så kallad leverantörskedjerisk, vilket skulle exkludera företaget från alla affärer – såväl direkta som indirekta – med amerikansk militär och säkerhetstjänst.
Amodei stod dock på sig, och Hegseth meddelade samma fredag att Anthropic med omedelbar verkan förklaras vara en leverantörskedjerisk.1 Beslutet är unikt, på så vis att denna stämpel dittills endast använts mot utländska bolag med koppling till främmande makt, som kinesiska Huawei, och alltså aldrig tidigare mot något amerikanskt bolag.
Åtgärden har beskrivits som ett försök att förinta Anthropic, ty om techjättar som Google och Amazon av rädsla för repressalier ser sig nödsakade att sluta investera i företaget, så kan Anthropic knappast överleva. Nu lutar dock det mesta åt att det inte ska behöva gå så långt. Samtidigt har den amerikanska militären fortsatt att använda Anthropics AI-system för att välja ut iranska mål att bomba, trots stämpeln som leverantörskedjerisk.2
Parallellt med de hårda ordväxlingarna mellan Pentagon och Anthropic pågick bakom kulisserna förhandlingar mellan Pentagon och Anthropics främste konkurrent Open AI. Samma fredag som Hegseth kungjorde brännmärkningen av Anthropic meddelade Open AI:s vd Sam Altman att de nu ingått ett kontrakt med Pentagon som i praktiken innebär att de träder in i Anthropics ställe som leverantör av AI-tjänster till amerikansk militär.3 Exakt vad som hänt med de röda linjerna är dock höljt i juridiskt dunkel.4
Uppmanar till konsumentbojkott
Bland bedömare världen över har händelseförloppet väckt berättigad bestörtning, och allt fler uppmanar nu till ett slags konsumentbojkott, där vi säger upp våra abonnemang på betalversioner av Open AI:s Chat GPT och i stället övergår till Anthropics Claude.5
På så vis ska Anthropics principfasthet belönas, och Open AI:s ryggkrökning bestraffas.
Jag vill dock varna för att i detta sammanhang upphöja Dario Amodei och hans Anthropic till hjältar. Det är förvisso sant att Hegseths och Pentagons agerande är orimligt. Om de är missnöjda med avtalet med Anthropic och misslyckats med att förhandla fram en godtagbar korrigering ska de såklart dra sig ur samarbetet och söka andra partners, men den maktfullkomliga och godtyckliga bestraffningsåtgärd mot företaget som Pete Hegseth kungjort är inte bara oproportionerlig utan ett hån mot allt som kan kallas rättssäkerhet. Men det gäller här att kunna hålla två tankar i huvudet samtidigt: att vara anti-Hegseth i denna fråga behöver inte betyda att man är pro-Amodei.
”De ledande AI-bolagens vansinneskapplöpning behöver stävjas innan det är för sent”
Ty vilka värderingar står egentligen Dario Amodei för? Bakom hans fagra tal om röda linjer mot massövervakning och autonoma mördarrobotar döljer sig idén om amerikansk militär dominans som en central del av hans vision för hur AI ska transformera världen under den kommande tioårsperioden.
I sitt manifest Machines of loving grace från hösten 2024 talar Amodei om vikten av att tillgripa både piska och morot gentemot andra länder, och om hur AI ska bli till hjälp för att ”uppnå robust militär överlägsenhet (piskan) samtidigt som frukterna av kraftfull AI (moroten) ska spridas till en allt större grupp av länder i utbyte mot deras stöd för vår strategi”.6
Nykolonial geopolitik
Tanken är att pressa Kina och andra länder till underkastelse, så att de USA-baserade AI-bolagen – när de bygger de första övermänskligt kapabla AI-systemen – ska få lugn och ro att göra dessa säkra, utan att behöva känna sig jagade av kinesiska konkurrenter.
Det Amodei förespråkar är alltså en aggressivt nykolonial geopolitik, som i praktiken innebär att ett fåtal amerikanska teknikföretag, med stöd av USA:s militärmakt, ska få avgöra hur och på vilka villkor resten av världen får tillgång till framtidens mest kraftfulla teknologi. Hur våghalsig en sådan politik vore, och hur kärnvapennationer som Kina och Ryssland skulle kunna tänkas reagera, berör han däremot inte.
Och även bortsett från Kina pågår en rasande kapplöpning mellan Anthropic, Open AI och ett litet antal andra amerikanska AI-bolag om att nå först till så kallad superintelligens, eller en AI motsvarande ”en nation av genier i ett datacenter” som Amodei kallar det.7 Han räknar med att kunna skapa sådan AI före 2020-talets utgång, och från Open AI hörs liknande tongångar, samtidigt som en rad av de främsta oberoende experterna menar att sådana tidtabeller ingalunda är orealistiska.8,9
Varken Anthropic, Open AI eller någon annan har dock någon övertygande plan för att säkerställa att en superintelligent AI inte tar saken i egna händer och driver världen i linje med sina egna intressen, som inte nödvändigtvis överensstämmer med mänsklighetens. För ett sådant säkerställande krävs att man i god tid före superintelligensens uppkomst löser det så kallade AI alignment-problemet, det vill säga hur man ser till att AI-systemets mål och värderingar är i linje med våra egna.
Att lösa AI-krisen med AI...
Som AI alignment-pionjären Eliezer Yudkowsky tillsammans med kollegan Nate Soares förklarar i sin viktiga bok If anyone builds it, everyone dies från 2025 ligger AI alignment-forskningen så långt efter att det inte är realistiskt att hinna lösa problemet i tid före Anthropics och Open AI:s planerade genombrott för superintelligens. Med tillkämpad optimism skriver Anthropics ledande AI-säkerhetsforskare Jan Leike om sina förhoppningar om att lösa problemet.10
Hans plan kan parafraseras med orden ”vi är rädda för avancerad AI, och att aligna en sådan verkar för svårt för oss människor, så därför bygger vi en avancerad AI som kan lösa det åt oss”, men det krävs knappast något geni för att inse hur katastrofalt illa en sådan plan kan bakfyra.
De ledande AI-bolagens vansinneskapplöpning behöver stävjas innan det är för sent, och ett nytt striktare tänkande kring AI-säkerhet behöver införas. Pete Hegseths arbete för att avskaffa de säkerhetsspärrar och röda linjer som faktiskt finns går i rakt motsatt riktning.
Skribent
