Sedan de nyligen släppt sin senaste och hittills bästa språkmodell, benämnd o1, experimenterade den världsledande matematikern Terence Tao med att diskutera matematik med den. Upplevelsen var, menade han, som att prata med en ”medioker men inte helt inkompetent doktorand”, vilket han ansåg vara ett klart fall framåt jämfört med tidigare modeller. Efter att själv ha provat samma sak kan jag instämma i hans bedömning.
Som science fiction för fem år sedan
Många kommentatorer tog i Taos uttalande fasta på ordet ”medioker”, och hävdade att den nya modellen är en besvikelse. Detta är dock ett utslag av svårartad fartblindhet och förbiser att även en medelmåttig matematikdoktorand behärskar långt mer matematik än nästan alla andra. De senaste årens utveckling är makalös, och blotta tanken att det skulle vara möjligt att föra meningsfulla vetenskapliga samtal med en AI skulle för bara för fem år sedan ha avfärdats som spekulativ science fiction. Reaktionen hade blivit densamma på idén att miljontals unga människor år 2024 dagligen skulle anlita Character.ai och liknande chattbotar som artificiell samtalsterapeut, vän eller romantisk partner.
Även om AI-utvecklingen mot all förmodan skulle avstanna tvärt så finns så mycket outnyttjad potential att dess inverkan på ekonomi, arbetsmarknad och samhälle kan väntas bli mycket stor. Ännu större blir givetvis effekterna om nuvarande trendlinjer mot allt kraftfullare AI består.
De positiva möjligheterna med den eskalerande AI-tekniken är närmast obegränsade, men detsamma gäller även riskerna. Konkurrensen från AI börjar bli kännbar för exempelvis copywriters och programmerare, och många andra yrkesgrupper ser ut att stå på tur. Deepfakes och olika slags automatiserad diskriminering (till exempel en AI som avgör om du ska få ett banklån eller kallas till anställningsintervju, och som svarar nej på grund av kön eller hudfärg) är andra omdiskuterade riskområden. Och ingen kan med säkerhet säga vad som händer med samhället då en allt större del av befolkningen vänder sig bort från mänskliga kontakter för att i stället välja umgänge med en mer anpasslig och trogen AI-vän.
Om vi trampar snett med det stora AI-genombrott vi verkar vara på väg mot riskerar detta att bli vår undergång.
För att inse hur omvälvande förändringarna kan bli är det värt att ta ett steg tillbaka för att se den större bilden. Den egenskap som givit människan vår särställning på planeten är vår intelligens, och vi är nu i full färd att automatisera och delegera denna unika resurs till maskiner. Om vi spelar våra kort rätt kan resultatet bli hur bra som helst, men en blick på människans förhistoria ger å andra sidan en antydan om hur illa det kan gå om man halkar ned på andra plats över världens mest intelligenta arter.
De ofantliga riskerna i detta sammanhang är något som allt fler AI-forskare börjat varna för, inklusive 2024 års Nobelpristagare i fysik Geoffrey Hinton, som belönas för sina avgörande insatser inom artificiella neuronnät, vilka ligger till grund för dagens explosiva AI-utveckling. Den remarkabla intellektuella integritet han uppvisade våren 2023 är beundransvärd, då han sade upp sig från Google för att kunna tala fritt om sin insikt att det som till stor del är hans livsverk nu verkar utgöra ett existentiellt hot mot mänskligheten.
Med andra ord: om vi trampar snett med det stora AI-genombrott vi verkar vara på väg mot riskerar detta att bli vår undergång.
Allt kortare tidsskalor
Hur långt fram ligger då detta genombrott? Ingen vet säkert, men expertbedömningar har de senaste åren gått mot allt kortare tidsskalor, och ju närmare man kommer händelsernas centrum i Silicon Valley och San Francisco, desto oftare talas om enstaka år snarare än decennier. Den avhoppade Open AI-forskaren William Saunders vittnade nyligen i den amerikanska senaten om sin bedömning att ”med 10 procents sannolikhet kommer något katastrofalt farligt att byggas inom tre år” och att ”om inte tre år så fem eller tio år […] och vi behöver få säkerhetsräcken på plats”.
Det som gör situationen extra allvarlig är att vi inte är i närheten av att ha funnit de AI-säkerhetslösningar som behövs för att vi ska överleva detta skifte. Mer resurser till AI-säkerhetsforskning var länge den väg som jag och andra experter på AI-risk ensidigt pläderade för, men från 2022 och framåt har allt fler av oss kommit att tvivla på att den forskningen ska lyckas i tid, och därför börjat tala om behovet av att dra i nödbromsen för de allra största AI-projekten – flaggskeppen hos Open AI, Anthropic, Google/DeepMind och ett fåtal ytterligare konkurrenter.
Nu gäller det för makthavarna i Washington att snabbt visa starkare ryggrad.
San Francisco-baserade Open AI grundades 2015 som ett icke-vinstdrivande företag med idealistiskt högtflygande stadgar om att skapa säker AGI (Artificiell Generell Intelligens) och se till att tekniken kommer hela mänskligheten till godo utan orimlig maktkoncentration. Till en början såg företaget ut att hålla dessa idéer i högsätet, men under vd Sam Altmans ledning har de stegvis gått alltmer i kommersiell riktning och befinner sig nu i en rasande kapplöpning mot konkurrenterna där målet på kort sikt är att uppnå marknadsdominans, och på bara aningen längre sikt att hinna först med att skapa en ny intelligent art som är bättre än människan på exakt allt.
Under en turbulent vecka i november förra året lyckades Altman med machiavellisk skicklighet undgå avsked och tvingade i stället bort den styrelse som var satt att bevaka att de ursprungliga stadgarna följdes. Sedan dess har en efter en av deras ledande AI-säkerhetsforskare lämnat skutan. Ilya Sutskever, Daniel Kokotajlo och Leopold Aschenbrenner är några av de mest uppmärksammade namnen i denna våg av avhopp, jämte ovan nämnde William Saunders och Jan Leike, den tidigare chefen för Open AI:s AI-säkerhetsforskning. I samband med sin avgång i maj i år gav Leike en dyster bild av den interna situationen på företaget, och menade att ”säkerhetstänkandet har hamnat i baksätet för att ge plats åt glänsande produkter”.
En farlig utveckling
En rad incidenter tyder på en företagskultur som bestraffar medarbetare som påtalar säkerhetsbrister, och Sam Altman framstår alltmer som en envåldshärskare. Nyligen har också framkommit att han planerar att stöpa om Open AI till att bli renodlat vinstdrivande och befriat från de ursprungliga stadgarna. Detta är en mycket farlig utveckling, men på sätt och vis är det bra att företaget nu till slut visar sitt rätta ansikte.
Det blir alltmer uppenbart att vi inte kan lita på vare sig Open AI eller deras konkurrenter när det gäller att självreglera och ta säkerheten på tillräckligt allvar. För att tygla dem behövs lagstiftning. I Kalifornien har man arbetat fram ett lagförslag benämnt SB 1047 som tar sig an den utmaningen med ett mycket milt grepp; väsentligen handlar det om att de allra största AI-projekten ska behöva anmälas till en statlig myndighet och att en plan för hur företaget avser hantera säkerhetsaspekten ska bifogas anmälan. Detta är givetvis långt ifrån en tillräcklig reglering, men den kan tjäna till att öka transparensen, och som ett första steg är det inte dumt alls.
Efter att delstatssenaten röstat igenom SB 1047 lade dessvärre guvernör Gavin Newsom häromdagen in veto mot lagen. Hans motiveringsbrev är eländigt osammanhängande, och det är uppenbart att han pressats hårt av en tekniklobby som reflexmässigt motsätter sig all reglering.
Nu gäller det för makthavarna i Washington att snabbt visa starkare ryggrad. Därefter behövs internationella överenskommelser. För att åstadkomma detta krävs opinionsbildning för att skapa tillräcklig global konsensus som kan sätta press på politiker och andra beslutsfattare. Debaclet med Newsoms veto i Kalifornien ger en fingervisning om hur svår denna process kan bli, men vi kan inte låta detta avskräcka oss, ty vad som står på spel är inget mindre än mänsklighetens överlevnad.
En verkningsfull backlash mot den del av AI-utvecklingen som Open AI representerar behövs, innan det är för sent.
artikel från Kvartal
- Alla artiklar
- Alla poddar
- Kvartals app
- Reklamfritt