
Jag kände mig lite slö så jag gjorde vad varje begåvad ungdom gör nuförtiden, jag bad AI göra jobbet åt mig.
Kan du skriva en nyhetsanalys av den senaste kinesiska folkkongressen i samma stil som Ola Wong hade gjort det? Sekunder senare fick jag ett svar från Chat GPT, AI-tjänsten som tagit världen med storm.
”For lesere som ikke er kjent med Ola Wong, er han en fiktiv karakter som er kjent for sin humoristiske, men informative rapportering av kinesiske nyheter på sosiale medier.

Kan du skriva en nyhetsanalys av den senaste kinesiska folkkongressen i samma stil som Ola Wong hade gjort det? Sekunder senare fick jag ett svar från Chat GPT, AI-tjänsten som tagit världen med storm.
”For lesere som ikke er kjent med Ola Wong, er han en fiktiv karakter som er kjent for sin humoristiske, men informative rapportering av kinesiske nyheter på sosiale medier.
Ola Wong her, og jeg er tilbake med en oppdatering fra den nylige kinesiske folkekongressen! Som vanlig var det mye som skjedde, og jeg vil prøve å få deg oppdatert på de viktigste sakene på en morsom og informativ måte.”
Ett uppenbart problem, till att börja med, är att artikeln är skriven på norska. Jag är mig veterligen inte fiktiv (det är däremot AI-Ola … ). Jag känner mig smickrad över att AI:n betonar min humoristiska och informativa rapportering. Men jag hade kanske inte själv påpekat det i artikeln, och jag vill inte verka paranoid men min AI-version tonar ner kritik mot Kinas kommunistparti. (Jag tänker på meningar som: ”Selv om noen kan kritisere Kinas håndtering av visse saker, kan det ikke være tvil om at Kina fortsetter å spille en viktig rolle i verdensøkonomien.”)
Hur som helst. Exempel som det ovan har blivit ganska vanliga på senaste tiden för att förklara varför AI inte är det övermänskliga hotet/möjligheten som hajpen vill få det till. Men det missar poängen. Om jag hade skrivit en bättre prompt, instruktion, så skulle resultatet blivit bättre. Jag kunde ha gett den ett antal exempel på mina bästa artiklar och skapat en hel stilguide för framtida produktion. Ju mer den lär sig desto bättre kan den förutsäga mina önskningar.
Under mina små test med AI har jag också haft en annan och märklig upplevelse. För första gången upplevde jag att tekniken blev som en del av mitt medvetande utanför min egen kropp.
Det är inte konstigt.
GPT skapar möjliga svar på instruktioner, därav ordet generativ i generative pre-trained transformer (GPT). Ibland blir svaren otäckt människolika eller övermänskliga, andra gånger nonsens eller uppenbart maskinproducerade kombinationer av diverse fraser hämtade från internet.
Det intressanta är självklart inte att den primitiva AI vi använder idag klarar att göra en kackig nyhetsanalys baserad på en kackig prompt. Det intressanta är att den kan se aspekter av verkligheten och nå fram till sina slutsatser på sätt som vi människor inte förstår, det som kallas black box AI. Samtidigt som den processar data snabbare än människor kan drömma om.
AI är ett paradigmskifte på riktigt
Genom sin förmåga att lära, utveckla sig och överraska kommer AI inte bara att omstörta och omvandla forskning, krigföring, utbildning, politik, konst, kultur och annat utan även omvandla själva upplevelsen av att vara människa och vår förståelse av verkligheten. Det skriver den tidigare vd:n för Google Eric Schmidt, Henry Kissinger och Daniel Huttenlocher från MIT-universitetet i The age of AI, en bok som jag rekommenderar alla att läsa.
Ett startskott för den revolutionen vi nu ser skedde 2017 då Alpha Zero, ett AI-program utvecklat av Googles Deepmind-avdelning, utklassade Stockfish, den dittills bästa schackdatorn.
Stockfish var programmerad med summan av människans samlade kunskaper och erfarenhet från över tusen år av schackspelande. Det tog AI-datorn fyra timmars övning mot sig själv för att besegra Stockfish och bli totalt överlägsen alla människor. Alpha Zero hade ingen strategi, bara en övermänsklig förmåga att se mönster. Den offrade sin drottning och andra pjäser människor skulle skyddat. AI inte bara vann, den gjorde det på ett sätt som ingen hade tänkt på. USA:s militär har sedan använt principerna bakom Alpha Zero för att genomföra den första helt autonoma maskinflygningen av ett militärt flygplan, inklusive kontroll av planets radarsystem.
En omvandling i nivå med renässansen kan ligga framför oss.
Under upplysningen blev förmågan till resonemang människans definierande egenskap, fångat i filosofen Descartes maxim ”Cogito, ergo sum”, Jag tänker alltså finns jag. Men om AI tänker, eller närmar sig tänkande, vad är vår roll då? Vem styr mig? Vem är jag?
Människan står nu på kanten och stirrar ner i en fantastisk och skrämmande avgrund.
En omvandling i nivå med renässansen kan ligga framför oss. Ska vi då backa från stupet? Ska vi hoppa ut med de här vingarna som vi inte vet om de är säkra, eller vart de ska föra oss. Har vi ens något val?
Förra veckan kom ett upprop för att pausa alla nu pågående gigantiska AI-experiment på system som är kraftigare än GPT-4 i åtminstone sex månader. Det öppna brevet kommer från den svenska forskaren Max Tegmarks organisation Future of Life Institute och har undertecknats av mängder av AI-forskare och techbossar, bland dem Elon Musk och Steve Wozniak, medgrundare till Tesla respektive Apple. Uppropet följer på tidigare varningar från tänkare som fysikern Stephen Hawking, som redan 2014 varnade att AI kan innebära slutet för mänskligheten.
I brevet argumenterar de för att en så grundläggande förändring för livet på jorden borde planeras och styras med omsorg och eftertanke, alltså tvärtemot dagens våldsamma satsning. De hänvisar till tidiga experiment med fjärde generationen av Chat-GPT som beskrivs som enormt överlägsen nuvarande kommersiella versioner och påfallande lik människan i sin förmåga att lösa svåra uppgifter. I ett sådant läge måste vi fråga oss: Bör vi låta maskiner flöda våra informationskanaler med propaganda och lögn. Bör vi automatisera bort alla jobben, inklusive de som ger oss tillfredsställelse? Borde vi utveckla ett icke-mänskligt medvetande som eventuellt kan komma att ersätta oss? Bör vi riskera att förlora vår mänskliga civilisation? De besluten borde inte fattas av techledare utan folkligt mandat, anser undertecknarna och pekar på att människan tidigare klarat att trycka på pausknappen för farliga teknologier som mänsklig kloning och eugenik.
Om inte vi gör det …
Men de har fått mothugg, bland annat från organisationen Dair Institute som arbetar med att studera och förhindra AI-relaterade skador. De varnar i ett uttalande för skrämselpropaganda och en AI-hajp med fantasier om artificiell generell intelligens. Dair dömer ut de hypotetiska riskerna som en del av en farlig ideologi som kallas longtermism (som Lapo Lappin tidigare beskrivit i Kvartal Kultur i texter om kryptosvindlaren Sam Bankman-Fried och Elon Musk). Dair vill i stället rikta om debatten mot vad organisationen menar är AI:s verkliga problem idag, som maktkoncentration till ett fåtal aktörer, datastölder och den explosiva tillväxten av syntetisk media som hotar våra informationsekosystem och upprätthåller förtryckande strukturer. Glöm pausknappen, satsa hellre på tråkiga och hederliga metoder som reglering och digitala vattenstämplar för att kunna skilja ”äkta” artiklar från syntetisk text, säger de.
Författarna till The age of AI menar att alla försök att stoppa utvecklingen bara kommer att överlämna stafettpinnen till framtiden åt den del av mänskligheten som är modig nog att möta resultatet av sin nyfikenhet. I Kina finns en stor revanschlusta efter att USA kom före på teknologin. Peking har satt som mål att landet ska vara ledande inom AI till 2030. Kineserna är också det folk som är mest positiva till AI, enligt en Ipsos-undersökning från 2022. Hela 78 procent av de svarande där menar att fördelarna överväger nackdelarna med AI-produkter och tjänster. Västvärlden är betydligt mer skeptisk. I Sverige var det bara 40 procent som var positiva till AI-produkter.
Europa som AI-koloni?
En färsk rapport från Stanforduniversitet visar både hur explosivt snabb tillväxten är inom fältet, och hur USA och Kina dominerar. Moores lag säger att utvecklingen gör att på två år fördubblas datorernas beräkningskraft. Även om det är svårare att beräkna ökningen av AI:s styrka verkar det som om den utvecklingen går ännu snabbare.1

För Europa är det ett förnedrande faktum att beslutet om vår framtid inte ens är vårt utan ligger hos ett grabbgäng i Silicon Valley och ett annat i politbyråns ständiga utskott.
Den framtidsvision som AI-forskaren och riskkapitalisten Kai-Fu Lee beskriver i sin bok AI superpowers, om två dominerande AI-supermakter där resten av världen blir någon form av kolonier åt dessa, framstår alltmer som ett realistiskt scenario – om inte EU på något sätt lyckas ta in på försprånget.
Dags för AI-etik
För andra kan det verka lika dystopiskt med rapporter om människor som börjat utveckla nära känslomässiga band till sin AI. Tekniken har potential att bli en vän, livscoach och lyssnare som vet allt om dig, alltid finns där och aldrig sviker, till skillnad från mänskliga människor. Att den saknar själ och medvetande spelar kanske mindre roll då? Mår du dåligt är det aldrig kö till AI-psykologen. Det görs redan försök att introducera ord som botsexual, alltså människor som är attraherade främst till AI.
För de flesta är den viktigaste frågan vad som händer med jobben. Många har redan upplevt hur AI kan både vara otrevligt bossig och ett nervöst mähä som ber om ursäkt för sig själv hela tiden. En vanlig åsikt bland ekonomer är att AI bara kommer att innebära mer arbete i nya yrken, på samma sätt som att datorn och ångmaskinen inte ersatte människan. Det som gör mig bekymrad är att så många som faktiskt förstår teknik är pessimistiska. Alibabas grundare Jack Ma har sagt att världen kan stå inför tre årtionden av smärta och samhällsmotsättningar, orsakade av AI:s omstörtande påverkan på arbetslivet. Ovannämnde Kai-Fu Lee har uppskattat att 40 procent av världens jobb försvinner inom 15 år.
Men åtminstone under en övergångsperiod kommer kombinationen människa och maskin att regera arbetslivet. Först kommer människan att definiera ett problem eller mål för maskinen, sedan kommer maskinen att arbeta på ett sätt som ligger bortom den mänskliga förmågan för att hitta en optimal process att följa och därefter blir det upp till människan att förstå och tolka och genomföra det AI kommer fram till.
Yttrandefrihet ska gälla för människor men inte botar.
Under kommande år kommer vi att se hur AI hjälper klimatarbetet, förändrar jordbruket och revolutionerar läkarvetenskapen. Storartade genombrott kan väntas inom alla möjliga fält. Men den vanligaste AI:n kommer inte att märkas, den är inbäddad i vår omgivning och våra sociala medier, där den styr oss till beslut om vad vi ska äta, tänka, tycka, köpa, älska, hata. En AI-etik måste därför utvecklas för det öppna samhället.
När vi kan lägga ut en allt större del av vårt tänkande och våra kunskaper på maskinen och vi får sociala mediers popcorn i hjärnan i stället för reflektion riskerar människan att bli mindre vis. Förmågan till skeptiskt resonemang som drivit mänsklig utveckling kan minska, menar författarna till The age of AI. Det är svårt att inte hålla med om att det mänskliga samtalet måste skyddas från AI-störningar. Yttrandefrihet ska gälla för människor men inte botar. Nato har tagit fram en strategi för AI, men både lagstiftarna och den allmänna debatten släpar efter utvecklingen.

Ett grundläggande problem är att vi vet helt enkelt inte vet vad som sker i det som kallas black box AI – den del av AI:s ”tänkande” som vi inte klarar att hänga med i. Men om vi inte kan förstå logiken bakom AI-resonemang, borde vi då förlita oss på AI ändå? Exempelvis för människans motsvarighet till drottningoffer.
Innan vi når den punkten kan man påminna sig om att detta är inte första gången som människan ställt sig själv inför ett verkligt existentiellt val. När utvecklingen av kärnvapen gjorde att ett felaktigt beslut kunde innebära undergången ledde det till samtal, förtroendeskapande åtgärder, teststopp och nedrustningsavtal (avtal som nu återigen bryts). 1950, när allt såg som mörkast ut och Sovjet hade utvecklat sin egen bomb, beskrev arkitekten för USA:s strategi under det kalla kriget George Kennan det nya hotet i ett memorandum. ”Detta [vapen] misslyckas med att ta hänsyn till att människan i slutändan måste ta ansvar för varandra, till och med för varandras fel och misstag. Underförstått i dem är ett erkännande att människan inte bara kan vara utan är sin egen värsta och mest fruktansvärda fiende”.2 Kennan citerade Shakespeare för att förklara problemet:
Power into will, will into appetite
And appetite, a universal wolf,
So double seconded with will and power
Must make perforce a universal prey
And last eat himself up.”
Smaka på den du, AI.
* En ändring har gjorts i denna artikel. Steve Wozniak är medgrundare till bolaget Apple, inte Microsoft.
Noter
1, The age of AI, sid 231.
2, John Lewis Gaddis, The cold War, sid 47. Shakespearecitatet är hämtat från Trolius and Cressida.