Ännu 2023 kan våra tidningsredaktörer sätta 1950-talsrubriker som ”Är robotar farliga?” när de får en AI-kritisk text (Expressen, pappersupplagan 11/4 2023). Verkligheten ser lite annorlunda ut. Det har kollegorna på The Guardian fått lära sig.
De har börjat få mail där läsare frågar efter artiklar de inte lyckas hitta på nätet. Vid närmare efterforskning kan Guardian-redaktionen inte heller hitta artiklarna i sina interna arkiv. Det som hänt, förklarar tidningens innovationsredaktör Chris Moran, är att människor har börjat använda sig av ChatGPT för att göra research. När de ställer en fråga svarar ChatGPT ibland med citat från tidningstexter som inte finns.
Programmet har nämligen börjat förfalska källtexter. De fejkade tidningsartiklarna är signerade med verkliga Guardian-journalisters namn, och förfalskningarna blir extra trovärdiga eftersom texterna handlar om de ämnen som dessa journalister vanligtvis brukar skriva om.
All digital information
Ta ett ögonblicks paus och fundera över hur stort det här kommer att kunna bli. Det handlar inte bara om tidningstexter, utan om all digital information. I en amerikansk studie, skriver Moran, tog 89 procent av eleverna hjälp av ChatGPT för att göra sina läxor. Föreställ dig också de proportioner det kommer att handla om.
Hur många tusen fiktiva tidningstexter hinner ChatGPT spamma världen med innan en mänsklig journalist har skrivit dagens första artikel?
Om studenter börjar använda den här typen av system för att söka uppgifter och skriva sina uppsatser – vad återstår i så fall av en skola eller ett universitet? Kommer det fortfarande att vara relevant att bedriva undervisning i framtiden? I vilken form? Sådana frågor är vi nu tvungna att komma tillrätta med, bara för att några personer har velat tjäna en slant på den senaste teknologiska hypen.
Här är ytterligare ett exempel på den falska information som ChatGPT har börjat uppfinna på egen hand; jag hoppas att det kan ge näring åt läsarens fantasi. En amerikansk jurist bad nyligen ChatGPT att gå ut på nätet och söka efter akademiker som hade begått sexuella övergrepp. Programmet svarade med en lista där verkliga förövare blandades med oskyldigt anklagade. Jonathan Turley, som är professor i juridik vid George Washington University i Washington, påstods ha förgripit sig på sina studenter under en resa till Alaska som aldrig har ägt rum.
Vi har inte skapat ett användbart researchverktyg, vi har skapat ett program som genererar fejkad och otillförlitlig information.
Som källa hänvisade ChatGPT till en artikel i The Washington Post från 2018 – en artikel som aldrig har publicerats, eftersom programmet har skrivit den själv.
Det finns en viktig slutsats att dra här, och jag vill betona den så eftertryckligt jag kan. Ingenting har gått fel. Det här är inga olycksfall i arbetet. Exemplen från The Guardian och The Washington Post betyder att ChatGPT fungerar exakt enligt specifikationerna. Vi har inte skapat ett användbart researchverktyg, vi har skapat ett program som genererar fejkad och otillförlitlig information.
Som bensin på brasan
I en konfliktfylld värld som redan har problem med alternativa fakta och fake news fungerar den här sortens AI-program som bensin på brasan. I sin kommentar skriver Moran att han, trots allt, är entusiastisk över den nya teknikens möjligheter. Han berättar inte vad han kommer att svara om tidningens läsare föredrar att lita på ChatGPT, och börjar tro att The Guardian har censurerat de texter som inte går att hitta på nätet – kanske för att skydda vissa viktiga personer. När misstroendet mot etablerade massmedier är så stort behöver vi inte teknologi som förvärrar förtroendekrisen ännu mer.
Om ChatGPT ljög konsekvent skulle det vara ett mindre problem; ett sådant program skulle kunna betraktas som underhållning. Svårigheten är att fakta blandas med halvsanningar och rena påhitt. Hur vet du om ChatGPT ljuger? Du måste kunna ämnet så bra att du inte har något behov av att fråga ChatGPT – större nytta har vi inte av programmet.
Ett par matematiskt kunniga personer på diskussionssajten Metafilter har testat att ställa matematikfrågor till ChatGPT. Deras resultat är mycket avslöjande. Programmet svarade aldrig ”jag vet inte” – inte ens när de bad det att lösa omöjliga uppgifter. Om programmet hade nöjt sig med att googla eller med att plocka information från Wikipedia, kunde det ha svarat ”det här är ett antal välkända, ännu olösta matematiska problem”. I stället påstår det sig ha löst problemen, och det härmar perfekt den auktoritära tonen i matematiska kursböcker: ”notera att …”, ”antag att …” – ett tonfall som låter förtroendeingivande för alla som inte är specialister.
Ställer man samma matematiska fråga formulerad på två olika sätt kan ChatGPT ge två motsägande svar, eftersom det inte finns något medvetande bakom svaren. Programmet gör inget annat än att producera ett stycke text som, för alla utom för matematiker, låter trovärdig, men texten innehåller ingen information, den bara härmar informationens utseende. En sida med datorgenererad utfyllnad av typen ”Lorem ipsum” hade varit lika meningsfull, men mindre skadlig. Om vi sedan föreställer oss att ett gäng biologer skulle ställa biologiska frågor till ChatGPT, att litteraturvetare ställer frågor om litteraturhistoria, och så vidare, ämne för ämne – vad återstår till sist av programmets användbarhet?
AI-funktioner i söktjänsten
Det var meningen att vi skulle få robotar som inte lät mänskliga, men som alltid gav matematiskt korrekta svar; i stället har vi fått något som låter som en vanlig kille på nätet, men man kan inte lita på att det talar sanning om man frågar hur mycket klockan är, kommenterade signaturen Phanx på Metafilter.
Naturligtvis kan man invända att människor inte borde använda ChatGPT på samma sätt som när de tidigare googlade efter information, men det kan snart bli svårt att undvika. Google har börjat bli nervösa över att de håller på att förlora AI-kapplöpningen, och tänker bygga in AI-funktioner i sin söktjänst. Det har länge varit svårt att föreställa sig hur en konkurrent till Google skulle kunna se ut, men nu börjar det klarna.
Microsofts sökmotor Bing ligger före Google när det gäller att skapa en illusion av att du chattar med en maskin, och det gör att Samsung nu överväger att byta standardsökmotor i sina telefoner, från Google till Bing. Googles avtal med Samsung är värt tre miljarder dollar, skriver teknikreportern Nico Grant i The New York Times (16/4 2023).
En sökning via ChatGPT konsumerar för övrigt tio gånger mer energi än en googlesökning. Om den också gör dig tio gånger dummare – vad har du vunnit då?
Från och med nu är digital information inte pålitlig.
Det finns redan program som genererar realistiska digitalfoton utifrån valfria instruktioner – som att Donald Trump flyr från polisen. Den här typen av förfalskningar, som är så skickliga att de inte kan skiljas från dokumentärt material av verkliga händelser, kallas deepfake. För att visa vad som är möjligt har MIT släppt en video där den dåvarande presidenten Richard Nixon förklarar att den första månlandningen har misslyckats och att astronauterna har dött. Deepfake behöver inte bara göras av människor i illvilligt syfte; ett lika obehagligt scenario är att vi får en flod av deepfake som produceras av maskiner utan något syfte alls.
Låt hypekarusellen snurra ett par varv till, och vi skulle även kunna ha program som förfalskar foto och rörlig bild när du söker efter källmaterial. Ställ en fråga om en historisk händelse och du kan få dokumentärfilmer som visar vad som helst – kanske att kinesiska soldater befriar Auschwitz, eller valfri berömd politiker tillsammans med minderåriga prostituerade.
Hur ska du avgöra om materialet är trovärdigt? Det enkla svaret är: det kommer du aldrig mer att kunna göra. Från och med nu är digital information inte pålitlig.
Motsatsen till informationsålder
När kommer du att dra slutsatsen att det har blivit meningslöst att söka information på nätet? När andelen falska eller opålitliga svar är 20 procent? 30 procent? Hur mycket behöver AI-systemen pissa i poolen innan du tappar lusten att simma? Och om du ger upp tron på att det är meningsfullt att skaffa kunskap – vad har du själv förvandlats till?
Därmed börjar vi kunna se att det som skulle bli en informationsålder har blivit motsatsen: den teknik vi har utvecklat dränker världen i falsk eller otillförlitlig skräpinformation. Vi har, krasst uttryckt, fått en teknologi som förintar kunskap. Vad ska du göra om du vill ha pålitliga fakta? Du använder varken Google, Bing eller ChatGPT. Du betalar.
Det finns en marknad för professionellt insamlad och analyserad information, men den är osynlig. Om du driver ett storföretag har du inte råd att chansa eller att fråga Siri. När internet var nytt fick alla lära sig att säga ”information wants to be free”, men företagsledarna har alltid vetat att de måste öppna plånboken om de ska få information som är värd något.
Konsultföretag som McKinsey och Oliver Wyman gör i princip samma sak som dagstidningarna gjorde förut: de gör research, skriver rapporter, går till källorna, undersöker hur världen förändras. Skillnaden är att tidningarna gjorde det för hela befolkningen, i syfte att skapa upplysta medborgare, medan konsultfirmorna gör det för eliten. Det som håller på att hända är att större delen av mänskligheten förlorar tillgången till kvalificerad omvärldsbevakning. Det går att föreställa sig en framtid med verifierade fakta för den översta 0,1 procenten, medan resten av mänskligheten lever i en sophög av fake news och maskingenererade halvsanningar. Världen håller på att stängas för oss: om ett par generationer vet människor i värsta fall lika lite om världen som om de var födda i en medeltida by och aldrig hade gått i skolan.
Det som gör att en människa är något fundamentalt annat än en dator är inte att vi är mer intelligenta, utan att vi obesvärat kan handskas med osäker, otillräcklig eller motsägelsefull information. Hjärnan ropar inte SYNTAX ERROR och kraschar om de inkommande signalerna avviker en liten aning från det förväntade – det är skillnaden mellan biologi och människotillverkad elektronik. Vår förmåga att leva med osäker information är nu på väg att utsättas för sin största prövning. Kanske kommer vi att upptäcka att vi trivs med att plaska runt i en soppa av pseudoinformation, även om det innebär att all intellektuell utveckling upphör.
Inte mer medveten än en spisplatta
För att motverka det är det dags att titta lite närmare på uttrycket ”artificiell intelligens”, framför allt dess andra halva, ordet ”intelligens”. Genom att börja använda ordet ”intelligens” om helt vanlig programvara suggererar man ett annat ord: den som hör ”artificiell intelligens” kommer att tänka ”artificiellt medvetande”.
Man får det att låta som om våra datorer plötsligt hade vaknat till liv, trots att de inte är mer medvetna än en miniräknare eller en spisplatta. Hypen kring AI handlar om att få människor att tro att de inte möter en maskin – de möter en person.
Varför är det så viktigt? Avsikten är att stänga av människors kritiska tänkande och aktivera våra sociala och emotionella reflexer. Vi ska inte tänka: ”Behöver jag verkligen den här maskinen?” Vi ska fråga oss: ”Vad känner ChatGPT just nu? Vad vill AI:n, och hur ska jag förhålla mig till det?”
När vi försöker leva oss in i maskinens icke-existerande känsloliv har vi redan accepterat att maskinen finns. Vi kommer inte att ställa några besvärliga frågor till företaget som står bakom den. Vi kommer att acceptera den teknologi som erbjuds – och det betyder att vi har blivit lydiga och anpassliga konsumenter. AI-branschen vill inte sälja produkter, de vill sälja en social relation. Det är därför ChatGPT kallar sig själv ”jag” i sina medvetslöst framräknade texter.
Vilket slags framtida samhälle skulle vara människovärdigt och önskvärt – och vilken teknologi behöver vi utveckla för att nå dit?
Fast vänta nu, är inte AI likadant som alla andra teknikskiften? Jo! Och det är det som är det sorgliga, eftersom samma scenario upprepas gång efter gång, utan att vi någonsin lär oss ett dugg.
Inför varje teknikskifte blir vi intalade att det bara finns en enda sak att tänka, nämligen: ”Hur ska jag anpassa mig?” Vi lär oss aldrig att det rätta svaret är: ”Jag ska inte anpassa mig!” Kommer någon och vill sälja en redan färdigtänkt och färdigförpackad framtid ska jag vägra anpassa mig. Varje gång borde jag fråga mig vad jag egentligen vill ha.
Vilken framtid vill vi ha?
I stället för att låsa tänkandet vid ett ja eller nej till en viss bestämd teknologi, i stället för att låsa tänkandet vid den idiotiska föreställningen att utvecklingen är ett linjalrakt järnvägsspår där vi bara kan färdas ”framåt” eller ”bakåt” borde vi inse att människan alltid har varit ett redskapsanvändande djur.
Utan redskap – vare sig det handlar om en pinne att gräva med, lertavlor eller mobiltelefoner – kan människan förmodligen inte vara sig själv. Men alla redskap är inte likvärdiga. Vissa teknologier hjälper oss att utveckla vår egen intelligens och vår kreativitet, andra passiviserar oss, och några är direkt skadliga.
Därför är ”ja eller nej till ChatGPT” inte den diskussion vi borde föra. En relevant diskussion börjar med frågor av en helt annan sort. Vad behöver jag för att bli människa? Vilket slags framtida samhälle skulle vara människovärdigt och önskvärt – och vilken teknologi behöver vi utveckla för att nå dit? Om fler människor börjar ställa sig den sortens frågor kommer ett litet antal AI-kåta personer i Kalifornien och Kina inte längre att ha monopol på att utforma framtiden. Det är hög tid att de får konkurrens från en mängd alternativa framtidsvisioner.
Det sista jag läser innan jag skickar in den här artikeln till Kvartal är att ytterligare en lukrativ marknad har öppnats för AI: läkarjournaler och medicinsk information.