Det här är en kort nyhet från Kvartals Cortado – världen varje vardag.
Förväntningarna var höga när Google släppte sin senaste AI-modell, Gemini. Den ska kunna producera bilder utifrån användarens beskrivningar och kallades för ”världens största och mest kapabla” AI-system. Men redan efter några dagar tvingades Google stoppa den. Skälet var att användare rapporterade om att den var benägen att använda kvinnor och människor med en annan hudfärg än vit i sina bilder, vilket skapade historiska felaktigheter, skriver Financial Times.1
I flera bilder fick etniskt homogena grupper eller individer, som vikingar och de amerikanska landsfäderna, plötsligt medlemmar med varierande hudfärg. Google hade avsiktligt försökt ha en hög mångfald i Geminis bildskapande, men erkände att den kan ha överkompenserat i vissa fall.
”Vi är medvetna om att Gemini ger felaktigheter i vissa historiska bildgenereringsskildringar”, skrev Google på X efter lanseringen.
Risk för hallucinationer
Att AI-modeller genererar felaktigheter är inget nytt fenomen. Hallucinationer, som det kallas, beror på att modeller skapar text eller bild utifrån sannolikhet – och därför lär det fortsätta att vara ett problem för techföretagen. Google har dock lovat att de ska se till att risken för hallucinationer minskar när Geminis funktioner återupptas igen.