Det här är en kort nyhet från Kvartals Cortado – världen varje vardag.
Förväntningarna var höga när Google släppte sin senaste AI-modell, Gemini. Den ska kunna producera bilder utifrån användarens beskrivningar och kallades för ”världens största och mest kapabla” AI-system. Men redan efter några dagar tvingades Google stoppa den. Skälet var att användare rapporterade om att den var benägen att använda kvinnor och människor med en annan hudfärg än vit i sina bilder, vilket skapade historiska felaktigheter, skriver Financial Times.1
I flera bilder fick etniskt homogena grupper eller individer, som vikingar och de amerikanska landsfäderna, plötsligt medlemmar med varierande hudfärg. Google hade avsiktligt försökt ha en hög mångfald i Geminis bildskapande, men erkände att den kan ha överkompenserat i vissa fall.
”Vi är medvetna om att Gemini ger felaktigheter i vissa historiska bildgenereringsskildringar”, skrev Google på X efter lanseringen.
Risk för hallucinationer
Att AI-modeller genererar felaktigheter är inget nytt fenomen. Hallucinationer, som det kallas, beror på att modeller skapar text eller bild utifrån sannolikhet – och därför lär det fortsätta att vara ett problem för techföretagen. Google har dock lovat att de ska se till att risken för hallucinationer minskar när Geminis funktioner återupptas igen.
artikel från Kvartal
- Alla artiklar
- Alla poddar
- Kvartals app
- Reklamfritt