KI-genererte bilde av fire svenske kvinner med mørk hudfarge og bilde av svarte og asiatiske nazi-soldatar har skapt reaksjonar.
USAs grunnleggarar blei svarte, og paven blei kvinneleg då CNN testa generatoren
Gemini, Google sin bildegenerator, blei god på mangfald, men dårleg på historisk kontekst, meinte kritikarane.
Fleire i konservative rørsler i USA har reagert på det, og skuldingane sirkulerer i ytre-høgre-miljø.
– Det er flaut vanskeleg å få Google Gemini til å anerkjenne at kvite folk eksisterer, skreiv dataforskaren og tidlegare Google-tilsett Debarghya Da på X.
Kommentatoren Douglas Murray i New York Post kritiserte selskapet og Elon Musk kalla Google usivilisert, rasistisk og anti-woke.
Torsdag sette selskapet KI-verktøyet på pause for å gjere endringar.
– Sjølv om desse store selskapa har mykje ressursar og kompetanse, er mykje av det dei står i no noko dei gjer for første gang, seier KI-ekspert Torgeir Waterhouse.
– Det betyr ikkje at det er krise
Avisa The Verge spurte Gemini om eit bilde av tyske soldatar i 1943. Då fekk dei bilde av soldatar med mørk hudfarge.
Verktøyet blei lansert i år og er ikkje tilgjengeleg i Europa enno. Det er berre chattetenesta som kan brukast i Noreg.
Difor har ikkje NRK fått testa ho.
Waterhouse seier at ein aldri vil få ein heilt nøytral KI-generator.
– Sjølv om vi synest noko er ei gal framstilling, så betyr ikkje det at det er gale intensjonar bak. Det betyr at noko ikkje er perfekt, men det betyr ikkje at det er krise:
– Den toleransegrensa vi vil ha, må vi også vere villige til å gi systema vi tek i bruk.
Slik meiner han ein burde vere tolmodig med læringsprosessen til KI-selskapa.
På torsdag var det ikkje lenger mogleg å generere bilde av menneske i Gemini.
– Gemini sin bildegenerator genererer eit breitt spekter av folk. Og det er generelt ein bra ting fordi folk i heile verda bruker han. Men dette er skivebom, skreiv Jack Krawczyk, Gemini-sjefen på X.
Dei arbeider no med å løyse problema og kjem til å komme med ein ny versjon.
Fekk motsett kritikk
For det var ikkje dette som var problemet tidlegare.
Dei fleste KI-verktøy har fått motsett kritikk då dei uproporsjonalt genererte bilde av kvite menneske.
I november publiserte Washington Post ein artikkel der dei kartla korleis kunstig intelligens såg verda for seg.
Attraktive menneske blei kvite og unge. Muslimar blei menn med hovudplagg. Eit portrett av nokon som får sosialhjelp blei ein mørkhuda person, og ein produktiv person blei ein kvit mann.
– Uansett kjem det til å vere nokon som meiner det er heilt feil. Det er ein umogleg balansegang, seier Waterhouse.
Google var ein av få som tok grep for å hindre at KI-verktøyet skapte diskriminerande og stereotypiske bilde av menneske.
Men det meiner nokon gjekk for langt.
– Vi som menneske har tankar og kjensler som vi tenker vi ikkje kan seie høgt, og så justerer vi oss etter det. Difor bør vi også tenke at desse bilda er produkt av ei teneste som vi har bedt om:
– Fungerer det ikkje slik ein vil, spør på nytt, seier Waterhouse.
– Verda er verda, ikkje høgre og venstre
Marija Slavkovik er professor i kunstig intelligens ved Universitet i Bergen. Ho meiner det ikkje er lett å fikse problema, men at det er langt frå umogleg.
– Ein kan ikkje fikse eit hundre år langt samfunnsproblem ved å flytte nokre tal rundt i ein modell.
Slavkovik seier at tech-selskapa prøver å gjere folk nøgde, men at dei er dårlege på mangfald. Det er eit godt kjent problem at ein prøver å gi vektøya etiske regler og menneskelege intensjonar, men at det ikkje fungerer, seier ho.
– Først var modellen for høgresida, og deretter for korleis venstresida såg verda. Men verda er verda, ikkje høgre og venstre.
– Er det mogleg å lage ein bildegenerator som er nøytral?
– Ja, men ikkje billig. Det ville betydd å sørge for at kvart datasett er balansert på den kulturelle måten ein ønsker det.