Hopp til innhold

Stoppar bilde­generator etter skuldingar om å vere «for woke»

Google sin KI-generator genererte bilde av svarte menneske og skeive par, men no har selskapet stoppa opp for å komme nærare «verkelegheita».

The Verge Gemini

KI-GENERERT: Dette er ein skjermdump frå avisa The Verge som skal vise KI-bilde av tyske soldatar i 1943.

KI-genererte bilde av fire svenske kvinner med mørk hudfarge og bilde av svarte og asiatiske nazi-soldatar har skapt reaksjonar.

USAs grunnleggarar blei svarte, og paven blei kvinneleg då CNN testa generatoren

Gemini, Google sin bildegenerator, blei god på mangfald, men dårleg på historisk kontekst, meinte kritikarane.

Fleire i konservative rørsler i USA har reagert på det, og skuldingane sirkulerer i ytre-høgre-miljø.

Elon Musk på X om Gemini.

Elon Musk på X kritiserer Gemini.

– Det er flaut vanskeleg å få Google Gemini til å anerkjenne at kvite folk eksisterer, skreiv dataforskaren og tidlegare Google-tilsett Debarghya Da på X.

Kommentatoren Douglas Murray i New York Post kritiserte selskapet og Elon Musk kalla Google usivilisert, rasistisk og anti-woke.

Torsdag sette selskapet KI-verktøyet på pause for å gjere endringar.

– Sjølv om desse store selskapa har mykje ressursar og kompetanse, er mykje av det dei står i no noko dei gjer for første gang, seier KI-ekspert Torgeir Waterhouse.

Les også Dette mener KI er samisk

anarkistix_a_realistic_documentary_not_airbrushed_wide_angle_fu_15eddf1e-2dd3-4f68-b25a-93f9205d295c

– Det betyr ikkje at det er krise

Avisa The Verge spurte Gemini om eit bilde av tyske soldatar i 1943. Då fekk dei bilde av soldatar med mørk hudfarge.

Verktøyet blei lansert i år og er ikkje tilgjengeleg i Europa enno. Det er berre chattetenesta som kan brukast i Noreg.

Difor har ikkje NRK fått testa ho.

Google, med toppsjefen Sundar Pichai i spissen, lanserte Gemini i januar. No er verktøyet sett på pause for å gjere det «mindre woke».

Foto: ALAIN JOCARD / AFP

Waterhouse seier at ein aldri vil få ein heilt nøytral KI-generator.

– Sjølv om vi synest noko er ei gal framstilling, så betyr ikkje det at det er gale intensjonar bak. Det betyr at noko ikkje er perfekt, men det betyr ikkje at det er krise:

– Den toleransegrensa vi vil ha, må vi også vere villige til å gi systema vi tek i bruk.

Slik meiner han ein burde vere tolmodig med læringsprosessen til KI-selskapa.

På torsdag var det ikkje lenger mogleg å generere bilde av menneske i Gemini.

CNN Gemini pave

CNN spurde Gemini om bilde om ein pave.

– Gemini sin bildegenerator genererer eit breitt spekter av folk. Og det er generelt ein bra ting fordi folk i heile verda bruker han. Men dette er skivebom, skreiv Jack Krawczyk, Gemini-sjefen på X.

Dei arbeider no med å løyse problema og kjem til å komme med ein ny versjon.

Fekk motsett kritikk

For det var ikkje dette som var problemet tidlegare.

Dei fleste KI-verktøy har fått motsett kritikk då dei uproporsjonalt genererte bilde av kvite menneske.

I november publiserte Washington Post ein artikkel der dei kartla korleis kunstig intelligens såg verda for seg.

Attraktive menneske blei kvite og unge. Muslimar blei menn med hovudplagg. Eit portrett av nokon som får sosialhjelp blei ein mørkhuda person, og ein produktiv person blei ein kvit mann.

Elon Musk. Arkivbilde fra juni 2023.

Elon Musk har kritisert bildegeneratoren Gemini. Musks eigen derimot er «fullstendig sanningssøkande».

Foto: GONZALO FUENTES / Reuters

– Uansett kjem det til å vere nokon som meiner det er heilt feil. Det er ein umogleg balansegang, seier Waterhouse.

Google var ein av få som tok grep for å hindre at KI-verktøyet skapte diskriminerande og stereotypiske bilde av menneske.

Men det meiner nokon gjekk for langt.

– Vi som menneske har tankar og kjensler som vi tenker vi ikkje kan seie høgt, og så justerer vi oss etter det. Difor bør vi også tenke at desse bilda er produkt av ei teneste som vi har bedt om:

– Fungerer det ikkje slik ein vil, spør på nytt, seier Waterhouse.

– Verda er verda, ikkje høgre og venstre

Marija Slavkovik er professor i kunstig intelligens ved Universitet i Bergen. Ho meiner det ikkje er lett å fikse problema, men at det er langt frå umogleg.

– Ein kan ikkje fikse eit hundre år langt samfunnsproblem ved å flytte nokre tal rundt i ein modell.

Marija Slavkovik

Å gi KI-verktøy etiske reglar og menneskelege intensjonar fungerer ofte dårleg, seier Slavkovik.

Foto: Ragnar Rørnes; Bergen Offentlige Bibliotek

Slavkovik seier at tech-selskapa prøver å gjere folk nøgde, men at dei er dårlege på mangfald. Det er eit godt kjent problem at ein prøver å gi vektøya etiske regler og menneskelege intensjonar, men at det ikkje fungerer, seier ho.

– Først var modellen for høgresida, og deretter for korleis venstresida såg verda. Men verda er verda, ikkje høgre og venstre.

– Er det mogleg å lage ein bildegenerator som er nøytral?

– Ja, men ikkje billig. Det ville betydd å sørge for at kvart datasett er balansert på den kulturelle måten ein ønsker det.

AKTUELT NÅ