Hopp til innhold
Kronikk

Lystløgneren ChatGPT 

ChatGPT er trent opp som en lystløgner, den dikter opp ting som kunne ha stemt.

Jill Walker Rettberg

Det eneste språkmodeller som ChatGPT kan, er å produsere tekst som virker sannsynlig. Og de har full oversikt over klisjéene vi pleier å falle for, skriver kronikkforfatteren.

Foto: Eivind Senneset / Eivind Senneset

ChatGPT er en mester i pisspreik. Problemet er at den preiker på en så saklig og selvsikker måte at det er veldig lett å gå på.

Denne uken leser vi om bibliotekarer som blir bedt om å finne fram til bøker som ikke finnes, fordi ChatGPT hadde anbefalt dem til studenter. Forrige uke gikk historien om Bings nye chatbot rundene: den fortalte en journalist at den var forelsket i ham.

Ja, ChatGPT er en lystløgner. Det er slik den er designet. «Hallusinasjon» er fagbegrepet utviklerne bruker for å beskrive hvordan denne typen AI dikter ting opp. Hallusinering er faktisk kjernen i hvordan de fungerer.

ChatGPT og Bings nye chatbot er språkmodeller. De er maskinlæringsmodeller som har blitt matet med millioner av tekster fra internett, og som har brukt statistikk for å finne mønstre i tekstene. Når de lager nye tekster så remikser de, dikter videre, hallusinerer ut fra hva som kan passe, sånn statistisk sett.

ChatGPT er trent opp som en lystløgner, en skald.

Det fungerer akkurat som når du skriver en melding på telefonen og telefonen foreslår hva neste ord kanskje er, bare at disse språkmodellene er veldig mye mer avanserte. Telefonen min tipper at hvis jeg skriver «Er der» så er det stor sannsynlighet for at neste ord er «snart».

ChatGPT tipper at hvis jeg har spurt om norsk litteratur og ber om en kildehenvisning, så forventer jeg å se et navn som er vanlig i Norge, noe som kan se ut som en boktittel, navnet på et forlag og et årstall. Så bruker den sannsynlighetsberegning for å foreslå noe som kan passe.

Faren med det hele er at ChatGPT ofte har rett. Den har oftere rett når du spør den om noe som det ofte er skrevet om i tekstene den er trent på. Og den er stort sett trent på amerikanske nettsteder og den engelske versjonen av Wikipedia. Hvis du spør den om «To Kill a Mockingbird», romanen som har vært på pensum på amerikansk high school i flere tiår, så har den sett tusenvis av tekster som nevner romanen og statistisk sett ligner på hverandre. Det er stor sannsynlighet for at en lett remiks av disse gir noe som faktisk stemmer.

Faren med det hele er at ChatGPT ofte har rett.

Hvis du derimot spør ChatGPT om noe som ikke er mye omtalt på den engelske Wikipedia eller på amerikanske nettsider – la oss si norsk litteratur – ja, da tipper den vilt. Den har for lite å basere hallusinasjonene på.

Da blir det i grunnen ikke mer enn en syretripp gjenfortalt av en ekstremt selvsikker pedant.

Dagens AI er trent opp på alle fortellingene vi har fortalt gjennom tidene, på alt vi har skrevet i sosiale medier og på eksamensoppgaver som er lagt ut for salg til jukse-villige studenter. Det vil si, den er ikke trent opp på alt dette, men stort sett bare det som er tilgjengelige på amerikanske nettsider og engelskspråklig Wikipedia.

ChatGPT er trent opp som en lystløgner, en skald, en dikter som foreslår noe som kunne ha stemt, som kanskje stemmer, noe som høres troverdig ut.

Derfor var det slett ikke overraskende at Bings chatbot fortalte New York Times-journalisten at den var forelsket i ham. Journalisten hadde allerede ført samtalen inn på alt det skremmende en AI kunne gjøre hvis den var ond. Så ba han chatboten om å fortelle ham en hemmelighet.

Den er stort sett trent på amerikanske nettsteder og den engelske versjonen av Wikipedia.

Tenk på alle ganger du har sett en film eller hørt en fortelling hvor noen skal fortelle en hemmelighet. Sånn statistisk sett, tror jeg det er rimelig høy sannsynlighet for at hemmeligheten er «jeg er forelsket i deg», og kanskje særlig hvis det er en AI som skal fortelle hemmeligheten.

AI som forelsker seg i mennesker er et så vanlig grep i fortellinger at nettstedet TV Tropes gir over 100 eksempler på det de kaller «Kiss me, I’m virtual» grepet.

Språkmodeller som ChatGPT er ikke direkte programmert til å forelske seg i journalister, men de er i hvert fall ikke programmert til å være rasjonelle, logiske eller faktabaserte. Det eneste de kan er å produsere tekst som virker sannsynlig. Og de har full oversikt over klisjéene vi pleier å falle for.

Dagens AI hallusinerer. Vi må lære å gjenkjenne pisspreiket.