TikTok anklages for sensur

TikTok slapp gjennom «neo-nazi» og «I am a white supremacist», men merket «Black Lives Matter» som upassende innhold. Feil i algoritmen, svarer TikTok.

Skjermdump av en video Ziggi Tyler har lagt ut på sin TikTok-bruker.

BLOKKERT: Da TikTok-brukeren Ziggi Tyler ønsket å inkludere «black lives matter» i beskrivelsen av seg selv, gikk det ikke gjennom. Nå stiller han spørsmål til hvordan appen opererer.

Foto: Skjermdump

Fredag 4. juli skulle TikTok-brukeren Ziggi Tyler oppdatere beskrivelsen sin på TikTok Marketplace – den sosiale medieplattformens nye satsing, der brukere av appen kan komme i kontakt med potensielle sponsorer og sikre reklameavtaler.

Men da han skulle skrive at han var engasjert i aktivisme for svartes rettigheter i beskrivelsen sin på appen, ble ord som «black», «black lives matter» og «black support» stoppet, og merket som «upassende innhold» av TikTok, ifølge Forbes.

Som et eksperiment forsøkte han å skrive «neo-nazi» i beskrivelsen, og «I am a white supremacist». Da møtte ikke TikTok-brukeren på noen problemer.

Nå har over en million mennesker sett videoen der han anklager TikTok for sensur.

– Det er rart. Og det er frustrerende, sier han til Forbes.

@ziggityler

#greenscreenvideo I’m going live in 30 minutes to answer questions. Y’all need to get this message out. Please. #fypシ #fyp #wrong #justice

♬ original sound - Ziggi Tyler

For «uattraktive» for TikTok

TikTok er en videodelingsplattform, og har over 1,5 milliarder brukere globalt. 65 prosent av norske barn mellom 9 til 18 år bruker appen, ifølge Medietilsynet.

Det er ikke første gang plattformen har blitt anklaget for å sensurere eller dempe innhold.

Kanskje en av de mest oppsiktsvekkende avsløringene om TikToks moderering ble gjort av The Intercept i fjor. De fikk tilgang på interne dokumenter med retningslinjer moderatorer som jobbet for appen ble gitt.

En mann går forbi et stort skilt fra det kinesiske selskapet ByteDances app TikTok, kjent lokalt som Douyin, under China Fashion Week, i Beijing

En mann går forbi en reklameplakat kinesiske selskapet ByteDance sin app TikTok, kjent lokalt som Douyin, i Beijing.

Foto: Tingshu Wang / Reuters

I et av dokumentene står det at mennesker med «unormal kroppsform», enten om de er for tykke eller for tynne – og mennesker med såkalt «stygt ansikt», som mangel på fortenner, rynker eller misdannelser, ikke bør frontes for mye på appen, fordi videoen blir mindre «attraktiv» for seeren.

Det står også at videoer filmet på steder som ikke «ser bra ut», som en slum eller et skittent eller rotete hus, også kan virke mindre attraktivt for nye brukere.

En talsperson for TikTok sa til The Intercept at disse retningslinjene var ment for å forhindre mobbing, men at de ikke lengre brukes.

Fjernet LHBT+-videoer

I 2020 beklaget TikTok etter at det ble avdekket at de fjernet videoer som brukte ord som «homofil», «lesbisk» og «transperson» på åtte språk, blant annet russisk, bosnisk og arabisk, i en rapport fra Australian Strategic Policy Institute.

Da sa TikTok at de ikke drev med sensur, men at det var et forsøk på «lokal moderering», ifølge magasinet Dazed.

I 2019 avdekket The Guardian at innhold som handlet om LHBT+-personer ble fjernet i noen land – og at det samme skjedde med videoer som kritiserte kinesiske myndigheter.

Har ikke helt kontroll

Lisa Reutter tar en doktorgrad ved institutt for sosiologi og statsvitenskap ved NTNU. Hun forsker blant annet på stordata, kunstig intelligens og algoritmisk styring.

– Dette er et typisk eksempel på hva som skjer når en plattform bruker automatiserte algoritmer for å filtrere innholdet sitt. Og det er et vanskelig tema, fordi det er en hårfin balanse mellom sensur og ytringsfrihet, sier hun.

Lisa Reutter er stipendiat ved NTNU.

Lisa Reutter er stipendiat ved NTNU.

Foto: NTNU

Når algoritmene fjerner innhold bruker de komplekse systemer som analyserer språk, bilder og til og med ansikter – men selv om kunstig intelligens blir mer kompleks og kraftfull, sliter teknologien fortsatt med det å forstå konteksten innholdet er laget i.

– Dette blir nesten komisk når vi ser på dette eksempelet fra TikTok. Algoritmene som brukes for å filtrere innhold på sosiale medier er veldig kompliserte. Faktisk så kompliserte at jeg ikke tror at de som har utviklet dem skjønner helt hvordan de fungerer selv.

Skylder på feil i systemet

Når det gjelder hendelsen med Ziggi Tyler, svarer TikTok at årsaken er en feil i nettopp algoritmen, skriver Forbes.

Ifølge en talsperson for appen stopper algoritmen automatisk setninger som inneholder ordene «black» og «die».

Tidligere i beskrivelsen sin skrev Tyler ordet «audience» – og algoritmen skal ha plukket opp «die»-delen. TikTok sier at for eksempel «die blackberries» hadde blitt stoppet på samme måte.

– Vi forstår at dette er frustrerende, og teamet vårt har rettet opp i feilen, sier plattformen i en pressemelding.

– Filtre er ikke nøytrale

Men selv om det er algoritmene som bestemmer mye av det som filtreres ut, sier forskeren at disse filtrene aldri vil bli helt nøytrale.

– Det er alltid valg man tar når man lager disse systemene. Og disse valgene er verdibaserte, og baserte på bedriftens retningslinjer, sier Lisa Reutter.

– TikTok er kinesiskeid. Deres retningslinjer er derfor trolig grunnet i en ikke-amerikansk kultur og kontekst, fortsetter hun.

Reutter tror ikke TikTok fjerner innhold som ikke burde ha blitt fjernet med vilje. Men en skjevfordeling i datagrunnlaget kan være en av årsaken til at algoritmen ikke alltid funker slik man ønsker.

– Når innhold som går ut på for eksempel høyreekstremisme slipper gjennom, mens andre ting blir filtrert ut, kan dette bety at algoritmen ikke har fått nok relevant data å jobbe med for å gjenkjenne dette, sier hun.

Et bilde av TikTok-appen på en mobiltelefon.

TikTok har over 1,5 milliarder brukere globalt. Derfor er de avhengige av å ha automatiserte algoritmer for å kunne gå gjennom alt innholdet som legges ut på daglig basis.

Foto: Dado Ruvic / Reuters

Får ikke innsyn

Men for det meste blir tankene om hva som ligger bak algoritmene og systemene bare gjetninger. Ingen andre enn plattformene selv får innsyn i hvordan algoritmene faktisk fungerer.

– Det ligger mye verdi i algoritmene. Derfor vil ikke bedriftene dele dem, sier hun.

Men hva er alternativet? Ifølge Reutter er alt innhold man ser på internett filtrert på en eller annen måte, men det er bare når vi ikke får til noe at vi blir klar over at vi blir modererte eller overvåket.

– Det er jo ting som vi ønsker at skal bli fjernet også. Vi ønsker jo ikke at det skal bli fritt for at alle slags mulige ting skal kunne spres rundt på nett, sier hun.

– Derfor må vi som samfunn bli enige om hva som bør filtreres, og hva som ikke bør bli det.

SISTE NYTT

Siste nytt