Illustrasjon ver 2 - spammail

Vi har alle blitt forsøkt svindlet over e-post.

Ofte stusser man over språkvalg og lovnader om store beløp.

Illustrasjon ver 2 - ChatGPT

Hva vil skje når en chatbot kan skrive og spre overbevisende tekster på få sekunder?

Illustrasjon - mann sjekker mobilen

Kunstig intelligens kan øke svindel og dataangrep

Kunstig intelligens – er verden egentlig klar for ChatGPT?

ChatGPT ble lansert i november 2022 av OpenAI, og interessen for bruk av kunstig intelligens har økt kraftig.

Over 100 millioner brukere har registrert seg på chatboten som har imponert en hel verden ved å kunne svare på «alt mulig».

Det er den raskeste brukerveksten i historien.

Men hvis en ny kunstig intelligens kan skrive «alt», betyr det at den også kan brukes til å generere skadelig innhold?

Det tok ikke lang tid etter lansering før faresignalene dukket opp på nett.

I desember dukket det opp en tråd på et populært hackerforum. Utgiveren avslørte at han eksperimenterte med ChatGPT for å gjenskape skadevare.

Chatboten skrev ned ulike teknikker for å skape skadelig programvare, kun ved å analysere en forskingsartikkel om temaet.

Innlegget er bare et av mange på forumet, som viser hvordan kunstig intelligens kan brukes til dataangrep.

– Terskelen for nettkriminalitet blir mindre

Check Point er et amerikansk-israelsk IT-sikkerhetsselskap. De samarbeider blant annet med amerikanske NSA i kampen mot trusseletterretning.

Da ChatGPT ble lansert, så selskapets forskningsgruppe på risikoer og muligheter rundt kunstig intelligens og chatboter.

De fant flere skremmende resultater.

Kappløpet om kunstig intelligens går så fort at vi glemmer å vurdere potensiell misbruk av teknologien.

Sergey Shykevich

Sergey Shykevich er gruppeleder for trusseletterretning i den israelske delen av Check Point.

Sergey Shykevich
Foto: Check Point

Ved å teste mulighetene til ChatGPT, har de funnet bevis på at det er mulig å generere svindel-epost, phishing-epost og ondsinnet kode.

Kunstig intelligens åpner opp muligheten for at kriminelle med minimal digital kompetanse, kan få kraftig drahjelp fra flere verktøy.

Nå blir det enklere å bli cyberkriminell.

Sergey Shykevich

I tillegg kan hackere få ned kostnader og effektivisere arbeidet, når kunstig intelligens kan bidra med jobben.

I tillegg til svindel, fant de innlegg om hvordan man kan gjenskape skadevare for infostealer og skrive krypteringsnøkler over flere lag.

Hackerforum: Brukere deler tips om hvordan man kan skrive skadelig programvare ved bruk av ChatGPT

Utgiveren av denne tråden avslørte at han eksperimenterte med ChatGPT for å gjenskape skadevare. Selv om personen kan være en «ekte» hacker, så Check Points eksperter tegn til at innleggene kom fra en mindre teknisk dyktig nettkriminell.

ChatGPT - Dark Web Script

En annen hacker viser hvordan man lager skript på Dark Web-markedsplassen ved hjelp av ChatGPT. Hovedformålet til det mørke nettet er å tilby en plattform for automatisert handel med ulovlige eller stjålne varer som kontoer og betalingskort.

ChatGPT - Innlegg på forum om hvordan KI-en kan brukes til å lage krypteringsnøkler.

En trusselaktør kalt USDoD la ut et Python-skript, som han understreket at var det 'første skriptet han noensinne hadde laget'. Den ble fullført med hjelp av OpenAI-kode.

Kombinert med at chatboten kan oversette tekster til alle verdens språk, kan den tilpasses til å treffe store grupper med mennesker.

Stor risiko, men også nye muligheter

Pernille Aaby er konsulent i Differ Strategy Consulting.

Pernille Aaby

Pernille Aaby jobber som IT-konsulent ved Differ Strategy Consulting.

Foto: Carl August Klevjer / NRK

Hun tok nylig mastergrad i kunstig intelligens ved Oslo Met, og skrev masteroppgave om kunstig intelligens og språkmodeller.

For å forstå hvordan ChatGPT kan misbrukes, må vi først se på hvordan den fungerer i praksis.

For hva er annerledes ved at ChatGPT samler informasjon for oss, enn å bruke en søkemotor til å finne resultater selv?

Vi spør Aaby om hvordan den skiller seg ut, sammenlignet med søkemotoren Google som et eksempel.

Hun forklarer det slik:

Visuell grafikk som fremstiller et oversiktsbilde av et bibliotek.

Se for deg at du søker informasjon i et bibliotek.

En figur dukker opp i biblioteket. Hodet til figuren er logoen til tek-selskapet Google, og peker på en rød pil som viser vei til en av bokhyllene.

Google peker deg i riktig retning, og foreslår et par bøker.

Alle bøkene forsvinner og bibliotekets bokhyller blir tomme. En figur med logoen til ChatGPT, står ved et bord og leser en bok. På bordet ligger det også en stabel med bøker ChatGPT allerede har fullført.

ChatGPT har lest alle bøkene i biblioteket.

ChatGPT-figuren tenker gjennom hele biblioteket og gir et svar til en annen figur som står ved siden av.

Den gir deg en oppsummering fra flere bøker basert på det du spør etter.

Og det er nettopp dette «biblioteket» ChatGPT baserer seg på.

Som en avansert språkmodell består den av enorme mengder informasjon og artikler.

Det innebærer også artikler om skadelig programvare, svindel, og koding.

Pernille Aaby er tydelig på at det er knyttet risiko rundt de nye KI-verktøyene, og tror vi kommer til å se en økning i negativ bruk.

Pernille Aaby

Masteroppgaven fra Oslo Met handlet om kunstig intelligens og chatboter.

Foto: Carl August Klevjer / NRK

Men kunstig intelligens er kommet for å bli. Hun mener det er langt flere fordeler enn farer med de nye chatbotene.

Jeg syntes det ligner på de samme debattene som ved all ny teknologi. Plutselig har det kommet noe nytt som ser bedre ut.

Pernille Aaby

Hun bruker for eksempel ChatGPT selv i forbindelse med koding.

– Snart vil nok alle utviklere bruke den. Selv bruker jeg den til å feilsøke i egen koding, og får ofte opp feilmeldinger og tilbakemeldinger fra chatboten.

Hun legger til at før lanseringen var nettopp Google det foretrukne verktøyet. Nå har også ChatGPT tatt over søkejobben.

Også når hun trenger alt fra inspirasjon til alt annet en koding, som for eksempel tekster og presentasjoner.

Det er ikke alltid fakta den kommer opp med, så det er viktig å være kritisk.

Pernille Aaby

På spørsmålet om svindel-epost og målrettede angrep, mener hun det er viktig å være nysgjerrig på ChatGPT, og gjerne teste den ut.

– Man burde bli mer skeptisk til ukjente avsendere, men det er allerede et problem. Jeg får for eksempel ofte meldinger av besteforeldre som lurer på hva noe er. Da sier jeg alltid, ikke trykk.

Pernille Aaby
Foto: Carl August Klevjer / NRK

For å virkelig forstå hvor omfattende og god den nye chatboten er, oppfordrer hun alle, også besteforeldre, til å prøve selv.

– Prøv den, bruk den, og se hvor bra den er. Da tror jeg du blir mer kritisk.

Dersom noe er for godt til å være sant ...

Også Telenor jobber mye med datasikkerheten rundt innføring av chatboter.

De har satt ned et eget utvalg som jobber med truslene rundt kunstig intelligens.

Bjørn Richard Watne, global sikkerhetssjef i Telenor

– Vi har behov for å bygge en kollektiv sikkerhetskultur.

Bjørn Richard Watne er global sikkerhetssjef i Telenor.

Han viser til at det vi ser nå, kun er en begynnelse.

Hvis vi tenker litt lenger frem, så vil man etter hvert kunne fore den kunstige intelligensen med åpent tilgjengelig informasjon fra eksempelvis sosiale medier.

Bjørn Richard Watne

Tidligere har svindelforsøk på nett som oftest kommet i form av masseproduserte meldinger.

Med fremtidens kunstig intelligens kan det snart være historie.

Se for deg at en ny KI-modell kan skanne profiler på sosiale medier, og skreddersy meldinger basert på din offentlige informasjon og likerklikk.

Da kan det bli enda vanskeligere enn i dag og vurdere om det man mottar er reelt eller ikke.

På spørsmålet om hvordan vi som forbrukere kan forberede oss på dette, finnes det to svar.

Det er viktig med en sunn dose skepsis. Dersom noe virker for godt til å være sant, er det nok fremdeles slik.

Bjørn Richard Watne

Han legger til at ingen seriøse tjenester vil be deg om å dele sensitive personopplysninger.

I tillegg kan det være lurt å ta direkte kontakt, om disse meldingene kommer fra profilen til familie eller andre bekjente.

De nye chatbotene kan nemlig også gi seg ut for å være personer du kjenner.

Hva kan vi egentlig gjøre?

Kunstig intelligens utvikler seg så raskt at det kan virke overveldende å henge med.

Samtidig som flere og mer avanserte programmer blir tilgjengelige for massene, øker også fokuset på mottiltak og cybersikkerhet fra myndigheters side.

Håkon Styri

Håkon Styri, seniorrådgiver i Nasjonal sikkerhetsmyndighet.

Håkon Styri, seniorrådgiver i Nasjonal sikkerhetsmyndighet.

Håkon Styri er seniorrådgiver i Nasjonal sikkerhetsmyndighet.

– Mange land etablerer nasjonale strategier og lovregulering på området kunstig intelligens. Nato har en strategi for kunstig intelligens, og det forhandles frem internasjonale avtaler om det samme.

Selv om bevissthet rundt ny teknologi blir viktig i årene fremover, mener Styri at vi fortsatt må forberede oss på en økning i dataangrep.

– Vi må også være forberedt på at svindelforsøk og dataangrep blir mer avanserte.

Flere hundre tusen mennesker i Norge, gjerne eldre, har manglende digital kompetanse. Det er også denne gruppen som oftest blir ofre for svindel over nett.

Styri peker på at det å skaffe seg kunnskap og kompetanse, og viser til det nettbaserte kurset «Elements of AI» som ble lansert på norsk i 2020.

Elements of AI, kurs om KI på nett

Kurset er gratis og tilgjengelig for alle. Skjermbilde fra: https://course.elementsofai.com/no/

I tillegg oppfordrer han til å bli mer varsom når man får forespørsler og uventende meldinger på nett.

«Kunstig intelligens betyr at det er viktig at vi blir flinkere til kritisk tenking»

Håkon Styri

De er viktig at man lærer om både nytte og farer ved bruk av kunstig intelligens på flere områder i samfunnet.

– Og vi må være oppmerksomme på at enkelte ganger kan store teknologiske nyvinninger komme overraskende på oss både som enkeltmennesker og som samfunn.

Og ifølge ChatGPT selv er en sunn dose skepsis viktig, når man ber den om å gi oss noen punkter om nettsikkerhet.

Nye teknologier som snart kan komme

Før jul førte chatbotens evne til å skrive norskoppgaver til en debatt om kunstig intelligens i skolen.

Etter flere artikler om juks på eksamen og utfordringer med ny teknologi, besluttet danske universiteter og forby ChatGPT.

Utdanningsdirektorater skrur av internett på norske videregående skoler under fremtidige eksamener.

Men det er ikke bare chatboter og de utfordringene som er blitt nevnt som kan prege de neste årene.

I tillegg til KI-kunst i form av bildegeneratorer, er også kunstig intelligens i ferd med å revolusjonere lyd og stemmer.

Men hva skjer når hvem som helst kan laste opp en annens stemme, og spre falske sitater og lydklipp over internett?

Kombinert med en økning i deepfake-teknologi kan vi få en stor utfordring foran oss i nær fremtid.

Samtidig er det viktig å huske på at parallelt med nye teknologier, kommer også nye muligheter.

NRK har kontaktet OpenAI som står bak ChatGPT, men de har ikke svart på våre henvendelser.

Hei!

Har du innspill til artikkelen eller mener det er andre saker jeg burde se på?

Send meg gjerne en e-post. 

Har skrevet mye om kulturbransjen. Blant annet om Indiana Jones, Disneys nyinnspillinger og kinotiltak mot mot publikumsstøy.

Har tidligere skrevet om norsk spillnæring og den ukrainske filmbransjen.