Hopp til innhold
Replikk

Dataprogram skal ikke dømme alene

Tanken om å bli dømt til fengsel eller bøter av en datamaskin er utfordrende for de fleste, og det med god grunn.

Roboten Sofia uviklet med seneste teknologi og kunstig intelligens fremvises under "AI for Good"

«Prosessene som ligger bak beslutninger tatt av kunstige intelligenser er svært komplekse. I hvilken grad kjenner vi de vurderinger og valg som er tatt av robotene?» skriver Merete Smith Bildet viser roboten Sophia under den globale konferansen "«AI for Good»" i Sveits i 2017.

Foto: DENIS BALIBOUSE / Reuters

Morten Goodwin hevder i Ytring at bruken av kunstig intelligens for å avsi dommer i straffesaker vil styrke vår rettssikkerhet.

Noe av det vanskeligste vi gjør som samfunn er å straffe våre medborgere for kriminelle handlinger. Den oppgaven kan vi ikke overlate til kunstig intelligens og roboter alene – men jeg har tro på at kunstig intelligens kan hjelpe oss i til å gi mer rettshjelp til en rimelig pris.

Kunstig intelligens kan gi flere rett

Kunstig intelligens har utvilsomt en rolle i fremtidens rettsvesen. Norske og internasjonale advokater jobber allerede aktivt med å ta i bruk roboter, og i flere typer saker kan kunstig intelligens brukes til å styrke rettssikkerheten for den enkelte.

Kunstig intelligens har utvilsomt en rolle i fremtidens rettsvesen.

I takt med at samfunnet blir mer komplisert og rettsliggjort, evner dessverre ikke alle å håndheve sine rettigheter. Kanskje fordi de ikke vet at de har retten på sin side, eller fordi de ikke har råd til å søke rettsråd hos advokat eller jurist.

Her vil kunstig intelligens kunne bidra positivt. For eksempel vil en lett tilgjengelig og gratis førstelinjetjeneste, basert på kunstig intelligens, kunne gi gode rettsråd i en innledende prosess. Det er heller ikke utenkelig at du om noen år kan spørre Siri på din Iphone om enkle rettsråd

I en norsk virkelighet

Det er noe helt annet å la roboter – uten bidrag fra mennesker – treffe beslutninger som ledd i statens myndighetsutøvelse.

I Goodwins kronikk kan vi lese at kunstig intelligens brukes av blant annet domstoler i Wisconsin i USA. Roboten kan forutsi kriminelle tilbakefall, og dersom det er stor grad av sannsynlighet for at du vil begå nye straffbare handlinger, får du en strengere straff. Hvis du bor i et nabolag med mange kriminelle, kan man se for seg at en algoritme vil vise høyere sannsynlighet for at du vil begå kriminalitet i fremtiden, enn hvis du bor i et mer velstående område av byen.

I norsk rett dømmer vi ikke noen på bakgrunn av risikoen for fremtidige forbrytelser.

I norsk rett dømmer vi ikke noen på bakgrunn av risikoen for fremtidige forbrytelser; her er du og jeg heldigvis uskyldig til det motsatte er bevist.

Fordomsfull teknologi

Et ofte brukt argument er at teknologien er nøytral og vitenskapelig. Goodwin skriver at maskinene ikke er partiske eller rasistiske, men i USA har slike modeller ved flere anledninger blitt kritisert for å basere seg på et skjevt utvalg, og reproduserer diskriminering i samfunnet.

Med andre ord må vi også forvente at maskiner kan være fordomsfulle, og her trengs menneskelig erfaring og klokskap.

I hvilken grad kjenner vi de vurderinger og valg som er tatt av robotene?

Prosessene som ligger bak beslutninger tatt av kunstige intelligenser er svært komplekse. I hvilken grad kjenner vi de vurderinger og valg som er tatt av robotene? Et viktig element i debatten om kunstig intelligens i rettsvesenet, som Goodwin glemmer, er hvem som skal kunne lage algoritmene som robotene bygger på, og hvem skal føre tilsyn med dem.

Tanken om å bli dømt til fengsel eller bøter av en datamaskin er utfordrende for de fleste – og det med god grunn. Retten til å dømme andre mennesker krever, slik jeg ser det, at vi klarer å se hun eller ham i øynene når fellesskapet avsier en straffedom.

Hør debatten mellom Merethe Smith og Morten Goodwin om kunstig intelligens sitt inntog i rettsapparatet: Øker rettssikkerheten med kunstig intelligens?

Følg debatten: @NRKYtring på Twitter og NRK Debatt på Facebook