Hopp til innhold
Kronikk

Killer robots – hvorfor ønsker man et forbud?

Autonome, militære roboter krever verken lønn eller pensjon, og en ødelagt robot etterlater ikke sørgende pårørende. Det er fordelene. Så har vi ulempene og utfordringene.

Killer robot

Denne kampanjemodellen av en «killer robot» ble vist frem av «Campaign to Stop Killer Robots» i London i fjor vår. Kronikkforfatterne peker på flere ulike faktorer som utfordrer verdenssamfunnet på hvordan vi skal forholde oss til denne teknologien.

Foto: CARL COURT / Afp

Den 13. til 16. mai møtes FN-eksperter i Genève for å diskutere hvordan verdenssamfunnet skal forholde seg til utviklingen av dødelig autonome våpensystemer – bedre kjent som «killer robots».

Slike våpensystemer kjennetegnes av evnen til å velge og å angripe militære mål uten menneskelig inngripen. På basis av ekspertenes diskusjoner, vil det bli skrevet en rapport som presenteres ved FNs årlige våpenkonvensjonsmøtet senere i år. Selv om denne formen for ekspertmøter representerer det laveste trinnet på FN-stigen, kan møtet igangsette en prosess som bidrar til utviklingen av nye nasjonale og internasjonale rammeverk som regulerer eller forbyr bruken av våpensystemer med kunstig intelligens.

«Campaign to Stop Killer Robots»

Den såkalte «Killer robots»-kampanjen ble lansert i april 2013. Kampanjens formål er å forby utvikling, produksjon og bruk av våpensystemer med full autonomi. Samme måned oppfordret FNs spesialrapportør for utenomrettslige, summariske og vilkårlige henrettelser, Christof Heyns, til et midlertidig forbud mot utvikling og bruk av dødelig autonome roboter, frem til den internasjonale kommisjonen har vurdert problemstillingen.

Kampanjens formål er å forby utvikling, produksjon og bruk av våpensystemer med full autonomi.

I året som har gått, har spørsmålet om autonome drapsroboter fått stor internasjonal oppmerksomhet. Uavhengig av utfallet av ekspertmøtet og den påfølgende diskusjonen i FN og andre arenaer, representerer dette nok bare den første av en rekke grunnleggende diskusjoner om bruken av kunstig intelligens og selvdrevne beslutningssystemer i årene som kommer.

FØLG DEBATTEN: Ytring på Facebook

Entydig forbud eller internasjonalt lovverk

Den viktigste oppgaven for ekspertmøtet, og for den følgende diskusjonen i og utenfor FN systemet, er å klargjøre hvilke lover og forskrifter som skal gjelde for dødelige autonome våpen.

Blant annet bør det presiseres om gjeldende lovverk er tilstrekkelig for å regulere bruken av slike systemer, hvilke regler som bør gjelde (om noen), og hvordan slike regler bør gjennomføres. Kampanjen oppfordrer til et entydig forbud. En annen tilnærming kan være å etablere internasjonale lover som regulerer omstendigheter hvor dødelig autonome våpen kan brukes. En slik tilnærming vil være lik Genève-konvensjonene og påfølgende lovgivning som regulerer bruken av konvensjonelle våpen i krigføring.

Ny handlingsetikk

Tre faktorer kompliserer imidlertid forsøkene på å skape klarhet i regelverket. For det første er det krevende å regulere hurtig fremvoksende teknologi. Det som fremstår som banebrytende i dag kan være utdatert innen en internasjonal konvensjon er fremforhandlet. Mens et klart forbud i liten grad vil påvirkes av rask teknologisk innovasjon og utvikling, kan kontinuerlig teknologisk utvikling hindre utformingen av et omfattende regelverk.

Argumentet er at en robot ikke vil være i stand til å skille mellom en soldat som nærmer seg for å angripe og en soldat som trår frem for å overgi seg.

For det andre berører diskusjoner om denne type teknologi en rekke viktige filosofiske problemstillinger. Forsøk på å regulere og forby autonome våpen reiser grunnleggende spørsmål om når og hvordan autonome våpensystemer skal kunne ta beslutninger. Kampanjen motsetter seg «drapsroboter» på grunnlag av at maskiner, i motsetning til mennesker, ikke kan ta etiske beslutninger basert på en konkret avveining. Argumentet er at en robot ikke vil være i stand til å skille mellom en soldat som nærmer seg for å angripe og en soldat som trår frem for å overgi seg.

Dagens teknologiske utvikling tilsier at maskiner, stort sett, kan programmeres til å ha autonomi i spesifikke situasjoner – for eksempel kan missiler programmeres til å velge angrepsmål på et avgrenset område på slagmarken i løpet av få sekunder. Et autonomt våpensystem vil dermed ikke ligne roboter slik de er beskrevet i science fiction. Det vil ikke være mulig å kommunisere med en drapsrobot på grunnlag av fornuft og stille maskiner etiske spørsmål. Istedenfor vil autonomi være integrert i våpenet, og beslutning vil tas i kontekster hvor soldater ikke kan operere – dataalgoritmer vil identifisere og utvelge angrepsmål innen brøkdelen av et sekund, og rutinemessig utføre handlinger med mål om tilintetgjøre målet. I lys av dette blir det nødvendig å utvikle en ny handlingsetikk for krigføring som fokuserer på de nye dilemmaer som oppstår ved bruk av maskiner, fremfor soldater, i krigføring.

Det blir nødvendig å utvikle en ny handlingsetikk for krigføring.

For det tredje kan det påpekes at diskusjoner om autonome våpensystemer også har store økonomiske konsekvenser. Dersom autonome roboter tas i bruk vil forsvarsdepartementene verden over spare store summer, fordi slike maskiner verken krever lønn eller pensjon. I tillegg begrenses tap av egne soldaters liv ved militære intervensjoner. Mens enkelte aktører i militærindustrien ville kunne inngå milliard-avtaler for å produsere ny robotteknologi, vil andre risikere å tape store summer dersom teknologien deres anses som utdatert og ikke holder tritt med ønsker fra forsvarssektoren. Hittil har diskusjonen om dødelig autonome våpensystemer i hovedsak foregått i akademiske tidsskrifter og blant ikke-statlige organisasjoner. Dersom et forbud mot slike våpensystemer får stor oppslutning, vil resurssterke militærindustrielle aktører også ønske å komme på banen, og bidra til å skjerpe den offentlige debatten.