FORSVAR

Panel: USA har en moralsk forpliktelse til å utvikle AI-våpen

USA må holde seg utenfor en avtale som forbyr fullt autonome våpensystemer. Kun avfyring av atomvåpen bør kreve menneskelig inngripen, konkluderer et panel oppnevnt av den amerikanske regjeringen, til tross for motstand fra flere land og organisasjoner.

USA må holde seg utenfor en avtale om å forby utvikling av automatiske våpen kontrollert av kunstig intelligens (AI), mener en ekspertgruppe i landet. Bildet er fra en inernasjonal demontrasjon mot autonome våpen, fra Campaign to Stop Killer Robots, ved Brandenburger Tor in Berlin i mai 2019.
USA må holde seg utenfor en avtale om å forby utvikling av automatiske våpen kontrollert av kunstig intelligens (AI), mener en ekspertgruppe i landet. Bildet er fra en inernasjonal demontrasjon mot autonome våpen, fra Campaign to Stop Killer Robots, ved Brandenburger Tor in Berlin i mai 2019. Foto: NTB/REUTERS/Annegret Hilse
Frederik Marcher Hansen, ing.dk
1. feb. 2021 - 17:00

USA må holde seg utenfor en avtale om å forby utvikling av automatiske våpen kontrollert av kunstig intelligens (AI).

Dette står i utkastet til en rapport til den amerikanske kongressen utarbeidet av panelet ‘National Security Commission on Artificial Intelligence’, oppnevnt av regjeringen, skriver The Guardian.

Med tidligere Google-sjef Erik Schmidt ved roret konkluderte panelet på tirsdag at verdens største militærmakt burde vurdere AI i henhold til landets sikkerhet og i utviklingen av ny teknologi.

En moralsk rød linje

Ifølge panelleder og tidligere forsvarssekretær Robert Work forventes autonome AI-våpen å gjøre færre feil i kamp enn mennesker, redusere antall døde og minimere risikoen for å angripe feilidentifiserte mål.

– Det er et moralsk imperativ å i det minste forfølge hypotesen, sa visepresidenten.

Imidlertid møter utviklingen og bruken av AI-våpen en hard motstand. Ifølge organisasjonen Campaign to Stop Killer Robots, som i omtrent åtte år har advart og kjempet for et forbud mot AI-våpen, bryter bruken av autonome våpen en moralsk rød linje.

«Ingen vil være trygg», heter det på organisasjonens nettsted hvor det også fremgår at Europaparlamentet, 30 land og mer enn 140 frivillige organisasjoner og 4500 AI-eksperter vil forby bruk av helt autonome våpen.

Ifølge Campaign to Stop Killer Robots er menneskelig kontroll nødvendig for å vurdere proporsjonaliteten til angrepene og for å kunne rette anklager om mulige krigsforbrytelser mot mennesker.

Kun atomvåpen må håndteres av mennesker

Mens mulighetene i autonome våpen har eksistert i flere tiår, er det økende bekymringer for å la AI kontrollere våpensystemer, ettersom forskere finner «bias» i AI, samt flere eksempler på programvaremisbruk bygget på kunstig intelligens.

På møtene sine denne uken erkjente panelet National Security Commission on Artificial Intelligence disse problemene. For eksempel advarte et av panelmedlemmene, som er ansatt av Microsoft, at presset for å bygge maskiner som reagerer raskt kan bidra til å eskalere konflikter.

Men bare når det gjelder beslutningen om å avfyre atomvåpen, vil panelet kreve at folk blir involvert. Panelet anbefaler en avtale om antispredning snarere enn en traktat som forbyr autonome våpen, fordi det ville være i strid med amerikanske interesser og en vanskelig oppgave å håndheve, skriver The Guardian.

Artikkelen ble først publisert på Ingeniøren.

Bildet skal angivelig skal vise rester av en av personsøkerne som eksploderte under angrepet mot den libanesiske Hizbollah-militsen.
Les også

Teknologi verden over blir analysert i kontekst av å være et våpen

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.