Dødelige, autonome kamikaze-droner med en eksplosiv ladning kan for første gang ha blitt brukt til å angripe mennesker. Hendelsen, som fant sted under den libyske borgerkrigen i fjor, kan være den første i sitt slag.
Det skriver nyhetsmediet New Scientist etter å ha fått tak i en ekspertrapport fra FNs sikkerhetsråd.
"Selv om de fullstendige detaljene om hendelsen som fant sted i Libya ikke er frigitt og det er uklart om noen ble skadet, antyder hendelsen at det allerede kan være for sent med internasjonal innsats for å forby dødelige autonome våpen før de tas i bruk», skriver de.
Hendelsen fant sted i mars 2020. Ifølge FN-rapporten skal den tyrkisk-produserte Kargu-2-dronen av seg selv ha jaget et menneskelig mål under en konflikt mellom Libyas regjeringstropper og den militære utbruddsfraksjonen Libyan National Army, ledet av desertør Khalifa Haftar.
Dronene antas å ha blitt brukt i konflikten mellom rivaliserende militære grupper i den libyske borgerkrigen.
Skal ha jaget soldat under retrett
I løpet av konflikten opererte flere droner i en fullt autonom tilstand med «høy effektivitet» som ikke krever noen menneskelig kontroll, ifølge FN-rapporten, der det blant annet står:
"De dødelige autonome våpensystemene ble programmert til å angripe mål uten å kreve en dataforbindelse mellom operatøren og våpnene: I virkeligheten er det en 'skyt, glem og finn'-evne.»
Ifølge New Scientist antyder FN-rapporten at en av dronene jaget en soldat under retrett.
Usikkerhet om feilmargin
Dette er trolig første gang en drone angriper mennesker uten å bli bedt om det, ifølge FN-rapporten. Det samme sier sikkerhetsekspert Zak Kellenborn, som spesialiserer seg på ubemannede våpensystemer og droner, til New Scientist. Han stiller spørsmålene:
– Hvor skjørt er systemet for objektgjenkjenning? Hvor ofte tar det feil av mål?
Hendelsen viser at det er et «presserende og viktig» behov for å diskutere en potensiell regulering av autonome våpen, sier sikkerhetsekspert Jack Watling i den britiske tenketanken om forsvar og sikkerhet, Royal United Services Institute (RUSI), til New Scientist.
Ønsker internasjonalt forbud mot «drapsroboter»
Med kampanjen «Stop Killer Robots» advarte organisasjonen Human Rights Watch i august om at autonome «drapsroboter» med kunstig intelligens utgjør en trussel mot sivilisasjonen vår.
– Å fjerne menneskelig kontroll fra bruk av makt blir nå sett på som en alvorlig trussel mot menneskeheten som, i likhet med klimaendringer, fortjener multilateral handling, sa kampanjekoordinator Mary Wareham.
– En internasjonal forbudstraktat er den eneste effektive måten å takle de alvorlige utfordringene som fullt autonome våpen byr på, sa hun i forbindelse med utgivelsen av en rapport som gjennomgikk 97 lands holdning til spørsmålet om våpensystemer som kan angripe uten menneskelig kontroll.
Ifølge rapporten ønsker 30 land å forby fullt autonome våpensystemer.
Denne artikkelen ble først publisert på Ingeniøren.