Autonome våben skal reguleres, så de kommer under menneskelig kontrol.
Autonome våben, der ikke er under menneskelig kontrol eller har mennesker som mål, skal forbydes.
Sådan lyder opfordringen til udenrigsminister Lars Løkke Rasmussen fra 20 danske forskere i kunstig intelligens.
Forskerne har skrevet et brev til Løkke for at opfordre ham og resten af regeringen til at arbejde for et forbud af de kontroversielle våben.
Forskerne er nemlig dybt bekymrede over udviklingen.
– Udviklingen inden for kunstig intelligens og autonome våben går stærkt i disse år, fortæller Alexander Nedergaard til Arbejderen.
Han er initiativtager til forskernes åbne brev og forsker til daglig i kunstig intelligens og læringsprocesser på ETH Universitet i Zürich, Schweiz.
Ny teknologi – en effektiv dræber
Autonome våben er maskiner eller robotter, der – uden menneskelig indblanding og godkendelse – ved hjælp af algoritmer og koder kan handle autonomt og selv udvælge og angribe mål.
Den teknologiske udvikling betyder, at militære våben bliver bedre og bedre til at registrere deres omgivelser og til at handle uden menneskelig indblanding.
Eksempelvis er droner, som er udstyret med kameraer og sensorer, allerede i dag i stand til at optage og gemme optagelser fra eksempelvis slagmarken og lære af disse optagelser.
Teknologi som eksempelvis ansigtsgenkendelse og gps-styring kan gøre en drone til en effektiv dræber, hvis den bliver udstyret med en bombe.
– En drone udstyret med kunstig intelligens som ansigtsgenkendelse vil selv være i stand til at opsøge og angribe et konkret mål, forklarer Alexander Nedergaard.
En forudprogrammeret, autonom drone har ikke den samme bremse, som et menneske, der står over for et andet menneske, har. En bevæbnet drone er designet til at tage liv.
Alexander Nedergaard, forsker i kunstig intelligens på ETH Universitet i Zürich, Schweiz
Teknologi kombineret med dødbringende våben åbner skræmmende perspektiver.
– Man kan lære en bevæbnet drone, hvordan en fjende ser ud – eksempelvis ved hjælp af en forudproduceret algoritme, der definerer, hvilke ansigtstræk, hvilken hudfarve eller hvilken uniform fjenden har. Det åbner op for eksempelvis etnisk udrensning, hvis droner udstyret med kunstig intelligens i forhold til bestemte ansigtstræk eller hudfarve bliver sendt på dræbermissioner, advarer Alexander Nedergaard.
– Man kan også forestille sig, at eksempelvis droner eller andre automatiserede våbensystemer i fremtiden vil blive designet til at bekæmpe oprør eller interne uroligheder. Man kan for eksempel frygte, at en fremtidig drone vil blive programmeret til at give tre advarsler om at “forlade området” – og hvis det ikke sker, skal den åbne ild.
Han uddyber:
– De autonome våben blive mere og mere avancerede. Jeg og andre forskere frygter, at der i løbet af få år vil være udviklet og produceret autonome våben, der selv kan udvælge og angribe mål. Vi frygter, at beslutningen om at tage menneskeliv vil blive reduceret til tal og algoritmer.
– Det er allerede i dag teknisk muligt at bygge en drone med ansigtsgenkendelse og udstyre den med sprængstof. Jeg er ikke i tvivl om, at der allerede bliver forsket i de her teknologier i laboratorier og testsites hos våbenfirmaer rundt om i verden.
Trak video tilbage
Det kontroversielle israelske våbenfirma Elbit Systems har udviklet en bevæbnet, halvautonom kampdrone kaldet Lanius, som er udstyret med gps og kunstig intelligens, der gør den i stand til at “opsøge og angribe” mål.
Elbit Systems lagde endda en video af dronens dødbringende egenskaber ud på YouTube. Våbenfirmaet fik dog senere kolde fødder og slettede videoen.
Men inden Elbit Systems slettede videoen af sin dræberdrone, nåede Alexander Nedergaard at gemme den. Han har nu lagt den på YouTube for at dokumentere, hvor langt verdens våbenfirmaer er i at udvikle bevæbnede droner med kunstig intelligens.
I videoen kan man se, hvordan dronen dræber flere menneske i et beboet område.
Elbit Systems beretter i videoen begejstret om, hvordan dronens kameraer, sensorer og gps er i stand til at scanne og kortlægge fjender i komplekse byområder.
Dronens kunstige intelligens gør den i stand til at navigere i bygninger, scanne bygninger, identificere åbne og lukkede døre og vinduer, identificere objekter og opdage “fjender”. Den kan også ligge på lur og foretage et bagholdsangreb.
På videoen ser man dog, at dronens bombe først sprænger i luften, når et menneske trykker på en knap.
Men hvis der ikke bliver grebet ind mod udviklingen af de autonome droner med kunstig intelligens, er det kun et spørgsmål om tid, før dronerne selv kan flyve ud og dræbe deres mål, når de er fundet – uden menneskelig indgriben, advarer Alexander Nedergaard.
– Det kræver kun nogle få kodelinjer at instruere dronen i, hvilke mennesker den skal flyve ud og finde og angribe. Det betyder, at når først dronen er sendt afsted med en ordre om at angribe, så er det ikke længere et menneske, der træffer beslutningen om liv og død, påpeger forskeren.
– En forudprogrammeret, autonom drone har ikke den samme bremse, som et menneske, der står over for et andet menneske, har. En bevæbnet drone er designet til at tage liv. Den har ikke en stopklods, men reagerer helt automatisk ud fra iskolde input fra kameraer og sensorer og algoritmer, ansigtsgenkendelse og gps-koordinater. Men hvis andre mennesker – soldater – skal handle eller udføre en ordre, så nedsætter det grænsen for vold, fordi det i bund og grund strider imod vores natur.
FN: Bevæbnet drone udvalgte selv mål
I 2021 advarede FN i en rapport om, at en bevæbnet, autonom drone – uden menneskelig kontrol – for første gang kan være brugt i en konflikt.
Dronen, som i rapporten beskrives som “et dødbringende autonomt våbensystem”, var drevet af kunstig intelligens og blev brugt af regeringsstøttede styrker i Libyens hovedstad Tripoli mod oprørere.
Ifølge FN-rapporten blev oprørerne “jagtet af droner eller dødbringende autonome våbensystemer”.
Rapporten nævner den autonome tyrkiske angrebsdrone KARGU som en konkret mulighed på en drone, der kan have angrebet oprørerne.
Rapporten konstaterer endvidere, at de autonome våben “var programmeret til at angribe mål uden at kræve dataforbindelse mellem operatøren og ammunitionen”.
Derfor haster det med at få indført et internationalt forbud, mener de danske forskere i kunstig intelligens.
“Der er påtrængende brug for en juridisk bindende international aftale om regulering af autonome våben… Vi opfordrer på det stærkeste den danske regering til at udvikle en national politik på området og støtte op om internationale forhandlinger med mål om en juridisk bindende international aftale”, skriver forskerne i deres brev til udenrigsminister Lars Løkke Rasmussen.
Etiske og juridiske problemstillinger står i kø
Udviklingen af autonome våben rejser en række etiske og juridiske problemer.
– Kunstig intelligens reducerer menneskeliv til en algoritme. Skal vi lade maskiner beslutte, om et menneske skal leve eller dø? Kunstig intelligens muliggør udvikling af militært udstyr som eksempelvis droner, der betyder, at beslutninger om liv eller død bliver taget af algoritmer, ansigtsgenkendelse eller af operatører langt fra slagmarken. Det gør det nemmere at tage et menneskeliv. Hvis du står over for et andet menneske, så tænker du dig om to gange, før du dræber. Det gør mere eller mindre autonome våben ikke, konstaterer Alexander Nedergaard.
De autonome våben rejser også en række juridiske spørgsmål i forhold til den humanitære folkeret, der stiller en række krav til, hvordan stater skal agere i krig.
– Verdens lande er blevet enige om en række regler, der skal overholdes i krig. Disse regler sikrer eksempelvis, at soldater og deres overordnede kan retsforfølges, hvis de begår krigsforbrydelser som eksempelvis drab på civile, beretter Alexander Nedergaard.
Men hvad hvis krigsforbrydelsen bliver begået af et autonomt våben, spørger forskeren.
– Hvem skal så stilles til ansvar? Er det dem, der har udviklet våbnet? Dem der har bygget det? Dem, der har leveret softwaren eller delene? Dem, der sendte våbnet afsted på mission?
Den unge forsker frygter, at det vil blive endnu sværere at retsforfølge krigsforbrydelser, end det er i dag.
– Allerede i dag ser vi, at stater ikke tager ansvar for deres krigsforbrydelser. Med autonome våben får staterne endnu et røgslør, de kan gemme sig bag. Med udviklingen af autonome våben kan staterne sige: “Det er ikke os, der er ansvarlige. Det er dem, der udviklede dronen. Det må være en teknisk fejl”. På den måde kan staterne bruge de autonome våben til at benægte deres ansvar for krigsforbrydelser, advarer Alexander Nedergaard.
Øget brug af autonome våben i krig
Autonome våben bliver i stadigt stigende omfang brugt i krige og konflikter.
I de seneste år er autonome våben, især droner, blevet brugt i militære konflikter i eksempelvis Nagorno-Karabakh, Yemen, Syrien, Libyen og Ukraine.
En af de droner, der bliver brugt, er den bevæbnede TB2-drone, der bliver produceret af det tyrkiske våbenfirma Bayraktar. Den er udstyret med kunstig intelligens og automatiserede læringssystemer, der gør dem i stand til konstant at blive klogere.
I sidste måned gennemførte det tyrkiske våbenfirma en test med et “mini-intelligent missil” med kunstig intelligens og autopilot system. Missilet kan flyve af sig selv i op til en time.
Også en anden bevæbnet drone – KARGU – der er udviklet af det tyrkiske våbenfirma STM, bliver ivrigt brugt i krige og konflikter rundt om i verden.
I en PR-video reklamerer det tyrkiske våbenfirma med, at deres KARGU-drone har “automatisk målsøgning og sporing”, og at dronen kan angribe mennesker med ammunition, der sprænger i flere hundrede små stykker, så de gør maksimal skade.
KARGU-dronen er en af de mest autonome droner i verden.
Den er blandt andet i stand til at flyve en rute og bruge deep learning-algoritmer hele tiden for selv at blive klogere og til at lokalisere, spore og identificere mål uden menneskelig hjælp.
Ifølge direktøren bag våbenfirmaet, der producerer KARGU-dronen, har den avancerede drone ansigtsgenkendelse – hvilket gør den i stand til at spore og angribe specifikke personer og dræbe dem.
Noget tyder på, at dele af industrien godt er klar over, at det kan have store konsekvenser at udvikle våben, der selv kan opsøge og dræbe mål ud fra forudproducerede algoritmer:
Sidste år offentliggjorde seks robotvirksomheder et åbent brev, hvor de advarer om, at “tilførsel af våben til robotter, der er fjernstyrede eller autonome”, rejser “nye risici for skade og alvorlige etiske spørgsmål”.
“Vi lover, at vi ikke vil gøre vores avancerede, mobile robotter til generelle formål eller den software, vi udvikler til at muliggøre avanceret robotteknologi, til våben, og vi vil ikke støtte andre i at gøre det”.
Robotvirksomhederne lover også at screene deres kunder for at undgå, at de bevæbner de robotter, de køber.
EU og NATO forsker i autonome våbensystemer
Militære stormagter investerer i disse år milliarder i at udvikle autonome våbensystemer.
EU har afsat millioner af støttekroner til, at våbenindustrien kan udvikle autonome våbensystemer, der bygger på kunstig intelligens.
EU-projekterne bliver afsløret i rapporten Kunstig Intelligens i EU’s Forsvar, som venstrefløjsgruppen GUE/NGL i EU-parlamentet har udgivet i samarbejde med det tyske parti Die Linke.
EU har blandt andet afsat 3,2 millioner kroner til projekt “SPIDER”, hvor våbenindustrien i samarbejde med it-virksomheder forsker i, hvordan kunstig intelligens kan bruges til krigsførelse i byområder.
EU har også afsat 750 millioner kroner til, at våbenfirmaerne Airbus, Dassault og Leonardo kan udvikle en bevæbnet autonom drone, “Eurodrone”.
Dronen skal udstyres med missiler og skal selvstændigt kunne opspore og foreslå mål.
EU-dronen skal – selv over store afstande – på meget kort tid kunne affyre missiler mod mål. Med den slags kunstig intelligens kan angreb rettes på slagmarken næsten øjeblikkeligt, konstaterer rapporten.
Selvom det stadig er op til et menneske at give ordren om at angribe et mål, så vil der ligge et stort pres på den ansvarlige militære befalingsmand for at tage hurtige beslutninger, forudser rapporten.
Også NATO støtter forskning og udvikling i autonome våbensystemer og har vedtaget en strategi for kunstig intelligens.
Offentligheden må kun få indsigt i de overordnede principper i strategien, der blandt andet slår fast, at NATO vil “tilskynde til udvikling og brug af kunstig intelligens” og “fremskynde og mainstreame anvendelsen af kunstig intelligens i kapacitetsudvikling og -levering og forbedre interoperabiliteten inden for alliancen, herunder brug af kunstig intelligens i nye strukturer og nye programmer”.
Den samlede strategi er hemmelig, oplyser NATO’s presseenhed til Arbejderen.
FN kan ikke nå til enighed
FN forsøger i øjeblikket at nå til enighed om at regulere om dødbringende autonome våben. FN’s arbejde foregår i rammen af Konventionen for Særligt Skadevoldende Konventionelle Våben (CCW), hvor der flere gange årligt afholdes ekspertmøder.
Siden 2013 har det internationale samfund overvejet mulighederne for at regulere eller forbyde såkaldte autonome våbensystemer inden for rammerne af FN.
Alexander Nedergaard har deltaget som observatør på FN-møderne, hvor landene skal forsøge at nå til enighed om at regulere de dødbringende våben.
Indtil videre er det ikke lykkedes at blive enige om at regulere de autonome våben – især fordi militære stormagter som USA og Rusland stritter imod.
Så længe der ikke findes internationale regler for, hvordan kunstig intelligens må bruges i militært udstyr som eksempelvis droner, risikerer forskning og udvikling i kunstig intelligens inden for våbenindustrien at fortsætte derudad. Og så bliver det den uendelige teknologiske udvikling og ikke etik og international ret, der ender med at sætte grænserne, advarer Alexander Nedergaard.
Og han står ikke alene:
Internationalt Røde Kors opfordrer verdens ledere til at vedtage et sæt internationale spilleregler, der begrænser udviklingen og brugen af autonome våben samt et forbud mod visse typer af autonome våben.
Også det internationale netværk Stop Killer Robots – der består af blandt andre Amnesty International og en lang række andre menneskerets- og humanitære organisationer – kæmper for forbud mod autonome dræberrobotter som eksempelvis bevæbnede droner med kunstig intelligens.
Kampagnen står bag dokumentarfilmen Immoral Code om autonome våbensystemer og udfordringerne med at lade teknologi, algoritmer, ansigtsgenkendelse råde over liv og død.
Udenrigsministeren: Ingen kommentarer
Danmark har i øjeblikket ikke en strategi eller en formel stillingtagen til autonome våben. Men via NATO er Danmark involveret i krige og konflikter rundt om i verden, hvor autonome våben med kunstig intelligens bliver anvendt af vores allierede.
Arbejderen har forgæves forsøgt at få udenrigsminister Lars Løkke Rasmussen til at forholde sig til forskernes krav om regulering og forbud mod autonome bevæbnede droner.
Men ministeren har ingen kommentarer, oplyser Udenrigsministeriet til Arbejderen.
Det koster penge at lave progressiv journalistik. Kun med din støtte kan Arbejderen fortsat udgive frit tilgængeligt journalistisk indhold af høj kvalitet.