I filmen War Games fra 1983 er en supercomputer kaldet WOPR (for War Operation Plan Response) ved at provokere en atomkrig mellem USA og Sovjetunionen, men takket være en teenagers opfindsomhed (spillet af Matthew Broderick) undgås katastrofen.
I den første Terminator-film, der udkom et år senere, beslutter en supercomputer ved navn »Skynet« at udrydde menneskeheden, fordi den opfatter den som en trussel mod sin eksistens, frem for at beskytte de amerikanske atomvåben.
Selvom disse film præsenterer publikum for dystre scenarier med intelligente maskiner, der går amok, var de også profetiske. Kunstig intelligens (AI) er så almindelig, at den rutinemæssigt anvendes ved en simpel Google-søgning.
At den også integreres i militære strategier er næppe nogen overraskelse. Problemet er bare, at vi har meget lidt forståelse for disse højteknologiske våbens kapacitet (både dem, der allerede er klar til brug, og dem, der er under udvikling). Vi er heller ikke forberedte på systemer, der har kapacitet til at ændre krigsførelsen for altid.
Gennem historien er det menneskelig intelligens, der bruger teknologien, ikke teknologien i sig selv, der har vundet eller tabt krige. Det kan ændre sig i fremtiden, når menneskelig intelligens i stedet fokuserer på at skabe systemer, der er mere effektive på slagmarken end fjendens.
En »eksponentiel, uovervindelig overraskelse«
Kunstig intelligens er ikke en teknologi, der let kan opdages, overvåges eller forbydes, som Amir Husain, grundlægger og CEO af AI-virksomheden SparkCognition, påpegede i en artikel for Media News.
Integration af AI-elementer – visuel genkendelse, sproganalyse, simulationsbaseret forudsigelse og avancerede søgefunktioner – med eksisterende teknologier og platforme »kan hurtigt give helt nye og uforudsete muligheder.« Resultatet »kan skabe eksponentiel, uovervindelig overraskelse,« skriver Hussain.
Avanceret teknologi i krigsførelse er allerede udbredt. Brugen af ubemandede luftfartøjer (UAV’er) – almindeligvis kendt som droner – i militære sammenhænge har udløst advarsler om “dræberrobotter”.
Hvad sker der, når droner ikke længere styres af mennesker og kan udføre militære missioner på egen hånd? Disse droner er ikke begrænset til luften; de kan også operere på jorden eller under vand. Indførelsen af AI, der effektivt giver disse våben autonomi, er ikke langt væk.
Siden den russiske invasion, der blev indledt i 2022, er Ukraine blevet et testområde for AI i krigsførelse.
Desuden er de billige at producere og billige at købe. Russerne køber droner fra Iran til brug i deres krig i Ukraine, og ukrainerne har opbygget en hjemmearbejdsindustri, der konstruerer deres egne droner mod russerne. Den relative lethed, hvormed en kommerciel drone kan omdannes til en drone med militær anvendelse, udvisker også grænsen mellem kommercielle og militære virksomheder. På dette tidspunkt er det dog stadig mennesker, der har kontrollen.
Et lignende problem kan ses i informationsindsamlingssystemer, der har dobbelt anvendelse, herunder satellitter, bemandede og ubemandede fly, jord- og undervandsradarer og sensorer, som alle har både kommercielle og militære anvendelser.
AI kan behandle enorme mængder data fra alle disse systemer og derefter skelne meningsfulde mønstre og identificere ændringer, som mennesker måske aldrig ville bemærke.
USA’s militær blev i nogen grad bremset i krigene i Irak og Afghanistan, fordi de ikke kunne behandle store mængder data. Selv i dag bruger fjernstyrede UAV’er AI til autonom start, landing og rutineflyvning.
Det eneste, der er tilbage for de menneskelige operatører, er at koncentrere sig om taktiske beslutninger, såsom at vælge angrebsmål og udføre angreb.
AI gør det også muligt for disse systemer at operere hurtigt og træffe beslutninger med en hastighed, der sjældent er mulig, hvis mennesker er en del af beslutningsprocessen.
Indtil nu har beslutningshastighed været det vigtigste aspekt af krigsførelse. Hvis AI-systemer imidlertid kommer i direkte konkurrence med mennesker, vil AI altid vinde.
Muligheden for, at AI-systemer eliminerer den menneskelige faktor, skræmmer imidlertid mennesker, der ikke ønsker at se et apokalyptisk scenarie fra filmens verden blive til virkelighed.
Automatiseret kontra autonom
Der skal skelnes mellem begreberne »autonom« og »automatiseret«. Hvis vi styrer dronen, er dronen automatiseret. Men hvis dronen er programmeret til at handle på egen hånd, vil vi sige, at den er autonom.
Men er det autonome våben en beskrivelse af det faktiske våben – det vil sige et missil på en drone – eller selve dronen? Tag for eksempel den militære UAV(drone) Global Hawk. Den er automatiseret i den forstand, at den styres af en operatør på jorden, men hvis den mister forbindelsen til jorden, kan Golden Hawk lande på egen hånd. Gør det den automatiseret eller autonom? Eller er den begge dele?
Det vigtigste spørgsmål er, om systemet er sikkerhedskritisk. Det betyder, om det har beslutningskapacitet til at bruge et våben mod et mål uden indgriben fra en menneskelig operatør.
Det er for eksempel muligt for en drone at angribe et statisk militært mål på egen hånd (for eksempel en fjendtlig militærbase), men ikke et menneskeligt mål, fordi man frygter, at uskyldige civile kan blive såret eller dræbt som følge af kollaterale skader.
Mange lande har allerede udviklet droner med realtidsbilleder, der kan handle autonomt i førstnævnte tilfælde, men ikke når det gælder menneskelige mål.
Droner er ikke de eneste våben, der kan handle autonomt. USA, Kina og flere lande i Europa er i gang med at udvikle militære systemer, der kan handle autonomt i luften, på jorden, i vandet og under vandet med varierende succes.
Flere typer autonome helikoptere, der er designet, så en soldat kan styre dem i felten med en smartphone, er under udvikling i USA, Europa og Kina.
Der udvikles også autonome landkøretøjer, såsom kampvogne og transportkøretøjer, samt autonome undervandsfartøjer. I næsten alle tilfælde kæmper de agenturer, der udvikler disse teknologier, imidlertid med at tage springet fra udvikling til operationel implementering.
Der er mange årsager til den manglende succes med at gøre disse teknologier operationelle, herunder omkostninger og uforudsete tekniske problemer, men lige så problematiske er organisatoriske og kulturelle barrierer.
USA har for eksempel haft svært ved at bringe autonome UAV’er i operationel status, primært på grund af organisatoriske stridigheder og prioritering af bemandede fly.
Fremtidens soldat
På fremtidens slagmark vil elitesoldater muligvis være afhængige af et head-up display, der forsyner dem med en masse information, der indsamles og sendes via supercomputere i deres rygsække ved hjælp af AI. Med AI analyseres dataene øjeblikkeligt, strømlines og sendes tilbage til head-up-displayet.
Dette er et af mange mulige scenarier, der er præsenteret af embedsmænd i USA’s forsvarsministerium. Pentagon har taget et relativt simpelt koncept til sig: den “hyper-enabled operator.”
Målet med dette koncept er at give specialstyrkerne “kognitiv overlegenhed” på slagmarken, eller “evnen til at dominere situationen ved at træffe informerede beslutninger hurtigere end modstanderen.” Med andre ord vil de være i stand til at træffe beslutninger på baggrund af de oplysninger, de modtager, hurtigere end deres fjender.
Beslutningsmodellen for militæret kaldes »OODA-loop« for »observe, orient, decide, act« (observere, orientere, beslutte, handle). Det vil ske ved hjælp af computere, der registrerer alle relevante data og destillerer dem til handlingsbar information gennem en enkel grænseflade som et head-up-display.
Dette display vil også tilbyde et “visuelt miljøoversættelsessystem“, der er designet til at konvertere fremmedsproglige input til klart engelsk i realtid. Systemet, der kaldes VITA, omfatter både visuel militær oversættelse og stemme-til-stemme-oversættelse. Oversættelsesmotoren vil give operatøren mulighed for at “føre effektive samtaler, hvor det tidligere var umuligt”.
VITA, der står for Versatile Intelligent Translation Assistant, tilbyder brugerne sprogfunktioner på russisk, ukrainsk og kinesisk, herunder mandarin, en kinesisk dialekt. Operatører kan for eksempel bruge deres smartphones til at scanne en gade i et fremmed land og straks få en oversættelse af vejskilte i realtid.
Fjendtlige AI-systemer
Militæreksperter opdeler fjendtlige angreb i fire kategorier: undvigelse, inferens, forsøg på at forvirre og datatyveri. Disse typer angreb er lette at udføre og kræver ofte ikke computerfærdigheder.
En fjende, der udfører undvigelsesangreb, kan forsøge at vildlede et AI-våben for at undgå at blive opdaget – for eksempel ved at skjule et cyberangreb eller overbevise en sensor om, at en tank er en skolebus. Dette kan kræve udvikling af en ny type AI-camouflage, såsom strategisk placering af tape, der kan narre AI.
Inferensangreb forekommer, når en fjende erhverver oplysninger om et AI-system, der muliggør undvigelsesteknikker. Forvirringsangreb er rettet mod AI-systemer under træning og forstyrrer adgangen til de datasæt, der bruges til at træne militære værktøjer – for eksempel ved at mærke billeder af køretøjer forkert for at narre målsøgningssystemer eller manipulere vedligeholdelsesdata, der er designet til at klassificere forestående systemfejl som normal drift.
Datatyveriangreb udnytter adgangen til AI’ens grænseflade til at lære nok om AI’ens funktion til at skabe en parallel model af systemet. Hvis AI-systemer ikke er sikre mod uautoriserede brugere, kan en fjendes brugere forudsige de beslutninger, der træffes af disse systemer, og bruge disse forudsigelser til deres fordel. De kan for eksempel forudsige, hvordan et AI-styret ubemandet system vil reagere på specifikke visuelle og elektromagnetiske stimuli, og derefter ændre dets rute og adfærd.
Vildledende angreb er blevet stadig mere almindelige, som illustreret af sager, der involverer billedklassificeringsalgoritmer, der vildledes til at opfatte billeder, der ikke er der, forvirrer betydningen af billeder og forveksler for eksempel en skildpadde med et gevær.
Tilsvarende kan autonome køretøjer blive tvunget til at svinge ind i den forkerte bane eller køre for hurtigt forbi et stopskilt.
I 2019 annoncerede Kina en ny militærstrategi, Intelligentized Warfare, der gør brug af AI. Kinesiske embedsmænd fra Folkets Befrielseshær har udtalt, at deres styrker kan overhale det amerikanske militær ved hjælp af AI.
En af intentionerne er at bruge denne højteknologiske form for krigsførelse til at bringe Taiwan under sin kontrol uden at føre konventionel krig. Imidlertid har kun få af de mange kinesiske undersøgelser af intelligent krigsførelse fokuseret på at erstatte våben med AI. På den anden side har kinesiske strateger ikke lagt skjul på deres intention om at kontrollere fjendens vilje direkte.
Det vil omfatte USA’s præsident, medlemmer af Kongressen, militærchefer og borgere. “Intelligensdominans” – også kendt som kognitiv krigsførelse eller “kontrol af hjernen” – ses som den nye slagmark i intelligent krigsførelse, hvor AI anvendes på en helt anden måde, end de fleste amerikanske og allierede diskussioner har forestillet sig.
Det kan have dybtgående konsekvenser for anvendelsen af AI-våben, der fungerer med dybt fejlbehæftede instruktioner, som ikke kan opdages af menneskelige operatører.
Ifølge Pentagons rapport fra 2022 om den kinesiske militære udvikling bliver Folkets Befrielseshær trænet og udstyret til at bruge AI-aktiverede sensorer og computernetværk til “hurtigt at identificere nøglesårbarheder i det amerikanske operative system og derefter kombinere fælles styrker på tværs af domæner for at iværksætte præcisionsangreb mod disse sårbarheder.”
At kontrollere en fjendes sind kan ikke kun påvirke en persons opfattelse af omgivelserne, men i sidste ende også hans eller hendes beslutninger. For Folkets Befrielseshær er kognitiv krigsførelse ligestillet med de andre konfliktområder, som er luft, land og hav. I den henseende betragtes sociale medier som en vigtig slagmark.
Rusland har også udviklet sin egen AI-kapacitet. Allerede i 2014 indviede russerne et Nationalt Forsvarscenter i Moskva, en central kommandopost til vurdering af og reaktion på globale trusler. Centret blev designet til at indsamle oplysninger om fjendens bevægelser fra flere kilder og give højtstående officerer vejledning om mulige reaktioner.
Rusland har erklæret, at det i sidste ende vil udvikle et AI-system, der er i stand til at styre verden. Russerne bruger allerede AI i Ukraine til at forstyrre de trådløse signaler, der forbinder ukrainske droner med de satellitter, de er afhængige af til navigation, hvilket får maskinerne til at miste orienteringen og styrte ned på jorden.
Det russiske forsvarsministerium (MOD) har undersøgt mulighederne for at udvikle AI-systemer til ubemandede systemer til luft-, sø- og landområder. Samtidig er den officielle politik, i hvert fald på kort sigt, baseret på den overbevisning, at mennesker skal forblive solidt forankret i kredsløbet.
I mellemtiden forsøger russerne at forbedre UAV-kapaciteterne med AI som mekanisme til kommando, kontrol og kommunikation. MOD lægger også vægt på brugen af AI til dataindsamling og -analyse som en naturlig udvikling fra den nuværende “digitale” kampteknologi og systemudvikling.
“Raven Sentry”: AI i den amerikanske krig i Afghanistan
USA’s efterretningstjenestes brug af AI på slagmarken var kortvarig, men viste lovende resultater. “Raven Sentry”, et AI-værktøj lanceret i 2019 af et team af amerikanske efterretningsofficerer (kendt som “nerd locker”) med hjælp fra Silicon Valley-ekspertise, havde til formål at forudsige oprøreres angreb.
Den første anvendelse af AI kom på et tidspunkt, hvor amerikanske baser blev lukket, troppestyrken blev reduceret, og efterretningsressourcerne blev omdirigeret. Raven Sentry var baseret på open source-data.
“Vi så en mulighed i det stigende antal kommercielle satellitter og tilgængeligheden af nyhedsrapporter på internettet, spredningen af indlæg på sociale medier og meddelelses-apps med et enormt antal medlemmer,” siger oberst Thomas Spahr, stabschef for efterretningsmissionen Resolute Support J2 i Kabul, Afghanistan, fra juli 2019 til juli 2020.
AI-værktøjet trak også på historiske mønstre baseret på oprørernes aktiviteter i Afghanistan gennem de sidste 40 år, herunder den sovjetiske besættelse af landet i 1980’erne. Der blev også taget højde for miljømæssige faktorer.
“Historisk set angriber oprørere for eksempel på bestemte dage af året eller helligdage eller under bestemte vejr- og lysforhold,” bemærker Spahr. Han tilføjer: “Det smarte ved AI er, at den løbende opdaterer denne skabelon. Maskinen lærer, efterhånden som den absorberer flere data.”
Inden Raven Sentry blev nedlagt i 2021 (i forbindelse med USA’s tilbagetrækning fra Afghanistan), havde den bevist sin brugbarhed ved at forudsige et angreb fra oprørere med 70 procent nøjagtighed.
AI-værktøjet forudsagde, at angreb var sandsynligt, når temperaturen var over fire grader Celsius (eller 39,2 grader Fahrenheit), når månebelysningen var under 30 procent, og når der ikke var regn. Spahr var tilfreds med resultaterne: “Vi bekræftede, at kommercielt producerede, uklassificerede oplysninger kan give brugbar efterretningsinformation.”
Ukraine som testområde for AI
Siden den russiske invasion, der blev indledt i 2022, er Ukraine blevet et testområde for AI i krigsførelse.
De ukrainske styrker, der er underlegne i både våben og mandskab, har tyet til improvisation og sammenkoblet standardudstyr til at omdanne det til dødbringende autonome våben. Også de russiske angribere har anvendt AI til at gennemføre cyberangreb og GPS-forstyrrende systemer.
Ukraines Saker Scout-quadcopters “kan finde, identificere og angribe 64 typer russiske ‘militære objekter’ på egen hånd.”
Disse droner er designet til at operere autonomt, og i modsætning til andre droner, som de ukrainske styrker har indsat, kan Rusland ikke forstyrre dem.
Ved hjælp af kode fundet online og hobbycomputere som Raspberry Pi, der let kan købes i butikker, er ukrainerne i stand til at konstruere innovative dræberrobotter.
Ud over droner, der kan betjenes med en smartphone, har ukrainerne bygget et kanontårn med autonom målsøgning, der betjenes med den samme controller, som bruges til en PlayStation eller en tablet.
Kanonen, der kaldes Wolly, fordi den ligner Pixar-robotten WALL-E, kan automatisk låse sig fast på et mål op til 1000 meter væk og skifte mellem forprogrammerede positioner for hurtigt at dække et stort område.
Producenten er også i gang med at udvikle et våben, der kan ramme bevægelige mål. Det kan automatisk identificere mål, når de kommer over horisonten. Våbnet sigter og skyder automatisk; det eneste, operatøren skal gøre, er at trykke på knappen og skyde.
Mange ukrainske droner, der ligner dem, man kan finde i Walmart, kaldes First Person View (FPV)-droner. FPV-droner kan flyve 160 kilometer i timen og har fire propeller og et monteret kamera, der bruger trådløs teknologi til at sende optagelser af deres flyvninger tilbage til operatørerne.
Med en bombe om bord kan en FPV omdannes til et våben, der kan ødelægge en tank. De er også billige; en producent, Vyriy, tager 400 dollar stykket, hvilket er en lille pris at betale for at ødelægge en tank til en værdi af millioner af dollars.Navnet Vyriy stammer fra et mytisk land i slaviske folkeeventyr.
Hvis én kamikaze-drone er god, er dusinvis af dem bedre, for jo flere der er, jo større er chancen for, at flere når deres mål.
I naturen opfører en myrekoloni sig som en enkelt levende organisme, uanset om opgaven er at samle mad eller bygge rede. På samme måde kan en sværm af autonome droner fungere som en enkelt organisme – uden behov for mennesker – og udføre en mission, uanset hvor mange der bliver sat ud af spillet eller styrter til jorden, eller om kommunikationen fra jorden bliver afbrudt eller lukket ned.
Selvom mennesker stadig er med i “loopet”, kunne disse våben lige så godt gøres fuldstændig autonome. Med andre ord kunne de beslutte, hvilke mål de skulle angribe uden menneskelig indgriben.
Ukraines anvendelse af AI-våben er ikke noget, der er sket uden teknologisk erfaring. Ifølge New York Times-journalisten Paul Mozer har Ukraine “i lang tid været en slags bagkontor for den globale teknologiindustri.”
Landet havde allerede en betydelig pulje af programmører og dygtige eksperter, der under ekstraordinære omstændigheder var i stand til at skifte fra civile anvendelser (såsom en datingapp) til militære formål.
Som Mozer rapporterede: “Det, de gør, er at tage eksisterende grundlæggende” kodning, kombinere den med nogle nye data fra krigen og omdanne den til noget helt andet, nemlig et våben.”
Virkeligheden er, at “der sker en masse seje, spændende ting i de store forsvarsvirksomheder,” siger P.W. Singer, en forfatter, der skriver om krig og teknologi. “Der sker en masse seje, spændende ting i de store tech-virksomheder i Silicon Valley. Der sker en masse seje, spændende ting i små startups.”
En af disse mindre startups er Anduril. Efter at have solgt det populære virtual reality-headset Oculus til Facebook (nu Meta) grundlagde Palmer Luckey, en iværksætter i begyndelsen af trediverne, et AI-våbenfirma, der leverer droner til Ukraine.
“Ukraine er et meget udfordrende miljø at lære i,” siger han. “Jeg har hørt forskellige estimater fra ukrainerne selv om, at en given drone typisk har en levetid på omkring fire uger. Spørgsmålet er: “Kan man reagere og tilpasse sig?” Anduril, der er opkaldt efter et sværd i Ringenes Herre, har solgt sine enheder til ti lande, herunder USA.
“Jeg var overbevist om, at de store våbenproducenter ikke havde de rette talenter eller den rette incitamentsstruktur til at investere i ting som kunstig intelligens, autonomi og robotteknologi,” siger Luckey.
Hans virksomheds drone, kaldet ALTIUS, er beregnet til at blive affyret fra et rør og folde sig ud, udbrede sine vinger og hale og derefter styres med en propel, hvor den fungerer som et fly, der kan bære en 30 punds sprænghoved. Luckey mener, at hans tilgang vil resultere i, at der bliver bygget flere AI-våben på kortere tid og til en lavere pris, end det kunne opnås af traditionelle våbenproducenter som McDonnell Douglas.
Anduril, der blev grundlagt i 2017, udvikler også Dive-LD, en drone, der skal bruges til undersøgelser i kystnære og dybe farvande. “Det er et autonomt undervandsfartøj, der kan tilbagelægge meget, meget lange afstande og dykke ned til en dybde på omkring 6000 meter (næsten 20.000 fod), hvilket er dybt nok til at nå bunden af næsten alle oceaner,” siger Luckey.
Ukraine er allerede i gang med at fremstille sine egne havdroner – i alt væsentligt jetski fyldt med sprængstoffer – som har påført den russiske flåde alvorlige skader i Sortehavet.
Som Andurils CEO Brian Schimpf indrømmer, har introduktionen af Andurils droner i Ukraine endnu ikke givet nogen nævneværdige resultater, men han tror, at det vil ændre sig. Når de er lanceret, vil disse droner ikke kræve styring fra en operatør på jorden, hvilket gør det vanskeligt for russerne at ødelægge eller deaktivere dem ved at forstyrre deres signaler.
“Det er autonomien om bord, der virkelig adskiller dem,” siger Luckey. “Det er ikke et fjernstyret fly. Der er en hjerne ombord, der er i stand til at søge efter mål, identificere mål og flyve mod disse mål.”
Men for hvert innovativt våbensystem, som ukrainerne udvikler, modvirker russerne det med et system, der gør det ubrugeligt. “Teknologier, der fungerede rigtig godt for bare få måneder siden, skal nu konstant ændres,” siger Jacquelyn Schneider, der studerer militær teknologi som stipendiat ved Hoover Institution, “Og den store forskel, jeg ser, er, at software ændrer hastigheden af forandringerne.”
Krigen i Gaza: Lavender
I deres invasion af Gaza har de israelske forsvarsstyrker (IDF) i stigende grad benyttet sig af et program understøttet af kunstig intelligens til at angribe Hamas-aktivister, hvilket har haft problematiske konsekvenser. Ifølge en rapport fra april 2024 fra +972 Magazine (en israelsk-palæstinensisk publikation) og Local Call, et hebraisk nyhedssite, har IDF implementeret et program kaldet “Lavender”, hvis indflydelse på militærets operationer er så stor, at efterretningsofficerer i det væsentlige har behandlet AI-maskinens output “som om det var en menneskelig beslutning”.
Lavender er udviklet af den eliteenhed 8200, der kan sammenlignes med National Security Agency i USA eller Government Communications Headquarters i Storbritannien.
Den israelske regering har forsvaret Lavender for dets praktiske anvendelighed og effektivitet.
“Det israelske militær bruger AI til at forbedre de menneskelige operatørers beslutningsprocesser. Denne anvendelse er i overensstemmelse med international humanitær lovgivning, som den er blevet anvendt af moderne væbnede styrker i mange asymmetriske krige siden 11. september 2001,” siger Magda Pacholska, forsker ved TMC Asser Institute og specialist i krydsfeltet mellem disruptive teknologier og militær lovgivning.
De data, der blev indsamlet til at identificere militante, som blev brugt til at udvikle Lavender, stammer fra de mere end 2,3 millioner indbyggere i Gazastriben, som var under intens overvågning før invasionen af Gaza i 2023.
Rapporten angiver, at hele 37.000 palæstinensere blev udpeget som mistænkte militante, der blev udvalgt som potentielle mål.
Lavenders dødslister blev udarbejdet forud for invasionen, der blev iværksat som reaktion på Hamas’ angreb den 7. oktober 2023, hvor omkring 1200 mennesker blev dræbt og omkring 250 taget som gidsler fra Israel.
Et relateret AI-program, der sporede bevægelserne af personer på Lavender-listen, blev kaldt “Where’s Daddy?”
Kilder til +972 Magazine-rapporten sagde, at der oprindeligt ikke var “noget krav om at kontrollere grundigt, hvorfor maskinen traf disse valg (af mål) eller at undersøge de rå efterretningsdata, som de var baseret på.”
De ansvarlige embedsmænd fungerede ifølge disse kilder som et ‘stempel’ for maskinens beslutninger, inden de godkendte en bombning.
En efterretningsofficer, der talte med +972, indrømmede det samme: “Jeg brugte 20 sekunder på hvert mål på dette stadie og gjorde det med snesevis af mål hver dag. Jeg havde nul værdi som menneske, bortset fra at være et godkendelsesstempel. Det sparede en masse tid.”
Det var allerede kendt, at Lavender-programmet begik fejl i 10 procent af tilfældene, hvilket betyder, at en del af de personer, der blev udvalgt som mål, muligvis ikke havde nogen forbindelse til Hamas eller andre militante grupper.
Angrebene fandt generelt sted om natten, hvor de udvalgte personer var mest tilbøjelige til at være hjemme, hvilket medførte en risiko for, at deres familier også blev dræbt eller såret.
Der blev oprettet en score for hver person på en skala fra 1 til 100, baseret på hvor tæt vedkommende var knyttet til den væbnede fløj af Hamas eller Islamisk Jihad.
De med en høj score blev dræbt sammen med deres familier og naboer, på trods af at officererne angiveligt gjorde meget lidt for at verificere de potentielle mål, som Lavender havde identificeret, med henvisning til “effektivitetsårsager”.
“Det er uden fortilfælde, så vidt jeg kan huske,” sagde en efterretningsofficer, der brugte Lavender, og tilføjede, at hans kolleger havde mere tillid til en »statistisk mekanisme« end til en sørgende soldat. “Alle der, inklusive mig, mistede nogen den 7. oktober. Maskinen gjorde det koldt. Og det gjorde det lettere.”
IDF havde tidligere brugt et andet AI-system kaldet “The Gospel, som” blev beskrevet i en tidligere undersøgelse af magasinet samt i det israelske militærs egne publikationer, til at målrette mod bygninger og strukturer, der mistænktes for at huse militante.
“The Gospel” trækker på millioner af data og producerer lister over mål mere end 50 gange hurtigere, end et team af menneskelige efterretningsofficerer nogensinde kunne.
Det blev brugt til at ramme 100 mål om dagen i de første to måneder af kampene i Gaza, hvilket er cirka fem gange mere end i en lignende konflikt der for ti år siden. Disse strukturer af politisk eller militær betydning for Hamas er kendt som “magtmål”.
Svagheder ved AI-våben
Hvis et AI-våben er autonomt, skal det have evnen til nøjagtig perception. Det vil sige, at hvis det forveksler en civil bil med et militært mål, er dets reaktionshastighed irrelevant. De civile i bilen dør uanset hvad.
I mange tilfælde har AI-systemer naturligvis udmærket sig inden for perception, efterhånden som AI-drevne maskiner og algoritmer er blevet forfinet.
Da det russiske militær for eksempel gennemførte en test med 80 UAV’er, der fløj samtidigt over syriske slagmarker med fælles visualisering, sammenlignede den russiske forsvarsminister Sergei Shoigu det med en “halvfantastisk film”, der afslørede alle potentielle mål.
Men der kan opstå problemer. Når man designer et AI-våben, skal udviklerne først have adgang til data. Mange AI-systemer trænes ved hjælp af data, der er kategoriseret af et ekspertsystem (f.eks. mærkning af scener, der inkluderer et luftforsvarssystem), som regel et menneske.
En AI’s billedbehandlingsfunktion fungerer ikke godt, når den får billeder,der adskiller sig fra dets træningssæt – for eksempel billeder, der er taget under dårlige lysforhold, i en spids vinkel eller delvist tilsløret.
AI-genkendelsessystemer forstår ikke, hvad billedet forestiller; de lærer snarere teksturer og gradienter i billedets pixels. Det betyder, at et AI-system kan genkende en del af et billede korrekt, men ikke dets helhed, hvilket kan føre til fejlagtig klassificering.
For bedre at beskytte AI mod vildledende billeder udsætter ingeniører dem for “adversarial training”. Dette indebærer, at man fodrer en klassifikator med modstridende billeder, så den kan identificere og ignorere dem, der ikke er målrettet.
Forskning foretaget af Nicolas Papernot, en ph.d.-studerende ved Pennsylvania State University, viser, at et system, selv om det er styrket af modstridende træning, kan være ineffektiv, hvis det bliver overvældet af det store antal billeder. Modstridende billeder udnytter en funktion, der findes i mange AI-systemer, kendt som “beslutningsgrænser“.
Disse grænser er usynlige regler, der fortæller et system, om det opfatter en løve eller en leopard.
Målet er at skabe et mentalt kort med løver i den ene sektor og leoparder i den anden. Linjen, der adskiller disse to sektorer – grænsen, hvor en løve bliver en leopard eller en leopard bliver en løve – kaldes beslutningsgrænsen.
Jeff Clune, der også har studeret fjendtlig træning, er fortsat skeptisk over for sådanne klassificeringssystemer, fordi de er for vilkårlige. “Alt, hvad man gør med disse netværk, er at træne dem i at trække linjer mellem dataklynger i stedet for at modellere dybtgående, hvad det vil sige at være [en] leopard eller en løve.”
Store datasæt markedsføres ofte af virksomheder, der anvender manuelle metoder. Det er en udfordring at skaffe og dele datasæt, især for en organisation, der foretrækker at klassificere data og begrænse adgangen til dem.
Et militært datasæt kan for eksempel indeholde billeder produceret af termiske billedbehandlingssystemer, men hvis dette datasæt ikke deles med udviklere, vil et AI-våben ikke være så effektivt.
AI-enheder, der er afhængige af chatbots, der er begrænset til hundreder af ord, vil for eksempel muligvis ikke være i stand til fuldstændigt at erstatte et menneske med et meget større ordforråd.
AI-systemer hæmmes også af deres manglende evne til at udføre flere opgaver samtidigt. Et menneske kan identificere et fjendtligt køretøj, beslutte hvilket våbensystem der skal bruges mod det, forudsige dets bane og derefter angribe målet.
Et AI-system kan ikke gentage disse trin. På nuværende tidspunkt vil et system, der er trænet til at identificere en T-90-kampvogn, sandsynligvis ikke være i stand til at identificere en kinesisk Type 99-kampvogn, på trods af at begge er kampvogne, og begge opgaver kræver billedgenkendelse.
Mange forskere forsøger at løse dette problem ved at arbejde på at gøre systemer i stand til at overføre deres læring, men sådanne systemer er stadig år væk fra at kunne produceres.
Forudsigeligt nok vil fjender forsøge at udnytte disse svagheder ved at narre billedgenkendelsessystemer og sensorer.
De kan også forsøge at iværksætte cyberangreb for at omgå systemsikkerhedsmekanismer eller indføre ændrede data i AI-systemer, som vil forsyne dem med falske oplysninger.
USA’s beredskab
USA’s forsvarsministerium har været mere tilbøjelig til at indgå kontrakter om og udvikle hardware end at implementere nye teknologier.
Alligevel udvikler luftvåbnet i samarbejde med Boeing, General Atomics og et firma ved navn Kratos AI-drevne droner. Luftvåbnet tester også pilotløse XQ-58A Valkyrie-eksperimentelle fly, der styres af kunstig intelligens.
Denne næste generation af droner er en prototype på det, som luftvåbnet håber kan blive et effektivt supplement til sin flåde af traditionelle kampfly.
Målet er at give menneskelige piloter en sværm af højt kvalificerede robot-wingmen, der kan indsættes i kamp. Valkyrie er dog ikke autonom. Selvom den vil bruge AI og sensorer til at identificere og evaluere fjendtlige trusler, vil det stadig være op til piloterne at beslutte, om målet skal angribes eller ej.
Pentagon-embedsmænd indsætter måske ikke autonome våben i kamp endnu, men de tester og perfektionerer våben, der ikke er afhængige af menneskelig indgriben. Et eksempel er hærens Project Convergence.
I en test, der blev gennemført som en del af projektet i august 2020 på Yuma Proving Ground i Arizona, brugte hæren en række luft- og jordbaserede sensorer til at spore simulerede fjendtlige styrker og derefter behandle disse data ved hjælp af AI-computere på en base i staten Washington.
Disse computere udsendte derefter skydeinstruktioner til jordbaseret artilleri i Yuma. “Hele denne sekvens blev angiveligt gennemført på 20 sekunder,” rapporterede Congressional Research Service senere.
I et amerikansk program kendt som Replicator-initiativet sagde Pentagon, at det planlagde at masseproducere tusindvis af autonome droner. Der er dog ingen officiel politik, der tillader brugen af autonome våben, som ville give enheder mulighed for at beslutte, om de skal angribe et mål uden menneskelig godkendelse.
Den amerikanske flåde har et AI-ækvivalent til Project Convergence kaldet “Project Overmatch.” Med admiral Michael Gildays ord er dette beregnet til “at gøre det muligt for en flåde, der sværmer over havet, at levere synkroniserede dødelige og ikke-dødelige effekter fra nær og fjern, fra alle akser og alle områder.” Der er kun afsløret meget lidt om projektet.
Omkring 7000 analytikere ansat af National Security Agency (NSA) forsøger at integrere AI i sine operationer, ifølge general Timothy Haugh, der er direktør for NSA, kommandør for U.S. Cyber Command og chef for Central Security Service.
General Haugh har afsløret, at NSA i 2024 er involveret i 170 AI-projekter, hvoraf 10 betragtes som afgørende for den nationale sikkerhed. “De øvrige 160 vil vi skabe muligheder for, at folk kan eksperimentere med, udnytte og anvende i overensstemmelse med reglerne,” siger han.
På nuværende tidspunkt betragtes AI dog stadig som et supplement til konventionelle platforme.
AI forventes også at komme til at spille fire yderligere roller: Automatisering af planlægning og strategi; fusionering og fortolkning af signaler mere effektivt end mennesker eller konventionelle systemer kan; støtte til rumbaserede systemer, hovedsageligt ved at indsamle og sammenfatte information til modvirkning af hypersoniske våben; og muliggørelse af næste generations cyberkrig og kapaciteter for informationskrig.
Etik i brugen af AI
Selvom brugen af autonome våben har været genstand for debat i årtier, forventer kun få observatører, at der vil blive indgået en international aftale om nye regler, især da USA, Kina, Israel, Rusland og andre lande kappes om at udvikle endnu mere avancerede våben. “Geopolitikken gør det umuligt,” siger Alexander Kmentt, Østrigs øverste forhandler om autonome våben i FN. “Disse våben vil blive brugt, og de vil blive brugt i stort set alle landes militære arsenal.”
På trods af disse udfordringer har Human Rights Watch opfordret til “hurtig forhandling og vedtagelse af et juridisk bindende instrument til at forbyde og regulere autonome våbensystemer.”
Organisationen har lanceret kampagnen Stop Killer Robots, som ifølge menneskerettighedsorganisationen har fået tilslutning fra flere end 270 grupper og 70 lande.
Selv om kontroversen har centreret sig om autonome våben, har Brian Schimpf, CEO for AI-droneproducenten Anduril, et andet perspektiv.
Han siger, at AI-våben “ikke handler om at fjerne mennesker fra beslutningsprocessen. Jeg tror ikke, det er den rigtige etiske ramme. Det handler i virkeligheden om, hvordan vi gør menneskelige beslutningstagere mere effektive og mere ansvarlige for deres beslutninger.”
Alligevel er autonome AI-våben allerede under udvikling. Bortset fra det etiske i at stole på et våben til at træffe liv og død-beslutninger, er der et problem med AI i sig selv.
Fejl og fejlberegninger er relativt almindelige. Algoritmer, der ligger til grund for AI-systemers funktion, er i stand til at begå fejl – “hallucinationer” – hvor tilsyneladende rimelige resultater viser sig at være helt illusoriske.
Det kan have dybtgående konsekvenser for anvendelsen af AI-våben, der fungerer med dybt fejlbehæftede instruktioner, som ikke kan opdages af menneskelige operatører.
I et særligt dystopisk scenario kunne en fjende erstatte menneskelige generaler med robotgeneraler og tvinge USA til at gøre det samme, hvilket kunne resultere i, at AI-systemer blev sat op mod hinanden på slagmarken med uforudsigelige og muligvis katastrofale konsekvenser.
Dr. Elke Schwarz fra Queen Mary University of London betragter dilemmaet med AI-våben gennem en teoretisk ramme, der bygger på statskundskab og empiriske undersøgelser, i sin overvejelse af de etiske dimensioner af AI i krigsførelse.
Hun mener, at integrationen af AI-baserede våbensystemer letter objektiviseringen af menneskelige mål, hvilket fører til større tolerance over for utilsigtede skader.
Efter hendes opfattelse kan automatisering “svække den moralske handlekraft blandt operatører af AI-baserede målsøgningssystemer og mindske deres evne til at træffe etiske beslutninger.”
Tendensen til autonome systemer kan også tilskynde våbenindustrien til at skynde sig at finansiere militære AI-systemer, “hvilket påvirker opfattelsen af ansvarlig brug af AI i krigsførelse.” Hun opfordrer politiske beslutningstagere til at tage højde for risiciene, før det er for sent.
“Effekten af AI er meget, meget større end maskingeværer eller fly. Det er mere som skiftet fra muskelkraft til maskinkraft i den sidste industrielle revolution,” siger Peter Singer, professor ved Arizona State University og strateg og seniorforsker ved den amerikanske tænketank New America, der har skrevet meget om AI og krigsførelse.
“Jeg tror, at fremkomsten af AI på softwaresiden og dens anvendelse i robotteknologi på hardwaresiden svarer til den industrielle revolution, da vi oplevede mekaniseringen.”
Denne transformation rejser nye spørgsmål “om rigtigt og forkert, som vi ikke har kæmpet med før.”
Han går ind for at fastlægge “rammer for brugen af AI i krigsførelse”, som skal gælde for de mennesker, der arbejder med design og brug.
Et af de spørgsmål, Singer kalder “maskiners tilladte handlinger“, er, hvad maskiner bør have lov til at gøre uden menneskelig kontrol.
Han gør opmærksom på et andet spørgsmål, “som vi aldrig har beskæftiget os med før”, nemlig “maskiners ansvarlighed.”
“Hvis der sker noget, hvem holder vi så ansvarlig, hvis det er maskinen, der handler? Det er meget let at forstå med en almindelig bil, men det er sværere at forstå med en såkaldt førerløs bil.”
Ville maskinen blive holdt ansvarlig på slagmarken, hvis målet blev forvekslet, eller hvis civile blev dræbt som følge heraf?
Denne artikel er udarbejdet til Observatoriet af Independent Media Institute.
Om forfatteren: Leslie Alan Horvitz er forfatter og journalist med speciale i videnskab og bidrager til Observatory. Hans fagbøger omfatter Eureka: Scientific Breakthroughs That Changed the World, Understanding Depression med Dr. Raymond DePaulo fra Johns Hopkins University og The Essential Book of Weather Lore. Hans artikler er blevet offentliggjort i blandt andet Travel and Leisure, Scholastic, Washington Times og Insight on the News. Han har siddet i bestyrelsen for Art Omi og er medlem af PEN America. Horvitz bor i New York City. Du kan finde ham online på lesliehorvitz.com.
Det koster penge at lave progressiv journalistik. Kun med din støtte kan Arbejderen fortsat udgive frit tilgængeligt journalistisk indhold af høj kvalitet.