Redaktørens note:

General Lori Robinson (pensioneret) og Michael O’Hanlon skriver i The National Interest, at USA “kan arbejde hårdere for at forstå, hvad der rent faktisk er – og også tænke grundigt over, hvordan man kan sætte etiske grænser for dens fremtidige udvikling og brug.”

Kunstig intelligens er i høj kurs i disse dage. I de populære medier synes almindelige it-systemer næsten at være passé, da forfattere fokuserer på AI og fremkalder billeder af alt fra virkelige Terminator-robotter til mere godartede ledsagere. I efterretningskredse tyder Kinas brug af lukkede tv-kredse, ansigtsgenkendelsesteknologi og andre overvågningssystemer på Big Brother’s ankomst – hvis ikke helt i 1984, så kun omkring fyrre år senere. I Pentagon taler legioner af officerer og analytikere om kapløbet om kunstig intelligens med Kina, ofte med forudseende advarsler om, at USA ikke har råd til at være nummer to i klassen i denne nye teknologiske verden. I politiske kredse spekulerer man over AI’s etik – f.eks. om vi virkelig kan uddelegere evnen til at anvende dødbringende magt mod USA’s fjender til robotter, uanset hvor slemme de end måtte være. En ny rapport fra Defense Innovation Board opstiller brede principper for den fremtidige etik i forbindelse med kunstig intelligens, men kun i generelle vendinger, der lader masser af arbejde tilbage at gøre.

Hvad betyder det hele egentlig, og er det sandsynligt, at kunstig intelligens vil være alt det, den er udlagt til at være? Vi mener, at svaret er komplekst, og at der bør kastes en beskeden dosis koldt vand på emnet. Faktisk vil mange af de AI-systemer, som man forestiller sig i dag, tage årtier at udvikle. Desuden bliver AI ofte forvekslet med ting, som den ikke er. Præcision omkring begrebet vil være afgørende, hvis vi skal have intelligente diskussioner om, hvordan vi skal forske i, udvikle og regulere AI i de kommende år.

AI-systemer er grundlæggende set computere, der kan “lære” at gøre ting gennem en proces med forsøg og fejl med en eller anden mekanisme, der fortæller dem, hvornår de har ret, og hvornår de tager fejl – f.eks. at udpege missiler i fotografier eller mennesker i menneskemængder, som i Pentagons “Project Maven” – og derefter anvende det, de har lært, til at diagnosticere fremtidige data. Med andre ord, med kunstig intelligens er det faktisk maskinen selv, der bygger softwaren. Den overordnede beregningsmetode for et givet problem fastlægges på forhånd af rigtige gammeldags mennesker, men den egentlige algoritme skabes af computeren gennem en proces med forsøg og fejl i takt med, at den indtager og behandler enorme mængder data. Maskinens tankeproces er i virkeligheden ikke så sofistikeret. Den udvikler snarere kunstige instinkter end intelligens – den undersøger enorme mængder af rådata og finder ud af, hvordan den kan genkende en kat på et foto eller en missilkaster på en overfyldt motorvej, snarere end at engagere sig i dybe tanker (i hvert fald inden for en overskuelig fremtid).

Denne definition giver os mulighed for hurtigt at identificere nogle typer computersystemer, som faktisk ikke er AI. De kan være vigtige, imponerende og afgørende for krigsføreren, men de er ikke kunstig intelligens, fordi de ikke skaber deres egne algoritmer ud fra data og flere gentagelser. Der er ingen maskinlæring involveret, for at sige det anderledes. Som vores kollega Tom Stefanick påpeger, er der en grundlæggende forskel mellem avancerede algoritmer, som har eksisteret i årtier (selv om de hele tiden forbedres, efterhånden som computere bliver hurtigere), og kunstig intelligens. Der er også en forskel mellem et autonomt våbensystem og AI-styret robotteknologi.

For eksempel viser de computere, der styrer et krydsermissil eller en drone, ikke AI. De følger et udførligt, men forudbestemt manuskript, hvor de bruger sensorer til at opsamle data og derefter lægger dem ind i computere, som derefter bruger software (udviklet af mennesker på forhånd) til at bestemme det rigtige næste træk og det rigtige sted at detonere eventuelle våben. Dette er autonomi. Det er ikke AI.

Relateret

  • FILFOTO: USA's formand for stabscheferne, general Mark Milley, udtaler sig under den 19. årlige 11. september-ceremoni i Pentagon i Arlington, Virginia, USA, den 11. september 2020. REUTERS/Erin Scott/Filfoto
    Ordning fra kaos

    Rusland, Kina og risikoen for krig: Min samtale med general Mark Milley

    Onsdag den 23. december 2020

  • U.S. Marine Corps Lance Corporal Briar Purty tester Drone Killer Counter-UAS-teknologi under Urban Advanced Naval Technology Exercise 2018 (ANTX-18) på Marine Corps Base Camp Pendleton, Californien, 21. marts 2018. Billede taget den 21. marts 2018. U.S. Marine Corps/Lance Cpl. Rhita Daniel/Handout via REUTERS. ATTENTION EDITORS - THIS IMAGE WAS PROVED BY A THIRD PARTY - RC130534DFC0
  • En nationalgarde sikrer Tverskaya Street, mens militærfolk gør deres militærkøretøj klar før en prøve til paraden på sejrsdagen i Moskva, Rusland, 18. juni 2020. Militærparaden, der markerer 75-årsdagen for sejren over Nazi-Tyskland i Anden Verdenskrig, var planlagt til den 9. maj, men blev udsat på grund af udbruddet af coronavirus-sygdommen (COVID-19). REUTERS/Shamil Zhumatov
    Ordning fra kaos

    Hvordan man skærer (og ikke skærer) i forsvarsbudgettet

    Torsdag den 9. juli 2020

Og, for at bruge et eksempel, der er tættere på hjemmet for de fleste mennesker, når din smartphone bruger en app som Google Maps eller Waze til at anbefale den hurtigste rute mellem to punkter, er det heller ikke nødvendigvis AI. Der er kun så mange mulige ruter mellem to steder. Ja, der kan være dusinvis eller hundredvis – men antallet er begrænset. Computeren i din telefon kan derfor i det væsentlige se på hver enkelt rimelig mulighed for sig og inddrage data fra det bredere netværk, som mange andre menneskers telefoner bidrager med for at inddrage trafikforholdene i beregningen. Men den måde, hvorpå regnestykket rent faktisk udføres, er ligetil og forudbestemt.

Hvorfor er det vigtigt? For det første bør det få os til at blive mindre åndeløse med hensyn til kunstig intelligens og til at se den som et element i en bredere computerrevolution, der begyndte i anden halvdel af det 20. århundrede og tog fart i dette århundrede. Desuden bør det hjælpe os til at se, hvad der kan eller ikke kan være realistisk og ønskeligt at regulere inden for fremtidig krigsførelse.

Den tidligere næstformand for de fælles stabschefer, general Paul Selva, har for nylig hævdet, at USA kunne være omkring et årti fra at have kapacitet til at bygge en autonom robot, der kunne beslutte, hvornår den skulle skyde og hvem der skulle dræbes – selv om han også hævdede, at USA ikke havde nogen planer om rent faktisk at bygge en sådan skabning. Men hvis man tænker anderledes over det, har vi på nogle måder allerede haft autonome dræbermaskiner i en generation. Det krydsermissil, som vi talte om ovenfor, har været anvendt siden 1970’erne. Det har instruktioner til at flyve en given rute og derefter detonere sit sprænghoved uden nogen menneskelig indblanding. Og i 1990’erne vidste vi, hvordan vi kunne bygge ting som “skeet”-submunitioner, der kunne flyve over en slagmark og lede efter varme objekter som f.eks. kampvogne – og bruge software til at beslutte, hvornår de skulle ødelægges. Så dræbermaskinen var i realiteten allerede i gang med at beslutte selv.

Selv om general Selvas terminator ikke bliver bygget, vil robotteknologi i nogle tilfælde sandsynligvis få større beslutningsbeføjelser til at beslutte, hvornår der skal bruges magt, da vi i realiteten allerede har overskredet denne tærskel. Dette meget spændte emne kræver omhyggeligt etisk og juridisk tilsyn, for at være sikker, og de dermed forbundne risici er alvorlige. Men den hastighed, hvormed militære operationer skal foregå, vil skabe incitamenter til ikke at have en person med i beslutningsprocessen i mange taktiske situationer. Uanset hvad USA måtte foretrække, vil restriktioner på automatiseret brug af voldelig magt også synes relativt vanskelige at forhandle (selv om de er ønskelige), i betragtning af sandsynlig modstand fra Rusland og måske fra andre nationer samt enorme problemer med verifikation.

For eksempel kan små robotter, der kan operere som sværme på land, i luften eller i vandet, få et vist spillerum til at beslutte, hvornår de skal bruge deres dødbringende evner. Ved at kommunikere med hinanden og behandle oplysninger om fjenden i realtid kan de koncentrere angrebene der, hvor forsvaret er svagest, i en form for kamp, som John Allen og Amir Husain kalder “hyperkrig” på grund af dens hastighed og intensitet. Andre typer af sværme kan angribe parkerede fly; selv små sprængstoffer, der detoneres præcist, kan sætte vinger eller motorer ud af funktion eller forårsage sekundære og meget større eksplosioner. Mange lande vil have kapacitet til at gøre sådanne ting i de kommende tyve år. Selv om USA forsøger at undgå at bruge sådanne sværme til dødelige og offensive formål, kan det vælge at anvende dem som defensive skjolde (måske mod nordkoreanske artilleriangreb mod Seoul) eller som jamming-hjælpemidler til at ledsage indtrængende fly. Med UAV’er, der kan flyve i ti timer og hundrede kilometer, og som nu kun koster i hundredtusindvis af dollars, og quadcoptere med en rækkevidde på mere eller mindre en kilometer, der koster i hundredvis af dollars, er tendenserne klare – og det er tydeligt, at der er råd til at bruge mange droner på en organiseret måde.

Relaterede bøger

  • Targeting the Computer

    Af Kenneth Flamm

    1987

  • Skabelse af computeren

    Af Kenneth Flamm

    1988

  • Ændring af reglerne

    Redigeret af Robert W. Crandall og Kenneth Flamm

    1989

Det sted, hvor regulering kan være mulig og etisk tvingende, er begrænsning af det geografiske og tidsmæssige rum, hvor våben drevet af AI eller andre komplekse algoritmer kan anvende dødelig magt. F.eks. kan de ovennævnte sværme kun aktiveres i nærheden af et skib eller i luften nær DMZ i Korea eller inden for en lille afstand fra en militær flyveplads. Det kan også være smart at forbyde at lade maskiner bestemme, hvornår de skal dræbe mennesker. Det kunne være fristende at bruge ansigtsgenkendelsesteknologi på fremtidige robotter for at lade dem jage den næste bin Laden, Baghdadi eller Soleimani i en stor by i Mellemøsten. Men potentialet for fejltagelser, for hacking og for mange andre fejlfunktioner er måske for stort til at tillade den slags. Det er nok også fornuftigt at forbyde brugen af AI til at angribe den nukleare kommando- og kontrolinfrastruktur i en stor atommagt. Sådanne forsøg kan give anledning til “use them or lose them”-frygt i en fremtidig krise og dermed øge risikoen for atomkrig.

Vi befinder os i AI’s tidlige dage. Vi kan endnu ikke begynde at forudse, hvor den er på vej hen, og hvad den kan gøre muligt om ti, tyve eller tredive år. Men vi kan arbejde hårdere på at forstå, hvad den faktisk er – og også tænke grundigt over, hvordan vi kan sætte etiske grænser for dens fremtidige udvikling og anvendelse. Fremtiden for krigsførelse, på godt og ondt, er bogstaveligt talt på spil.