General Lori Robinson (pensioneret) og Michael O’Hanlon skriver i The National Interest, at USA “kan arbejde hårdere for at forstå, hvad der rent faktisk er – og også tænke grundigt over, hvordan man kan sætte etiske grænser for dens fremtidige udvikling og brug.”
Kunstig intelligens er i høj kurs i disse dage. I de populære medier synes almindelige it-systemer næsten at være passé, da forfattere fokuserer på AI og fremkalder billeder af alt fra virkelige Terminator-robotter til mere godartede ledsagere. I efterretningskredse tyder Kinas brug af lukkede tv-kredse, ansigtsgenkendelsesteknologi og andre overvågningssystemer på Big Brother’s ankomst – hvis ikke helt i 1984, så kun omkring fyrre år senere. I Pentagon taler legioner af officerer og analytikere om kapløbet om kunstig intelligens med Kina, ofte med forudseende advarsler om, at USA ikke har råd til at være nummer to i klassen i denne nye teknologiske verden. I politiske kredse spekulerer man over AI’s etik – f.eks. om vi virkelig kan uddelegere evnen til at anvende dødbringende magt mod USA’s fjender til robotter, uanset hvor slemme de end måtte være. En ny rapport fra Defense Innovation Board opstiller brede principper for den fremtidige etik i forbindelse med kunstig intelligens, men kun i generelle vendinger, der lader masser af arbejde tilbage at gøre.
- Lori Robinson
- Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
- Michael E. O’Hanlon
- Co-Director – Center for Security, Strategy and Technology, Africa Security Initiative
- Relateret
- Rusland, Kina og risikoen for krig: Min samtale med general Mark Milley
- Hvordan man skærer (og ikke skærer) i forsvarsbudgettet
- Relaterede bøger
- Targeting the Computer
- Skabelse af computeren
- Ændring af reglerne
Lori Robinson
Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
Michael E. O’Hanlon
Co-Director – Center for Security, Strategy and Technology, Africa Security Initiative
Hvad betyder det hele egentlig, og er det sandsynligt, at kunstig intelligens vil være alt det, den er udlagt til at være? Vi mener, at svaret er komplekst, og at der bør kastes en beskeden dosis koldt vand på emnet. Faktisk vil mange af de AI-systemer, som man forestiller sig i dag, tage årtier at udvikle. Desuden bliver AI ofte forvekslet med ting, som den ikke er. Præcision omkring begrebet vil være afgørende, hvis vi skal have intelligente diskussioner om, hvordan vi skal forske i, udvikle og regulere AI i de kommende år.
AI-systemer er grundlæggende set computere, der kan “lære” at gøre ting gennem en proces med forsøg og fejl med en eller anden mekanisme, der fortæller dem, hvornår de har ret, og hvornår de tager fejl – f.eks. at udpege missiler i fotografier eller mennesker i menneskemængder, som i Pentagons “Project Maven” – og derefter anvende det, de har lært, til at diagnosticere fremtidige data. Med andre ord, med kunstig intelligens er det faktisk maskinen selv, der bygger softwaren. Den overordnede beregningsmetode for et givet problem fastlægges på forhånd af rigtige gammeldags mennesker, men den egentlige algoritme skabes af computeren gennem en proces med forsøg og fejl i takt med, at den indtager og behandler enorme mængder data. Maskinens tankeproces er i virkeligheden ikke så sofistikeret. Den udvikler snarere kunstige instinkter end intelligens – den undersøger enorme mængder af rådata og finder ud af, hvordan den kan genkende en kat på et foto eller en missilkaster på en overfyldt motorvej, snarere end at engagere sig i dybe tanker (i hvert fald inden for en overskuelig fremtid).
Denne definition giver os mulighed for hurtigt at identificere nogle typer computersystemer, som faktisk ikke er AI. De kan være vigtige, imponerende og afgørende for krigsføreren, men de er ikke kunstig intelligens, fordi de ikke skaber deres egne algoritmer ud fra data og flere gentagelser. Der er ingen maskinlæring involveret, for at sige det anderledes. Som vores kollega Tom Stefanick påpeger, er der en grundlæggende forskel mellem avancerede algoritmer, som har eksisteret i årtier (selv om de hele tiden forbedres, efterhånden som computere bliver hurtigere), og kunstig intelligens. Der er også en forskel mellem et autonomt våbensystem og AI-styret robotteknologi.
For eksempel viser de computere, der styrer et krydsermissil eller en drone, ikke AI. De følger et udførligt, men forudbestemt manuskript, hvor de bruger sensorer til at opsamle data og derefter lægger dem ind i computere, som derefter bruger software (udviklet af mennesker på forhånd) til at bestemme det rigtige næste træk og det rigtige sted at detonere eventuelle våben. Dette er autonomi. Det er ikke AI.
Relateret
-
Ordning fra kaos
Rusland, Kina og risikoen for krig: Min samtale med general Mark Milley
Onsdag den 23. december 2020 -
Ordning fra kaos
Hvordan man skærer (og ikke skærer) i forsvarsbudgettet
Torsdag den 9. juli 2020
Hvorfor er det vigtigt? For det første bør det få os til at blive mindre åndeløse med hensyn til kunstig intelligens og til at se den som et element i en bredere computerrevolution, der begyndte i anden halvdel af det 20. århundrede og tog fart i dette århundrede. Desuden bør det hjælpe os til at se, hvad der kan eller ikke kan være realistisk og ønskeligt at regulere inden for fremtidig krigsførelse.
Den tidligere næstformand for de fælles stabschefer, general Paul Selva, har for nylig hævdet, at USA kunne være omkring et årti fra at have kapacitet til at bygge en autonom robot, der kunne beslutte, hvornår den skulle skyde og hvem der skulle dræbes – selv om han også hævdede, at USA ikke havde nogen planer om rent faktisk at bygge en sådan skabning. Men hvis man tænker anderledes over det, har vi på nogle måder allerede haft autonome dræbermaskiner i en generation. Det krydsermissil, som vi talte om ovenfor, har været anvendt siden 1970’erne. Det har instruktioner til at flyve en given rute og derefter detonere sit sprænghoved uden nogen menneskelig indblanding. Og i 1990’erne vidste vi, hvordan vi kunne bygge ting som “skeet”-submunitioner, der kunne flyve over en slagmark og lede efter varme objekter som f.eks. kampvogne – og bruge software til at beslutte, hvornår de skulle ødelægges. Så dræbermaskinen var i realiteten allerede i gang med at beslutte selv.
Selv om general Selvas terminator ikke bliver bygget, vil robotteknologi i nogle tilfælde sandsynligvis få større beslutningsbeføjelser til at beslutte, hvornår der skal bruges magt, da vi i realiteten allerede har overskredet denne tærskel. Dette meget spændte emne kræver omhyggeligt etisk og juridisk tilsyn, for at være sikker, og de dermed forbundne risici er alvorlige. Men den hastighed, hvormed militære operationer skal foregå, vil skabe incitamenter til ikke at have en person med i beslutningsprocessen i mange taktiske situationer. Uanset hvad USA måtte foretrække, vil restriktioner på automatiseret brug af voldelig magt også synes relativt vanskelige at forhandle (selv om de er ønskelige), i betragtning af sandsynlig modstand fra Rusland og måske fra andre nationer samt enorme problemer med verifikation.
For eksempel kan små robotter, der kan operere som sværme på land, i luften eller i vandet, få et vist spillerum til at beslutte, hvornår de skal bruge deres dødbringende evner. Ved at kommunikere med hinanden og behandle oplysninger om fjenden i realtid kan de koncentrere angrebene der, hvor forsvaret er svagest, i en form for kamp, som John Allen og Amir Husain kalder “hyperkrig” på grund af dens hastighed og intensitet. Andre typer af sværme kan angribe parkerede fly; selv små sprængstoffer, der detoneres præcist, kan sætte vinger eller motorer ud af funktion eller forårsage sekundære og meget større eksplosioner. Mange lande vil have kapacitet til at gøre sådanne ting i de kommende tyve år. Selv om USA forsøger at undgå at bruge sådanne sværme til dødelige og offensive formål, kan det vælge at anvende dem som defensive skjolde (måske mod nordkoreanske artilleriangreb mod Seoul) eller som jamming-hjælpemidler til at ledsage indtrængende fly. Med UAV’er, der kan flyve i ti timer og hundrede kilometer, og som nu kun koster i hundredtusindvis af dollars, og quadcoptere med en rækkevidde på mere eller mindre en kilometer, der koster i hundredvis af dollars, er tendenserne klare – og det er tydeligt, at der er råd til at bruge mange droner på en organiseret måde.
Relaterede bøger
-
Targeting the Computer
Af Kenneth Flamm1987
-
Skabelse af computeren
Af Kenneth Flamm1988
Ændring af reglerne
Redigeret af Robert W. Crandall og Kenneth Flamm1989
Det sted, hvor regulering kan være mulig og etisk tvingende, er begrænsning af det geografiske og tidsmæssige rum, hvor våben drevet af AI eller andre komplekse algoritmer kan anvende dødelig magt. F.eks. kan de ovennævnte sværme kun aktiveres i nærheden af et skib eller i luften nær DMZ i Korea eller inden for en lille afstand fra en militær flyveplads. Det kan også være smart at forbyde at lade maskiner bestemme, hvornår de skal dræbe mennesker. Det kunne være fristende at bruge ansigtsgenkendelsesteknologi på fremtidige robotter for at lade dem jage den næste bin Laden, Baghdadi eller Soleimani i en stor by i Mellemøsten. Men potentialet for fejltagelser, for hacking og for mange andre fejlfunktioner er måske for stort til at tillade den slags. Det er nok også fornuftigt at forbyde brugen af AI til at angribe den nukleare kommando- og kontrolinfrastruktur i en stor atommagt. Sådanne forsøg kan give anledning til “use them or lose them”-frygt i en fremtidig krise og dermed øge risikoen for atomkrig.
Vi befinder os i AI’s tidlige dage. Vi kan endnu ikke begynde at forudse, hvor den er på vej hen, og hvad den kan gøre muligt om ti, tyve eller tredive år. Men vi kan arbejde hårdere på at forstå, hvad den faktisk er – og også tænke grundigt over, hvordan vi kan sætte etiske grænser for dens fremtidige udvikling og anvendelse. Fremtiden for krigsførelse, på godt og ondt, er bogstaveligt talt på spil.
Skriv et svar