I The National Interest skriver general Lori Robinson (pensionerad) och Michael O’Hanlon att USA ”kan arbeta hårdare för att förstå vad artificiell intelligens faktiskt är – och också tänka hårt på hur man kan sätta etiska gränser för dess framtida utveckling och användning”.
Artificiell intelligens är ett stort begrepp i dessa dagar. I de populära medierna verkar vanliga cybersystem nästan passerade, eftersom författarna fokuserar på AI och framkallar bilder av allt från verkliga Terminatorrobotar till mer välvilliga följeslagare. I underrättelsekretsar tyder Kinas användning av sluten tv, teknik för ansiktsigenkänning och andra övervakningssystem på att Big Brother är på väg att anlända – om inte riktigt 1984, så bara omkring fyrtio år senare. I Pentagon talar legioner av officerare och analytiker om kapplöpningen med Kina när det gäller artificiell intelligens, ofta med fördomsfulla förmaningar om att Förenta staterna inte har råd att vara näst bäst i klassen inom denna framväxande teknik. I politiska kretsar undrar man över AI:s etik – till exempel om vi verkligen kan delegera till robotar förmågan att använda dödligt våld mot USA:s fiender, hur dåliga de än må vara. I en ny rapport från Defense Innovation Board fastställs breda principer för AI:s framtida etik, men endast i allmänna termer som innebär att mycket arbete återstår.
- Lori Robinson
- Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
- Michael E. O’Hanlon
- Co-Director – Center for Security, Strategy and Technology, Africa Security Initiative
- Relaterat
- Ryssland, Kina och riskerna för krig: Mitt samtal med general Mark Milley
- Hur man skär ner (och inte skär ner) försvarsbudgeten
- Relaterade böcker
- Targeting the Computer
- Skapande. the Computer
- Förändra reglerna
Lori Robinson
Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
Michael E. O’Hanlon
Co-Director – Center for Security, Strategy and Technology, Africa Security Initiative
Vad betyder allt detta egentligen och är AI troligen allt som det är tänkt att vara? Vi tror att svaret är komplext och att en blygsam dos kallt vatten bör kastas på ämnet. Faktum är att många av de AI-system som man tänker sig i dag kommer att ta årtionden att utveckla. Dessutom förväxlas AI ofta med saker som den inte är. Precision kring begreppet kommer att vara avgörande om vi skall kunna föra intelligenta diskussioner om hur AI skall forskas, utvecklas och regleras under de kommande åren.
AI-system är i grunden datorer som kan ”lära sig” hur de skall göra saker genom en process av försök och misstag med någon mekanism för att tala om för dem när de har rätt och när de har fel – t.ex. att plocka ut missiler i fotografier eller människor i folkmassor, som i Pentagons ”Project Maven” – och sedan tillämpa det som de lärt sig för att diagnostisera framtida data. Med andra ord, med artificiell intelligens byggs programvaran i praktiken av maskinen själv. Den breda beräkningsmetoden för ett visst problem bestäms i förväg av riktiga gammaldags människor, men den faktiska algoritmen skapas genom en process av försök och misstag av datorn när den tar in och bearbetar enorma mängder data. Maskinens tankeprocess är egentligen inte så sofistikerad. Den utvecklar artificiella instinkter mer än intelligens – den granskar enorma mängder rådata och räknar ut hur den ska känna igen en katt på ett foto eller en missilkastare på en överbefolkad motorväg snarare än att ägna sig åt djupgående tankeverksamhet (åtminstone under överskådlig framtid).
Denna definition gör det möjligt för oss att snabbt identifiera vissa typer av datorsystem som i själva verket inte är artificiell intelligens. De kan vara viktiga, imponerande och avgörande för krigsföraren, men de är inte artificiell intelligens eftersom de inte skapar sina egna algoritmer utifrån data och flera iterationer. Det finns ingen maskininlärning inblandad, för att uttrycka det annorlunda. Som vår kollega Tom Stefanick påpekar finns det en grundläggande skillnad mellan avancerade algoritmer, som har funnits i årtionden (även om de ständigt förbättras i takt med att datorerna blir snabbare), och artificiell intelligens. Det finns också en skillnad mellan ett autonomt vapensystem och AI-styrd robotik.
De datorer som styr en kryssningsmissil eller en drönare visar till exempel inte AI. De följer ett utarbetat, men förutbestämt, manus, där de använder sensorer för att ta in data och sedan lägger in dem i datorer, som sedan använder programvara (utvecklad av människor, i förväg) för att bestämma rätt nästa drag och rätt plats för att detonera eventuella vapen. Detta är autonomi. Det är inte AI.
Relaterat
-
Ordning från kaos
Ryssland, Kina och riskerna för krig: Mitt samtal med general Mark Milley
Onsdag 23 december 2020 -
Ordning från kaos
Hur man skär ner (och inte skär ner) försvarsbudgeten
Torsdag 9 juli 2020
Varför är detta viktigt? För det första borde det få oss att bli mindre andfådda när det gäller artificiell intelligens och se den som en del av en bredare datorrevolution som inleddes under andra halvan av 1900-talet och tog fart under det här århundradet. Dessutom bör det hjälpa oss att se vad som kan eller inte kan vara realistiskt och önskvärt att reglera inom området för framtida krigföring.
Den tidigare vice ordföranden för stabscheferna, general Paul Selva, har nyligen hävdat att Förenta staterna kan vara ungefär ett decennium från att ha kapacitet att bygga en autonom robot som skulle kunna bestämma när den ska skjuta och vem som ska dödas – även om han också hävdade att Förenta staterna inte har några planer på att faktiskt bygga en sådan varelse. Men om man tänker på det på ett annat sätt har vi på vissa sätt redan haft autonoma mördarmaskiner i en generation. Den kryssningsmissil som vi diskuterade ovan har använts sedan 1970-talet. Den har instruktioner för att flyga en viss rutt och sedan detonera sin stridsspets utan att någon människa är inblandad. På 1990-talet visste vi hur man bygger saker som ”Skeet”-submunitioner som kan ligga över ett slagfält och leta efter varma objekt som stridsvagnar – med hjälp av mjukvara som bestämmer när de ska förstöras. Så mördarmaskinen var i praktiken redan i färd med att bestämma själv.
Även om general Selvas terminator inte byggs kommer robotar i vissa fall troligen att få större beslutsbefogenheter att bestämma när våld ska användas, eftersom vi i praktiken redan har gått över denna tröskel. Detta mycket känsliga ämne kräver förvisso en noggrann etisk och rättslig övervakning, och de risker som är förknippade med detta är allvarliga. Men den snabbhet med vilken militära operationer måste genomföras kommer att skapa incitament för att inte ha en person med i beslutsfattandet i många taktiska situationer. Oavsett vad Förenta staterna föredrar skulle begränsningar av automatiserad användning av våldsamt våld också framstå som relativt svåra att förhandla om (även om de vore önskvärda), med tanke på det troliga motståndet från Ryssland och kanske från andra nationer, samt de enorma problemen med verifiering.
Till exempel kan små robotar som kan operera som svärmar på land, i luften eller i vattnet ges ett visst handlingsutrymme när det gäller att bestämma när de ska använda sina dödliga förmågor. Genom att kommunicera med varandra och bearbeta information om fienden i realtid skulle de kunna koncentrera attackerna där försvaret är svagast i en form av strid som John Allen och Amir Husain kallar ”hyperkrig” på grund av sin snabbhet och intensitet. Andra typer av svärmar skulle kunna angripa parkerade flygplan; även små sprängladdningar, som detoneras med precision, skulle kunna sätta vingar eller motorer ur spel eller ge upphov till sekundära och mycket större explosioner. Många länder kommer att ha kapacitet att göra sådana saker under de kommande tjugo åren. Även om Förenta staterna försöker undvika att använda sådana svärmar i dödliga och offensiva syften, kan de välja att använda dem som försvarssköldar (kanske mot nordkoreanska artilleriattacker mot Seoul) eller som störningshjälpmedel för att följa med penetrerande flygplan. Med UAV:er som kan flyga i tio timmar och hundra kilometer kostar nu endast hundratusentals dollar, och fyrhjulingar med en räckvidd på en kilometer mer eller mindre kostar hundratals dollar, är trendlinjerna tydliga – och det är uppenbart att det är överkomligt att använda många drönare på ett organiserat sätt.
Relaterade böcker
-
Targeting the Computer
av Kenneth Flamm1987
-
Skapande. the Computer
av Kenneth Flamm1988
-
Förändra reglerna
Redigerat av Robert W. Crandall and Kenneth Flamm1989
Där reglering kan vara möjlig, och etiskt tvingande, är att begränsa det geografiska och tidsmässiga utrymmet där vapen som drivs av AI eller andra komplexa algoritmer kan använda dödligt våld. De svärmar som nämns ovan kan till exempel endast aktiveras i närheten av ett fartyg, eller i luften nära DMZ i Korea, eller inom ett litet avstånd från ett militärt flygfält. Det kan också vara smart att förbjuda att låta maskiner bestämma när människor ska dödas. Det kan vara frestande att använda ansiktsigenkänningsteknik på framtida robotar för att låta dem jaga nästa bin Laden, Baghdadi eller Soleimani i en stor stad i Mellanöstern. Men risken för misstag, för hackning och för många andra fel kan vara för stor för att tillåta detta. Det är förmodligen också vettigt att förbjuda användningen av artificiell intelligens för att attackera en stor kärnvapenmakts infrastruktur för ledning och kontroll av kärnvapen. Sådana försök skulle kunna ge upphov till en rädsla för ”använd dem eller förlora dem” i en framtida kris och därmed öka riskerna för kärnvapenkrig.
Vi befinner oss i AI:s tidiga dagar. Vi kan ännu inte börja förutse vart den är på väg och vad den kan göra möjligt om tio, tjugo eller trettio år. Men vi kan arbeta hårdare för att förstå vad den faktiskt är – och också tänka hårt på hur vi ska sätta etiska gränser för dess framtida utveckling och användning. Krigföringens framtid, på gott och ont, står bokstavligen på spel.
Lämna ett svar