In The National Interest stellen generaal Lori Robinson (ret.) en Michael O’Hanlon dat de Verenigde Staten “harder kunnen werken om te begrijpen wat kunstmatige intelligentie eigenlijk is – en ook hard kunnen nadenken over hoe we ethische grenzen kunnen stellen aan de toekomstige ontwikkeling en het gebruik ervan.”
Kunstmatige intelligentie is tegenwoordig een rage. In de populaire media lijken gewone cybersystemen bijna passé, terwijl schrijvers zich richten op AI en beelden oproepen van alles, van echte Terminator-robots tot meer goedaardige metgezellen. In kringen van inlichtingendiensten suggereren China’s gebruik van gesloten televisiecircuits, gezichtsherkenningstechnologie en andere bewakingssystemen de komst van Big Brother – zo niet helemaal in 1984, dan toch maar zo’n veertig jaar later. In het Pentagon praten legioenen officieren en analisten over de AI-race met China, vaak met de voorbode dat de Verenigde Staten het zich niet kunnen veroorloven om tweede keus te zijn in dit opkomende rijk van de technologie. In beleidskringen vraagt men zich af wat de ethiek van AI is – bijvoorbeeld of we werkelijk aan robots het vermogen kunnen delegeren om dodelijk geweld te gebruiken tegen de vijanden van Amerika, hoe slecht die ook mogen zijn. In een nieuw rapport van de Defense Innovation Board worden algemene beginselen voor de toekomstige ethiek van AI uiteengezet, maar alleen in algemene bewoordingen, zodat er nog veel werk verzet moet worden.
- Lori Robinson
- Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
- Michael E. O’Hanlon
- Co-Director – Center for Security, Strategy, and Technology, Africa Security Initiative
- Related
- Rusland, China, en de risico’s van oorlog: Mijn gesprek met generaal Mark Milley
- Hoe te bezuinigen (en niet te bezuinigen) op het defensiebudget
- Gerelateerde boeken
- Targeting the Computer
- Creating the Computer
- Changing the Rules
Lori Robinson
Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
Michael E. O’Hanlon
Co-Director – Center for Security, Strategy, and Technology, Africa Security Initiative
Wat betekent het allemaal eigenlijk en is AI waarschijnlijk wel wat het belooft te zijn? Wij denken dat het antwoord complex is en dat er een bescheiden dosis koud water over het onderwerp moet worden gegooid. Veel van de AI-systemen die vandaag worden ontwikkeld, zullen tientallen jaren in beslag nemen. Bovendien wordt AI vaak verward met dingen die het niet is. Precisie over het concept zal essentieel zijn als we intelligente discussies willen voeren over hoe we AI in de komende jaren moeten onderzoeken, ontwikkelen en reguleren.
AI-systemen zijn in wezen computers die kunnen “leren” hoe ze dingen moeten doen door middel van een proces van vallen en opstaan met een of ander mechanisme om hen te vertellen wanneer ze goed en wanneer ze fout zijn – zoals het uitzoeken van raketten op foto’s, of mensen in menigten, zoals met het “Project Maven” van het Pentagon – en dan het geleerde toepassen om toekomstige gegevens te diagnosticeren. Met andere woorden, bij AI wordt de software in feite door de machine zelf gebouwd. De brede computationele aanpak voor een bepaald probleem wordt van tevoren bepaald door echte ouderwetse mensen, maar het eigenlijke algoritme wordt gemaakt door een proces van vallen en opstaan door de computer terwijl hij enorme hoeveelheden gegevens binnenkrijgt en verwerkt. Het denkproces van de machine is echt niet zo verfijnd. Hij ontwikkelt eerder kunstmatige instincten dan intelligentie – hij onderzoekt enorme hoeveelheden ruwe gegevens en zoekt uit hoe hij een kat op een foto of een raketwerper op een drukke snelweg kan herkennen, in plaats van diep na te denken (althans voor de nabije toekomst).
Met deze definitie kunnen we snel enkele soorten computersystemen identificeren die in feite geen AI zijn. Ze kunnen belangrijk, indrukwekkend en van cruciaal belang zijn voor de oorlogsvoering, maar ze zijn geen kunstmatige intelligentie omdat ze niet hun eigen algoritmen creëren uit gegevens en meerdere iteraties. Er is geen sprake van machinaal leren, om het anders te zeggen. Zoals onze collega Tom Stefanick opmerkt, is er een fundamenteel verschil tussen geavanceerde algoritmen, die al tientallen jaren bestaan (hoewel ze voortdurend beter worden, omdat computers sneller worden), en kunstmatige intelligentie. Er is ook een verschil tussen een autonoom wapensysteem en AI-gestuurde robotica.
Bijv. de computers die een kruisraket of een drone sturen, vertonen geen AI. Ze volgen een uitgebreid, maar vooraf bepaald script, waarbij ze gebruik maken van sensoren om gegevens op te nemen en deze vervolgens in computers te stoppen, die vervolgens software gebruiken (vooraf ontwikkeld door mensen) om de juiste volgende zet te bepalen en de juiste plaats om eventuele wapens tot ontploffing te brengen. Dit is autonomie. Het is geen AI.
Related
-
Orde uit chaos
Rusland, China, en de risico’s van oorlog: Mijn gesprek met generaal Mark Milley
woensdag 23 december 2020Orde uit chaosHoe te bezuinigen (en niet te bezuinigen) op het defensiebudget
Donderdag 9 juli 2020Of, om een voorbeeld te gebruiken dat voor de meeste mensen dichter bij huis ligt: wanneer je smartphone een app als Google Maps of Waze gebruikt om de snelste route tussen twee punten aan te bevelen, is dit ook niet noodzakelijkerwijs AI. Er zijn maar zoveel mogelijke routes tussen twee plaatsen. Ja, het kunnen er tientallen of honderden zijn, maar het aantal is eindig. Als zodanig kan de computer in je telefoon in wezen elke redelijke mogelijkheid afzonderlijk bekijken, en daarbij gegevens uit het bredere netwerk betrekken dat vele telefoons van andere mensen bijdragen om de verkeersomstandigheden in de berekening te betrekken. Maar de manier waarop de wiskunde feitelijk wordt uitgevoerd, is rechttoe rechtaan en vooraf bepaald.Waarom is dit belangrijk? Ten eerste zou het ons minder ademloos moeten maken over AI, en het moeten zien als een element in een bredere computerrevolutie die in de tweede helft van de twintigste eeuw begon en in deze eeuw aan kracht won. Ook zou het ons moeten helpen te zien wat al dan niet realistisch en wenselijk is om te reguleren op het gebied van toekomstige oorlogsvoering.
De voormalige vice-voorzitter van de gezamenlijke stafchefs, Gen. Paul Selva, heeft onlangs betoogd dat de Verenigde Staten ongeveer tien jaar verwijderd zouden kunnen zijn van de capaciteit om een autonome robot te bouwen die kan beslissen wanneer te schieten en wie te doden – hoewel hij ook beweerde dat de Verenigde Staten geen plannen hebben om daadwerkelijk zo’n wezen te bouwen. Maar als je er anders over denkt, hebben we in zekere zin al een generatie lang autonome moordmachines. Die kruisraket waar we het hierboven over hadden, wordt al sinds de jaren 70 ingezet. Hij heeft instructies om een bepaalde route te vliegen en dan zijn kernkop te laten ontploffen zonder dat er een mens aan te pas komt. En tegen de jaren negentig wisten we hoe we dingen konden bouwen als “skeet” submunitie die boven een slagveld kon blijven hangen en op zoek kon gaan naar warme objecten zoals tanks – met behulp van software om te beslissen wanneer die dan vernietigd moesten worden. Dus de moordmachine besliste in feite al voor zichzelf.
Zelfs als Generaal Selva’s terminator niet wordt gebouwd, zullen robotica in sommige gevallen waarschijnlijk meer beslissingsbevoegdheid krijgen om te beslissen wanneer geweld moet worden gebruikt, omdat we in feite deze drempel al hebben overschreden. Dit zeer beladen onderwerp vereist een zorgvuldig ethisch en juridisch toezicht, dat is zeker, en de bijbehorende risico’s zijn ernstig. Maar de snelheid waarmee militaire operaties moeten worden uitgevoerd zal in veel tactische situaties stimulansen creëren om geen persoon bij de besluitvorming te betrekken. Wat de Verenigde Staten ook mogen verkiezen, beperkingen op geautomatiseerd gebruik van geweld lijken ook relatief moeilijk te onderhandelen (zelfs indien wenselijk), gezien de waarschijnlijke oppositie van Rusland en misschien van andere naties, alsmede enorme problemen met verificatie.
Zo kunnen kleine robots die als zwermen op het land, in de lucht of in het water kunnen opereren, een zekere speelruimte krijgen om te beslissen wanneer ze hun dodelijke capaciteiten inzetten. Door met elkaar te communiceren en informatie over de vijand in real time te verwerken, zouden ze hun aanvallen kunnen concentreren waar de verdediging het zwakst is in een vorm van strijd die John Allen en Amir Husain vanwege zijn snelheid en intensiteit “hyperoorlog” noemen. Andere soorten zwermen zouden geparkeerde vliegtuigen kunnen aanvallen; zelfs kleine explosieven, nauwkeurig tot ontploffing gebracht, zouden vleugels of motoren kunnen uitschakelen of secundaire en veel grotere explosies kunnen veroorzaken. Veel landen zullen in de komende twintig jaar de capaciteit hebben om dergelijke dingen te doen. Zelfs als de Verenigde Staten proberen het gebruik van dergelijke zwermen voor dodelijke en offensieve doeleinden te vermijden, zouden zij ervoor kunnen kiezen ze in te zetten als defensieve schilden (misschien tegen een Noord-Koreaanse artillerieaanval op Seoel) of als storingshulpmiddelen om binnendringende vliegtuigen te begeleiden. Nu UAV’s die tien uur en honderd kilometer kunnen vliegen slechts in de honderdduizenden dollars kosten, en quadcopters met een bereik van een kilometer meer of minder in de honderden dollars kosten, zijn de trendlijnen duidelijk – en de betaalbaarheid van het gebruik van veel drones op een georganiseerde manier is duidelijk.
Gerelateerde boeken
-
Targeting the Computer
Door Kenneth Flamm1987
Creating the Computer
By Kenneth Flamm1988
Changing the Rules
Edit bewerkt door Robert W. Crandall en Kenneth Flamm1989
Waar regelgeving mogelijk kan zijn, en ethisch dwingend, is het beperken van de geografische en temporele ruimte waarin door AI of andere complexe algoritmen aangedreven wapens dodelijk geweld kunnen gebruiken. De hierboven genoemde zwermen zouden bijvoorbeeld alleen ingeschakeld kunnen worden in de buurt van een schip, of in het luchtruim bij de DMZ in Korea, of binnen een kleine afstand van een militair vliegveld. Het kan ook slim zijn om machines niet te laten beslissen wanneer ze mensen doden. Het is misschien verleidelijk om toekomstige robots te voorzien van gezichtsherkenningstechnologie en ze in een grote stad in het Midden-Oosten te laten jagen op de volgende Bin Laden, Baghdadi of Soleimani. Maar de kans op fouten, op hacken en op vele andere storingen is wellicht te groot om zoiets toe te staan. Het is waarschijnlijk ook zinvol om het gebruik van AI te verbieden om de nucleaire commando- en controle-infrastructuur van een grote kernmacht aan te vallen. Dergelijke pogingen zouden aanleiding kunnen geven tot “gebruik ze of verlies ze” angst in een toekomstige crisis en daardoor de risico’s van een kernoorlog vergroten.
We staan aan het begin van AI. We kunnen nog niet voorzien waar het heen zal gaan en wat het mogelijk zal maken in tien, twintig of dertig jaar. Maar we kunnen harder werken om te begrijpen wat het eigenlijk is – en ook hard nadenken over hoe we ethische grenzen kunnen stellen aan de toekomstige ontwikkeling en het gebruik ervan. De toekomst van oorlogvoering, ten goede of ten kwade, staat letterlijk op het spel.
Geef een antwoord