Nota dell’editore:

Scrivendo su The National Interest, il generale Lori Robinson (ret.) e Michael O’Hanlon sostengono che gli Stati Uniti “possono lavorare di più per capire cosa sia realmente – e anche pensare intensamente a come porre limiti etici al suo futuro sviluppo e utilizzo”

L’intelligenza artificiale è di gran moda in questi giorni. Nei media popolari, i normali sistemi informatici sembrano quasi superati, mentre gli scrittori si concentrano sull’IA ed evocano immagini di tutto, dai robot Terminator della vita reale a compagni più benigni. Nei circoli dell’intelligence, l’uso della Cina della televisione a circuito chiuso, la tecnologia di riconoscimento facciale e altri sistemi di monitoraggio suggeriscono l’arrivo del Grande Fratello, se non proprio nel 1984, allora solo circa quarant’anni dopo. Al Pentagono, legioni di ufficiali e analisti parlano della corsa all’IA con la Cina, spesso con ammonizioni premonitrici che gli Stati Uniti non possono permettersi di essere secondi in questo regno emergente della tecnologia. Nei circoli politici, la gente si interroga sull’etica dell’IA, ad esempio se possiamo davvero delegare ai robot la capacità di usare la forza letale contro i nemici dell’America, per quanto cattivi possano essere. Un nuovo rapporto del Defense Innovation Board stabilisce ampi principi per la futura etica dell’IA, ma solo in termini generali che lasciano molto lavoro da fare.

Cosa significa veramente tutto questo e l’IA può essere tutto quello che si dice? Pensiamo che la risposta sia complessa e che una modesta dose di acqua fredda dovrebbe essere gettata sull’argomento. Infatti, molti dei sistemi di IA previsti oggi richiederanno decenni per essere sviluppati. Inoltre, l’IA viene spesso confusa con cose che non è. La precisione sul concetto sarà essenziale se vogliamo avere discussioni intelligenti su come ricercare, sviluppare e regolare l’IA negli anni a venire.

I sistemi IA sono fondamentalmente computer che possono “imparare” come fare le cose attraverso un processo di prove ed errori con qualche meccanismo che dica loro quando hanno ragione e quando sono sbagliati – come scegliere i missili nelle fotografie o le persone nella folla, come nel “Progetto Maven” del Pentagono – e poi applicare ciò che hanno imparato per diagnosticare dati futuri. In altre parole, con l’IA, il software è costruito dalla macchina stessa, in effetti. L’approccio computazionale generale per un dato problema è determinato in anticipo da veri umani vecchio stile, ma l’algoritmo effettivo è creato attraverso un processo di prove ed errori dal computer mentre ingerisce ed elabora enormi quantità di dati. Il processo di pensiero della macchina non è davvero così sofisticato. Sta sviluppando istinti artificiali più che intelligenza – esaminando enormi quantità di dati grezzi e capendo come riconoscere un gatto in una foto o un lanciamissili su un’autostrada affollata piuttosto che impegnarsi in un pensiero profondo (almeno per il prossimo futuro).

Questa definizione ci permette di identificare rapidamente alcuni tipi di sistemi informatici che non sono, di fatto, AI. Possono essere importanti, impressionanti e cruciali per il warfighter, ma non sono intelligenza artificiale perché non creano i propri algoritmi a partire da dati e iterazioni multiple. Non c’è nessun apprendimento automatico coinvolto, per dirla diversamente. Come sottolinea il nostro collega Tom Stefanick, c’è una differenza fondamentale tra gli algoritmi avanzati, che esistono da decenni (anche se migliorano costantemente, dato che i computer diventano più veloci), e l’intelligenza artificiale. C’è anche una differenza tra un sistema di armi autonomo e la robotica diretta dall’IA.

Per esempio, i computer che guidano un missile da crociera o un drone non mostrano l’IA. Seguono un elaborato, ma predeterminato, copione, usando sensori per prendere dati e poi mettendoli nei computer, che poi usano un software (sviluppato da umani, in anticipo) per determinare la giusta mossa successiva e il posto giusto per far esplodere qualsiasi arma. Questa è autonomia. Non è AI.

Related

  • FILE PHOTO: Il presidente dei Capi di Stato Maggiore degli Stati Uniti, il generale Mark Milley, fa delle osservazioni durante la 19a cerimonia annuale di commemorazione dell'11 settembre al Pentagono ad Arlington, Virginia, Stati Uniti, 11 settembre 2020. REUTERS/Erin Scott/File Photo
    Ordine dal caos

    Russia, Cina e rischi di guerra: La mia conversazione con il generale Mark Milley

    mercoledì 23 dicembre 2020

  • Il Caporale del Corpo dei Marines degli Stati Uniti Briar Purty prova la tecnologia Drone Killer Counter-UAS durante l'Urban Advanced Naval Technology Exercise 2018 (ANTX-18) alla Marine Corps Base Camp Pendleton, California, 21 marzo 2018. Immagine scattata il 21 marzo 2018. U.S. Marine Corps/Lance Cpl. Rhita Daniel/Handout via REUTERS. ATTENZIONE EDITORI - QUESTA IMMAGINE È STATA FORNITA DA UNA TERZA PARTE - RC130534DFC0
  • Una guardia nazionale mette in sicurezza Tverskaya Street mentre i militari dell'esercito preparano il loro veicolo militare prima di una prova della parata del Giorno della Vittoria a Mosca, Russia, 18 giugno 2020. La parata militare che segna il 75° anniversario della vittoria sulla Germania nazista nella seconda guerra mondiale era prevista per il 9 maggio e rinviata a causa dello scoppio della malattia da coronavirus (COVID-19). REUTERS/Shamil Zhumatov
    Ordine dal caos

    Come tagliare (e non tagliare) il bilancio della difesa

    Giovedì 9 luglio 2020

Oppure, per usare un esempio più vicino a casa per la maggior parte delle persone, quando il vostro smartphone utilizza un’applicazione come Google Maps o Waze per raccomandare il percorso più veloce tra due punti, questo non è necessariamente, neanche AI. Ci sono solo tanti possibili percorsi tra due luoghi. Sì, ci possono essere decine o centinaia, ma il numero è finito. Come tale, il computer nel vostro telefono può essenzialmente guardare ogni possibilità ragionevole separatamente, prendendo in dati dalla rete più ampia che i telefoni di molte altre persone contribuiscono a condizioni di traffico fattore nel calcolo. Ma il modo in cui i calcoli vengono fatti è semplice e predeterminato.

Perché questo è importante? Per prima cosa, dovrebbe farci sentire meno il fiato sul collo dell’IA, e vederla come un elemento di una più ampia rivoluzione informatica che è iniziata nella seconda metà del ventesimo secolo e ha preso piede in questo secolo. Inoltre, dovrebbe aiutarci a vedere cosa può o non può essere realistico e desiderabile regolare nel regno della guerra futura.

L’ex vice presidente dei capi di stato maggiore, il generale Paul Selva, ha recentemente sostenuto che gli Stati Uniti potrebbero essere a circa un decennio di distanza dall’avere la capacità di costruire un robot autonomo che potrebbe decidere quando sparare e chi uccidere – anche se ha anche affermato che gli Stati Uniti non hanno piani per costruire effettivamente una tale creatura. Ma se ci pensate diversamente, in qualche modo abbiamo già avuto macchine assassine autonome per una generazione. Quel missile da crociera di cui abbiamo parlato sopra è stato distribuito fin dagli anni ’70. Ha le istruzioni per volare su una data rotta e poi far esplodere la sua testata senza alcun umano nel circuito. E negli anni ’90, sapevamo come costruire cose come le submunizioni “skeet” che potevano sorvolare un campo di battaglia e cercare oggetti caldi come i carri armati, usando un software per decidere quando distruggerli. Quindi la macchina assassina in effetti stava già decidendo per se stessa.

Anche se il terminator del generale Selva non viene costruito, la robotica in alcuni casi sarà probabilmente dotata di una maggiore autorità decisionale per decidere quando usare la forza, dato che in effetti abbiamo già superato questa soglia. Questo argomento molto delicato richiede un’attenta supervisione etica e legale, per essere sicuri, e i rischi associati sono seri. Tuttavia, la velocità con cui le operazioni militari devono avvenire creerà incentivi per non avere una persona nel ciclo decisionale in molti contesti tattici. Qualunque cosa gli Stati Uniti possano preferire, le restrizioni sugli usi automatizzati della forza violenta sembrerebbero anche relativamente difficili da negoziare (anche se desiderabili), data la probabile opposizione della Russia e forse di altre nazioni, così come gli enormi problemi di verifica.

Per esempio, ai piccoli robot che possono operare come sciami sulla terra, nell’aria o nell’acqua può essere data una certa libertà di decidere quando utilizzare le loro capacità letali. Comunicando tra loro ed elaborando informazioni sul nemico in tempo reale, potrebbero concentrare gli attacchi dove le difese sono più deboli in una forma di combattimento che John Allen e Amir Husain chiamano “iperguerra” per la sua velocità e intensità. Altri tipi di sciami potrebbero attaccare aerei parcheggiati; anche piccoli esplosivi, fatti esplodere con precisione, potrebbero disabilitare ali o motori o produrre esplosioni secondarie e molto più grandi. Molti paesi avranno la capacità di fare queste cose nei prossimi venti anni. Anche se gli Stati Uniti cercano di evitare di usare tali sciami per scopi letali e offensivi, potrebbero scegliere di impiegarli come scudi difensivi (forse contro l’attacco dell’artiglieria nordcoreana contro Seul) o come aiuti di disturbo per accompagnare aerei penetranti. Con gli UAV che possono volare per dieci ore e cento chilometri ora costano solo centinaia di migliaia di dollari, e i quadcopter con gittate di un chilometro più o meno costano centinaia di dollari, le linee di tendenza sono chiare – e l’accessibilità economica di usare molti droni in modo organizzato è evidente.

Libri correlati

  • Targeting the Computer

    Di Kenneth Flamm

    1987

  • Creare the Computer

    By Kenneth Flamm

    1988

  • Changing the Rules

    Edited by Robert W. Crandall e Kenneth Flamm

    1989

L’ambito in cui la regolamentazione può essere possibile, ed eticamente convincente, è limitare lo spazio geografico e temporale in cui le armi guidate dall’IA o altri algoritmi complessi possono usare la forza letale. Per esempio, gli sciami di cui sopra potrebbero essere abilitati solo vicino a una nave, o nei cieli vicino alla DMZ in Corea, o entro una piccola distanza da un campo di aviazione militare. Potrebbe anche essere intelligente vietare che le macchine decidano quando uccidere le persone. Potrebbe essere allettante usare la tecnologia di riconoscimento facciale sui futuri robot per fargli dare la caccia al prossimo bin Laden, Baghdadi o Soleimani in una grande città del Medio Oriente. Ma il potenziale di errori, di hacking e di molti altri malfunzionamenti potrebbe essere troppo grande per permettere questo tipo di cose. Probabilmente ha anche senso vietare l’uso dell’IA per attaccare l’infrastruttura di comando e controllo nucleare di una grande potenza nucleare. Tali tentativi potrebbero far nascere il timore di “usarli o perderli” in una crisi futura e quindi aumentare i rischi di guerra nucleare.

Siamo agli albori dell’IA. Non possiamo ancora cominciare a prevedere dove sta andando e cosa potrebbe rendere possibile tra dieci o venti o trent’anni. Ma possiamo lavorare di più per capire cosa sia effettivamente – e anche pensare intensamente a come porre limiti etici al suo futuro sviluppo e uso. Il futuro della guerra, nel bene e nel male, è letteralmente in gioco.