Note de l’éditeur:

Écrivant dans The National Interest, le général Lori Robinson (retraité) et Michael O’Hanlon soutiennent que les États-Unis « peuvent travailler plus dur pour comprendre ce qui est réellement – et aussi réfléchir sérieusement à la façon de mettre des limites éthiques sur son développement et son utilisation futurs. »

L’intelligence artificielle fait fureur ces jours-ci. Dans les médias populaires, les cyber-systèmes ordinaires semblent presque dépassés, alors que les écrivains se concentrent sur l’IA et évoquent des images de tout, des robots Terminator réels aux compagnons plus bénins. Dans les milieux du renseignement, l’utilisation par la Chine de la télévision en circuit fermé, de la technologie de reconnaissance faciale et d’autres systèmes de surveillance suggère l’arrivée de Big Brother – si ce n’est pas tout à fait en 1984, ce n’est qu’environ quarante ans plus tard. Au Pentagone, des légions d’officiers et d’analystes parlent de la course à l’intelligence artificielle avec la Chine, souvent avec des avertissements inquiétants selon lesquels les États-Unis ne peuvent pas se permettre d’être les seconds de la classe dans ce domaine technologique émergent. Dans les cercles politiques, on s’interroge sur l’éthique de l’IA – par exemple, on se demande si nous pouvons vraiment déléguer à des robots la capacité d’utiliser la force létale contre les ennemis de l’Amérique, aussi mauvais soient-ils. Un nouveau rapport du Defense Innovation Board énonce de grands principes pour l’éthique future de l’IA, mais seulement en termes généraux qui laissent beaucoup de travail à faire encore.

Que signifie vraiment tout cela et l’IA est-elle susceptible d’être tout ce qu’elle est censée être ? Nous pensons que la réponse est complexe et qu’une modeste dose d’eau froide devrait être jetée sur le sujet. En fait, le développement de bon nombre des systèmes d’IA envisagés aujourd’hui prendra des décennies. De plus, l’IA est souvent confondue avec ce qu’elle n’est pas. La précision sur le concept sera essentielle si nous voulons avoir des discussions intelligentes sur la façon de rechercher, de développer et de réglementer l’IA dans les années à venir.

Les systèmes d’IA sont essentiellement des ordinateurs qui peuvent « apprendre » comment faire les choses par un processus d’essais et d’erreurs avec un certain mécanisme pour leur dire quand ils ont raison et quand ils ont tort – comme par exemple repérer des missiles dans des photographies, ou des personnes dans des foules, comme avec le « Project Maven » du Pentagone – et ensuite appliquer ce qu’ils ont appris pour diagnostiquer les données futures. En d’autres termes, avec l’IA, le logiciel est construit par la machine elle-même, en fait. L’approche informatique générale d’un problème donné est déterminée à l’avance par de véritables humains à l’ancienne, mais l’algorithme réel est créé par un processus d’essais et d’erreurs par l’ordinateur à mesure qu’il ingère et traite d’énormes quantités de données. Le processus de pensée de la machine n’est pas vraiment très sophistiqué. Elle développe des instincts artificiels plus que de l’intelligence – examinant d’énormes quantités de données brutes et trouvant comment reconnaître un chat sur une photo ou un lanceur de missiles sur une autoroute bondée plutôt que de s’engager dans une réflexion profonde (du moins dans un avenir prévisible).

Cette définition nous permet d’identifier rapidement certains types de systèmes informatiques qui ne sont pas, en fait, de l’IA. Ils peuvent être importants, impressionnants et cruciaux pour le combattant, mais ils ne sont pas de l’intelligence artificielle car ils ne créent pas leurs propres algorithmes à partir de données et d’itérations multiples. Il n’y a pas d’apprentissage automatique, pour le dire autrement. Comme le souligne notre collègue Tom Stefanick, il existe une différence fondamentale entre les algorithmes avancés, qui existent depuis des décennies (bien qu’ils s’améliorent constamment, les ordinateurs devenant plus rapides), et l’intelligence artificielle. Il y a également une différence entre un système d’armement autonome et la robotique dirigée par l’IA.

Par exemple, les ordinateurs qui guident un missile de croisière ou un drone ne font pas preuve d’IA. Ils suivent un scénario élaboré, mais prédéterminé, en utilisant des capteurs pour recueillir des données et les transmettre aux ordinateurs, qui utilisent ensuite des logiciels (développés par des humains, à l’avance) pour déterminer le prochain mouvement et le bon endroit pour faire exploser les armes. C’est de l’autonomie. Ce n’est pas l’IA.

Related

  • FILE PHOTO : Le président américain des chefs d'état-major interarmées, le général Mark Milley, prononce un discours lors de la 19e cérémonie annuelle d'observation du 11 septembre au Pentagone à Arlington, en Virginie, aux États-Unis, le 11 septembre 2020. REUTERS/Erin Scott/File Photo
    L’ordre à partir du chaos

    Russie, Chine, et les risques de guerre : Ma conversation avec le général Mark Milley

    Mercredi 23 décembre 2020
  • Le caporal suppléant Briar Purty, du corps des Marines des États-Unis, teste la technologie de contre-assistance Drone Killer lors de l'exercice de technologie navale avancée urbaine 2018 (ANTX-18) à la base du corps des Marines de Camp Pendleton, en Californie, le 21 mars 2018. Photo prise le 21 mars 2018 . Corps des Marines des États-Unis/Caporal suppléant Rhita Daniel/Handout via REUTERS. ATTENTION RÉDACTEURS - CETTE IMAGE A ÉTÉ FOURNIE PAR UN TIERS - RC130534DFC0
  • Une garde nationale sécurise la rue Tverskaya tandis que des militaires de l'armée préparent leur véhicule militaire avant une répétition du défilé du Jour de la Victoire à Moscou, en Russie, le 18 juin 2020. Le défilé militaire marquant le 75e anniversaire de la victoire sur l'Allemagne nazie lors de la Seconde Guerre mondiale était prévu le 9 mai et a été reporté en raison de l'apparition de la maladie à coronavirus (COVID-19). REUTERS/Shamil Zhumatov
    L’ordre à partir du chaos

    Comment réduire (et ne pas réduire) le budget de la défense

    Jeudi 9 juillet 2020

Or, pour utiliser un exemple plus proche de la maison pour la plupart des gens, lorsque votre smartphone utilise une application comme Google Maps ou Waze pour recommander le chemin le plus rapide entre deux points, ce n’est pas nécessairement, l’IA non plus. Il n’y a qu’un nombre limité de routes possibles entre deux endroits. Oui, il peut y en avoir des dizaines ou des centaines, mais leur nombre est limité. En tant que tel, l’ordinateur de votre téléphone peut essentiellement examiner chaque possibilité raisonnable séparément, en prenant en compte les données du réseau plus large auquel contribuent les téléphones de nombreuses autres personnes pour prendre en compte les conditions de circulation dans le calcul. Mais la façon dont les calculs sont réellement effectués est simple et prédéterminée.

Pourquoi est-ce important ? D’une part, cela devrait nous rendre moins essoufflés par l’IA, et la considérer comme un élément d’une révolution informatique plus large qui a commencé dans la seconde moitié du XXe siècle et s’est accélérée au cours de ce siècle. En outre, cela devrait nous aider à voir ce qui peut ou non être réaliste et souhaitable de réglementer dans le domaine de la guerre future.

L’ancien vice-président des chefs d’état-major interarmées, le général Paul Selva, a récemment soutenu que les États-Unis pourraient être à environ une décennie de la capacité de construire un robot autonome qui pourrait décider quand tirer et qui tuer – bien qu’il ait également affirmé que les États-Unis n’avaient aucun plan pour construire réellement une telle créature. Mais si l’on y réfléchit autrement, d’une certaine manière, nous disposons déjà de machines à tuer autonomes depuis une génération. Le missile de croisière dont nous avons parlé plus haut est déployé depuis les années 1970. Il a reçu des instructions pour suivre un itinéraire donné et faire exploser son ogive sans qu’aucun humain ne soit impliqué. Et dans les années 1990, nous savions comment construire des engins tels que les sous-munitions « skeet », capables de survoler un champ de bataille et de rechercher des objets chauds tels que des chars, en utilisant un logiciel pour décider du moment de leur destruction. Ainsi, la machine tueuse décidait déjà d’elle-même.

Même si le Terminator du général Selva n’est pas construit, la robotique se verra probablement confier dans certains cas une plus grande autorité décisionnelle pour décider quand utiliser la force, puisque nous avons en fait déjà franchi ce seuil. Il est certain que ce sujet très délicat exige un contrôle éthique et juridique minutieux et que les risques associés sont sérieux. Pourtant, la vitesse à laquelle les opérations militaires doivent se dérouler incitera à ne pas faire intervenir une personne dans la boucle de décision dans de nombreux contextes tactiques. Quelle que soit la préférence des États-Unis, les restrictions sur les utilisations automatisées de la force violente sembleraient également relativement difficiles à négocier (même si elles sont souhaitables), étant donné l’opposition probable de la Russie et peut-être d’autres nations, ainsi que les énormes problèmes de vérification.

Par exemple, les petits robots qui peuvent opérer en essaim sur terre, dans l’air ou dans l’eau peuvent bénéficier d’une certaine marge de manœuvre pour décider quand utiliser leurs capacités létales. En communiquant entre eux et en traitant les informations sur l’ennemi en temps réel, ils pourraient concentrer leurs attaques là où les défenses sont les plus faibles, dans une forme de combat que John Allen et Amir Husain appellent « hyper-guerre » en raison de sa rapidité et de son intensité. D’autres types d’essaims pourraient attaquer des avions stationnés ; même de petits explosifs, déclenchés avec précision, pourraient désactiver les ailes ou les moteurs ou produire des explosions secondaires beaucoup plus importantes. De nombreux pays auront la capacité de faire de telles choses dans les vingt prochaines années. Même si les États-Unis tentent d’éviter d’utiliser ces essaims à des fins létales et offensives, ils pourraient choisir de les employer comme boucliers défensifs (peut-être contre une attaque d’artillerie nord-coréenne contre Séoul) ou comme aides au brouillage pour accompagner les avions pénétrants. Avec des drones qui peuvent voler dix heures et cent kilomètres ne coûtant plus que des centaines de milliers de dollars, et des quadcoptères avec des portées d’un kilomètre de plus ou de moins coûtant des centaines de dollars, les lignes de tendance sont claires – et le caractère abordable de l’utilisation de nombreux drones de manière organisée est évident.

Livres connexes

  • Cibler l’ordinateur

    Par Kenneth Flamm

    1987

  • Créer… l’ordinateur

    Par Kenneth Flamm

    1988

  • Changer les règles

    Éditée par Robert W. Crandall et Kenneth Flamm

    1989

L’endroit où la réglementation peut être possible, et éthiquement contraignante, est la limitation de l’espace géographique et temporel où les armes pilotées par l’IA ou d’autres algorithmes complexes peuvent utiliser la force létale. Par exemple, les essaims mentionnés ci-dessus pourraient n’être activés qu’à proximité d’un navire, ou dans les cieux près de la DMZ en Corée, ou à une faible distance d’un aérodrome militaire. Il pourrait également être judicieux d’interdire de laisser les machines décider du moment où il faut tuer les gens. Il pourrait être tentant d’utiliser la technologie de reconnaissance faciale sur les futurs robots pour leur faire chasser les prochains Ben Laden, Baghdadi ou Soleimani dans une immense ville du Moyen-Orient. Mais le risque d’erreur, de piratage et de nombreux autres dysfonctionnements est peut-être trop important pour permettre ce genre de choses. Il est probablement également judicieux d’interdire l’utilisation de l’IA pour attaquer l’infrastructure de commande et de contrôle nucléaire d’une grande puissance nucléaire. De telles tentatives pourraient susciter des craintes du type « utilisez-les ou perdez-les » dans une crise future et augmenter ainsi les risques de guerre nucléaire.

Nous en sommes aux premiers jours de l’IA. Nous ne pouvons pas encore commencer à prévoir où elle va et ce qu’elle pourrait rendre possible dans dix, vingt ou trente ans. Mais nous pouvons travailler plus dur pour comprendre ce qu’elle est réellement – et aussi réfléchir sérieusement à la façon de mettre des limites éthiques à son développement et à son utilisation futurs. L’avenir de la guerre, pour le meilleur ou pour le pire, est littéralement en jeu.