Nota del editor:

Escribiendo en The National Interest, el general Lori Robinson (retirado) y Michael O’Hanlon sostienen que Estados Unidos «puede esforzarse más por comprender lo que realmente es -y también pensar mucho en cómo poner límites éticos a su futuro desarrollo y uso»

La inteligencia artificial está de moda estos días. En los medios de comunicación populares, los sistemas cibernéticos normales parecen casi pasados de moda, ya que los escritores se centran en la IA y evocan imágenes de todo tipo, desde robots Terminator de la vida real hasta compañeros más benignos. En los círculos de inteligencia, el uso que hace China del circuito cerrado de televisión, la tecnología de reconocimiento facial y otros sistemas de vigilancia sugieren la llegada del Gran Hermano, si no exactamente en 1984, sólo unos cuarenta años después. En el Pentágono, legiones de oficiales y analistas hablan de la carrera de la IA con China, a menudo con advertencias premonitorias de que Estados Unidos no puede permitirse ser el segundo de la clase en este ámbito tecnológico emergente. En los círculos políticos, la gente se pregunta sobre la ética de la IA, por ejemplo, si realmente podemos delegar en los robots la capacidad de utilizar la fuerza letal contra los enemigos de Estados Unidos, por muy malos que sean. Un nuevo informe del Consejo de Innovación de Defensa establece principios generales para la futura ética de la IA, pero sólo en términos generales que dejan mucho trabajo por hacer.

¿Qué significa realmente todo esto y si es probable que la IA sea todo lo que se dice? Creemos que la respuesta es compleja y que hay que echar una modesta dosis de agua fría sobre el tema. De hecho, muchos de los sistemas de IA que se prevén hoy en día tardarán décadas en desarrollarse. Además, a menudo se confunde la IA con cosas que no son. La precisión del concepto será esencial si queremos mantener debates inteligentes sobre cómo investigar, desarrollar y regular la IA en los próximos años.

Los sistemas de IA son básicamente ordenadores que pueden «aprender» a hacer cosas a través de un proceso de ensayo y error con algún mecanismo que les indique cuándo están bien y cuándo están mal -como detectar misiles en fotografías o personas en multitudes, como con el «Proyecto Maven» del Pentágono- y luego aplicar lo que han aprendido para diagnosticar datos futuros. En otras palabras, con la IA, el software lo construye la propia máquina, en efecto. El enfoque computacional general para un problema determinado lo determinan de antemano los humanos de verdad, pero el algoritmo real lo crea el ordenador mediante un proceso de prueba y error a medida que ingiere y procesa enormes cantidades de datos. El proceso de pensamiento de la máquina no es realmente tan sofisticado. Está desarrollando instintos artificiales más que inteligencia, examinando enormes cantidades de datos en bruto y averiguando cómo reconocer un gato en una foto o un lanzador de misiles en una autopista atestada, en lugar de dedicarse a un pensamiento profundo (al menos en el futuro inmediato).

Esta definición nos permite identificar rápidamente algunos tipos de sistemas informáticos que no son, de hecho, IA. Pueden ser importantes, impresionantes y cruciales para el combatiente, pero no son inteligencia artificial porque no crean sus propios algoritmos a partir de datos y múltiples iteraciones. No hay aprendizaje automático, por decirlo de otro modo. Como señala nuestro colega Tom Stefanick, hay una diferencia fundamental entre los algoritmos avanzados, que existen desde hace décadas (aunque mejoran constantemente, ya que los ordenadores son cada vez más rápidos), y la inteligencia artificial. También hay una diferencia entre un sistema de armas autónomo y la robótica dirigida por IA.

Por ejemplo, los ordenadores que guían un misil de crucero o un avión no tripulado no muestran IA. Siguen un guión elaborado, pero predeterminado, que utiliza sensores para tomar datos y luego los introduce en los ordenadores, que a su vez utilizan un software (desarrollado por humanos, de antemano) para determinar el siguiente movimiento correcto y el lugar adecuado para detonar cualquier arma. Esto es autonomía. No es IA.

Relación

  • Foto de archivo: El jefe del Estado Mayor Conjunto de Estados Unidos, el general Mark Milley, pronuncia un discurso durante la 19ª ceremonia anual de conmemoración del 11 de septiembre en el Pentágono en Arlington, Virginia, Estados Unidos, el 11 de septiembre de 2020. REUTERS/Erin Scott/File Photo
    Orden del caos

    Rusia, China y los riesgos de la guerra: Mi conversación con el general Mark Milley

    Miércoles, 23 de diciembre de 2020

  • El cabo primero del Cuerpo de Marines de los Estados Unidos Briar Purty prueba la tecnología Drone Killer Counter-UAS durante el Ejercicio Urbano de Tecnología Naval Avanzada 2018 (ANTX-18) en la Base del Cuerpo de Marines de Camp Pendleton, California, el 21 de marzo de 2018. Foto tomada el 21 de marzo de 2018. Cuerpo de Marines de los Estados Unidos/Suboficial Rhita Daniel/Handout vía REUTERS. ATENCIÓN EDITORES - ESTA IMAGEN FUE PROPORCIONADA POR UN TERCERO - RC130534DFC0
  • Una Guardia Nacional asegura la calle Tverskaya mientras los militares preparan su vehículo militar antes de un ensayo para el desfile del Día de la Victoria en Moscú, Rusia, 18 de junio de 2020. El desfile militar que marca el 75º aniversario de la victoria sobre la Alemania nazi en la Segunda Guerra Mundial estaba previsto para el 9 de mayo y se pospuso debido al brote de la enfermedad del coronavirus (COVID-19). REUTERS/Shamil Zhumatov
    Orden desde el caos

    Cómo recortar (y no recortar) el presupuesto de defensa

    Jueves, 9 de julio de 2020

O, para usar un ejemplo más cercano para la mayoría de la gente, cuando tu smartphone usa una aplicación como Google Maps o Waze para recomendar la ruta más rápida entre dos puntos, esto tampoco es necesariamente, IA. Sólo hay un número determinado de rutas posibles entre dos lugares. Sí, puede haber docenas o cientos, pero el número es finito. Por eso, el ordenador de tu teléfono puede estudiar cada posibilidad razonable por separado, tomando los datos de la red más amplia a la que contribuyen los teléfonos de muchas otras personas para tener en cuenta las condiciones del tráfico en el cálculo. Pero la forma en que se hacen los cálculos es sencilla y está predeterminada.

¿Por qué es esto importante? En primer lugar, debería hacer que nos quedáramos sin aliento con respecto a la IA y que la viéramos como un elemento de una revolución informática más amplia que comenzó en la segunda mitad del siglo XX y cobró fuerza en este siglo. Además, debería ayudarnos a ver lo que puede o no ser realista y deseable regular en el ámbito de la guerra futura.

El ex vicepresidente del Estado Mayor Conjunto, el general Paul Selva, ha afirmado recientemente que Estados Unidos podría estar a una década de distancia de tener la capacidad de construir un robot autónomo que pueda decidir cuándo disparar y a quién matar, aunque también afirmó que Estados Unidos no tenía planes de construir realmente tal criatura. Pero si lo pensamos de otra manera, en cierto modo ya tenemos máquinas asesinas autónomas desde hace una generación. Ese misil de crucero del que hablábamos antes lleva desplegado desde la década de 1970. Tiene instrucciones para volar por una ruta determinada y luego detonar su ojiva sin que haya ningún humano en el circuito. Y en la década de 1990, ya sabíamos cómo construir cosas como submuniciones «skeet» que podían merodear sobre un campo de batalla y buscar objetos calientes como tanques, utilizando un software para decidir cuándo destruirlos. Así que la máquina asesina ya estaba decidiendo por sí misma.

Incluso si no se construye el terminator del general Selva, es probable que en algunos casos se le dé a la robótica una mayor autoridad para decidir cuándo usar la fuerza, ya que de hecho ya hemos cruzado este umbral. Este tema tan delicado requiere una cuidadosa supervisión ética y legal, sin duda, y los riesgos asociados son graves. Sin embargo, la velocidad a la que deben producirse las operaciones militares creará incentivos para no contar con una persona en el ciclo de toma de decisiones en muchos escenarios tácticos. Independientemente de lo que prefiera Estados Unidos, las restricciones a los usos automatizados de la fuerza violenta también parecerían relativamente difíciles de negociar (incluso si fueran deseables), dada la probable oposición de Rusia y quizás de otras naciones, así como los enormes problemas de verificación.

Por ejemplo, los pequeños robots que pueden operar como enjambres en tierra, en el aire o en el agua pueden tener cierto margen de maniobra para decidir cuándo utilizar sus capacidades letales. Al comunicarse entre sí y procesar la información sobre el enemigo en tiempo real, podrían concentrar los ataques allí donde las defensas son más débiles en una forma de combate que John Allen y Amir Husain denominan «hiperguerra» por su velocidad e intensidad. Otros tipos de enjambres podrían atacar aviones estacionados; incluso pequeños explosivos, detonados con precisión, podrían inutilizar las alas o los motores o producir explosiones secundarias y mucho más grandes. Muchos países tendrán la capacidad de hacer tales cosas en los próximos veinte años. Aunque Estados Unidos intente evitar el uso de estos enjambres con fines letales y ofensivos, puede optar por emplearlos como escudos defensivos (quizás contra un ataque de artillería norcoreano contra Seúl) o como ayudas de interferencia para acompañar a los aviones de penetración. Con vehículos aéreos no tripulados que pueden volar diez horas y cien kilómetros que ahora sólo cuestan cientos de miles de dólares, y cuadricópteros con alcances de un kilómetro más o menos que cuestan cientos de dólares, las líneas de tendencia son claras, y la asequibilidad de usar muchos drones de manera organizada es evidente.

Libros relacionados

  • Apuntando al ordenador

    Por Kenneth Flamm

    1987

  • Creando the Computer

    Por Kenneth Flamm

    1988

  • Cambiando las reglas

    Editado por Robert W. Crandall y Kenneth Flamm

    1989

Donde la regulación puede ser posible, y éticamente convincente, es en la limitación del espacio geográfico y temporal donde las armas manejadas por la IA u otros algoritmos complejos pueden usar la fuerza letal. Por ejemplo, los enjambres mencionados anteriormente sólo podrían habilitarse cerca de un barco, o en los cielos cercanos a la zona desmilitarizada de Corea, o a una pequeña distancia de un aeródromo militar. También puede ser inteligente prohibir que las máquinas decidan cuándo matar a las personas. Puede ser tentador utilizar la tecnología de reconocimiento facial en los futuros robots para que den caza al próximo Bin Laden, Baghdadi o Soleimani en una gran ciudad de Oriente Medio. Pero el potencial de errores, de piratería informática y de muchos otros fallos puede ser demasiado grande para permitir este tipo de cosas. Probablemente también tenga sentido prohibir el uso de la IA para atacar la infraestructura de mando y control nuclear de una gran potencia nuclear. Tales intentos podrían suscitar el temor de «usarlos o perderlos» en una futura crisis y, por tanto, aumentar los riesgos de una guerra nuclear.

Estamos en los primeros días de la IA. Todavía no podemos empezar a prever hacia dónde va y lo que puede hacer posible dentro de diez, veinte o treinta años. Pero podemos esforzarnos por comprender lo que es realmente, y también pensar mucho en cómo poner límites éticos a su futuro desarrollo y uso. El futuro de la guerra, para bien o para mal, está literalmente en juego.