Escrita em The National Interest, o General Lori Robinson (ret.) e Michael O’Hanlon argumentam que os Estados Unidos “podem trabalhar mais para entender o que realmente é – e também pensar muito sobre como colocar limites éticos em seu desenvolvimento e uso futuro”
A inteligência artificial é toda a raiva hoje em dia. Na mídia popular, os sistemas cibernéticos regulares parecem quase passar, pois os escritores se concentram na IA e evocam imagens de tudo, desde robôs Terminator da vida real até companheiros mais benignos. Nos círculos de inteligência, os usos da China de circuitos fechados de televisão, tecnologia de reconhecimento facial e outros sistemas de monitoramento sugerem a chegada do Big Brother – se não exatamente em 1984, então apenas cerca de quarenta anos depois. No Pentágono, legiões de oficiais e analistas falam sobre a raça AI com a China, muitas vezes com admoestações de que os Estados Unidos não podem se dar ao luxo de ficar em segundo lugar na classe neste reino emergente da tecnologia. Nos círculos políticos, as pessoas se perguntam sobre a ética da IA – como se nós pudéssemos realmente delegar aos robôs a habilidade de usar força letal contra os inimigos da América, por pior que eles sejam. Um novo relatório do Conselho de Inovação da Defesa estabelece princípios gerais para a ética futura da IA, mas apenas em termos gerais que deixam muito trabalho a ser feito.
- Lori Robinson
- Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
- Michael E. O’Hanlon
- Co-Director – Center for Security, Strategy, and Technology, Africa Security Initiative
- Related
- Rússia, China, e os riscos da guerra: Minha conversa com o General Mark Milley
- Como cortar (e não cortar) o orçamento da defesa
- Livros relacionados
- Mirar o computador
- Criar o computador
- Modificando as Regras
Lori Robinson
Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
Michael E. O’Hanlon
>
Co-Director – Center for Security, Strategy, and Technology, Africa Security Initiative
>
>
>
>
O que é que tudo isto realmente significa e é provável que a IA seja tudo o que está rachado para ser? Achamos que a resposta é complexa e que uma modesta dose de água fria deve ser jogada sobre o assunto. Na verdade, muitos dos sistemas de IA que estão sendo previstos hoje levarão décadas para se desenvolver. Além disso, a IA está frequentemente sendo confundida com coisas que ela não é. Precisão sobre o conceito será essencial se quisermos ter discussões inteligentes sobre como pesquisar, desenvolver e regular a IA nos próximos anos.
Sistemas de IA são basicamente computadores que podem “aprender” como fazer as coisas através de um processo de tentativa e erro com algum mecanismo para dizer-lhes quando estão certos e quando estão errados – como escolher mísseis em fotografias, ou pessoas em multidões, como com o “Projeto Maven” do Pentágono – e depois aplicar o que aprenderam para diagnosticar dados futuros. Em outras palavras, com IA, o software é construído pela própria máquina, em efeito. A ampla abordagem computacional para um determinado problema é determinada antecipadamente por humanos reais antiquados, mas o algoritmo real é criado através de um processo de tentativa e erro pelo computador à medida que ele ingere e processa enormes quantidades de dados. O processo de pensamento da máquina não é realmente assim tão sofisticado. Ele está desenvolvendo instintos artificiais mais do que examinar enormes quantidades de dados brutos e descobrir como reconhecer um gato em uma foto ou um lançador de mísseis em uma rodovia lotada ao invés de se envolver em pensamento profundo (pelo menos para o futuro previsível).
Esta definição nos permite identificar rapidamente alguns tipos de sistemas de computador que não são, de fato, IA. Eles podem ser importantes, impressionantes e cruciais para o guerreiro, mas eles não são inteligência artificial porque eles não criam seus próprios algoritmos a partir de dados e iterações múltiplas. Não há nenhuma aprendizagem de máquina envolvida, para colocar de forma diferente. Como nosso colega, Tom Stefanick, aponta, há uma diferença fundamental entre algoritmos avançados, que existem há décadas (embora eles estejam constantemente melhorando, à medida que os computadores ficam mais rápidos), e inteligência artificial. Há também uma diferença entre um sistema de armas autónomo e a robótica orientada por IA.
Por exemplo, os computadores que guiam um míssil de cruzeiro ou um drone não estão a mostrar IA. Eles seguem um script elaborado, mas pré-determinado, usando sensores para receber dados e depois colocá-los em computadores, que depois usam software (desenvolvido por humanos, com antecedência) para determinar o próximo passo certo e o lugar certo para detonar qualquer arma. Isto é autonomia. Não é AI.
Related
-
Ordem do Caos
Rússia, China, e os riscos da guerra: Minha conversa com o General Mark Milley
Quarta-feira, 23 de dezembro de 2020 - >
>
- >
Ordem do CaosComo cortar (e não cortar) o orçamento da defesa
Quinta-feira, 9 de julho de 2020
Por que isso é importante? Por um lado, deveria nos deixar menos sem fôlego sobre a IA, e vê-la como um elemento de uma revolução informática mais ampla que começou na segunda metade do século XX e ganhou força neste século. Além disso, deve nos ajudar a ver o que pode ou não ser realista e desejável para regular no reino da guerra futura.
O ex-vice-presidente dos chefes de estado-maior, General Paul Selva, argumentou recentemente que os Estados Unidos poderiam estar a cerca de uma década de ter a capacidade de construir um robô autônomo que pudesse decidir quando atirar e quem matar – embora ele também tenha afirmado que os Estados Unidos não tinham planos de realmente construir tal criatura. Mas se pensarmos de maneira diferente, de certa forma já temos máquinas assassinas autônomas há uma geração. Aquele míssil de cruzeiro que discutimos acima tem sido usado desde os anos 70. Ele tem instruções para voar numa determinada rota e depois detonar a sua ogiva sem nenhum humano no circuito. E nos anos 90, nós soubemos como construir coisas como submunições “esqueleto” que poderiam vagar sobre um campo de batalha e procurar por objetos quentes como tanques – usando software para decidir quando destruí-los então. Então a máquina assassina já estava de fato decidindo por si mesma.
Even se o terminador do General Selva não for construído, a robótica provavelmente terá, em alguns casos, maior autoridade para decidir quando usar a força, já que nós já ultrapassamos esse limite. Este assunto altamente carregado requer uma cuidadosa supervisão ética e legal, para se ter certeza, e os riscos associados são sérios. No entanto, a velocidade a que as operações militares devem ocorrer criará incentivos para não ter uma pessoa no ciclo de tomada de decisões em muitos cenários tácticos. Seja qual for a preferência dos Estados Unidos, as restrições ao uso automatizado da força violenta também parecem relativamente difíceis de negociar (mesmo que desejável), dada a provável oposição da Rússia e talvez de outras nações, bem como os enormes problemas de verificação.
Por exemplo, pequenos robôs que podem operar como enxames em terra, no ar ou na água podem ter certa margem de manobra para decidir quando operar as suas capacidades letais. Ao comunicarem-se uns com os outros, e ao processarem informações sobre o inimigo em tempo real, eles poderiam concentrar ataques onde as defesas são mais fracas numa forma de combate que John Allen e Amir Husain chamam de “hiper-guerra” por causa de sua velocidade e intensidade. Outros tipos de enxames poderiam atacar aeronaves estacionadas; mesmo pequenos explosivos, precisamente detonados, poderiam desativar asas ou motores ou produzir explosões secundárias e muito maiores. Muitos países terão a capacidade de fazer tais coisas nos próximos vinte anos. Mesmo que os Estados Unidos tentem evitar usar tais enxames para fins letais e ofensivos, podem optar por usá-los como escudos defensivos (talvez contra ataques da artilharia norte-coreana contra Seul) ou como auxiliares de interferência para acompanhar aeronaves penetrantes. Com UAVs que podem voar dez horas e cem quilômetros agora custando apenas centenas de milhares de dólares, e quadcopters com alcance de um quilômetro mais ou menos custando centenas de dólares, as linhas de tendência são claras – e a acessibilidade do uso de muitos drones de forma organizada é evidente.
Livros relacionados
-
Mirar o computador
Por Kenneth Flamm1987
-
Criar o computador
Por Kenneth Flamm1988
Modificando as Regras
1989
Onde a regulação pode ser possível, e eticamente convincente, está limitando o espaço geográfico e temporal onde armas movidas por IA ou outros algoritmos complexos podem usar força letal. Por exemplo, os enxames mencionados acima podem ser ativados apenas perto de uma nave, ou nos céus próximos à DMZ na Coréia, ou a uma pequena distância de um aeródromo militar. Também pode ser inteligente proibir que as máquinas deixem decidir quando matar pessoas. Pode ser tentador usar a tecnologia de reconhecimento facial em futuros robôs para que eles caçam o próximo Bin Laden, Bagdáli ou Soleimani numa enorme cidade do Médio Oriente. Mas o potencial para erros, para hacking, e para muitas outras avarias pode ser demasiado grande para permitir este tipo de coisas. Provavelmente também faz sentido proibir o uso de IA para atacar a infra-estrutura de comando e controle nuclear de uma grande potência nuclear. Tais tentativas podem dar origem a receios de “usá-los ou perdê-los” em uma crise futura e assim aumentar os riscos de guerra nuclear.
Estamos nos primeiros dias da IA. Ainda não podemos começar a prever para onde ela está indo e o que ela pode tornar possível em dez, vinte ou trinta anos. Mas podemos nos esforçar mais para entender o que ela realmente é – e também pensar muito sobre como colocar limites éticos em seu desenvolvimento e uso futuros. O futuro da guerra, para o melhor e para o pior, está literalmente em jogo.
Deixe uma resposta