編集部注:

The National Interestに寄稿したLori Robinson将軍(退役)とMichael O’Hanlon は、米国は「実際に何があるのかを理解するためにもっと努力でき、さらにその将来の開発と使用に倫理的境界線を設ける方法についてよく考えるべきだ」と主張しています。

最近は人工知能が大流行しているようですが。 一般的なメディアでは、作家がAIに注目し、現実のターミネーターロボットからより穏やかなコンパニオンまで、あらゆるイメージを思い起こさせるため、通常のサイバーシステムはほとんど過去のもののように思われます。 情報機関では、中国が閉回路テレビ、顔認識技術、その他の監視システムを使用していることから、1984年とまではいかないまでも、約40年後のビッグブラザーの到来を予感させる。 国防総省では、多くの将校やアナリストが中国とのAI競争について語り、しばしば「米国はこの新興技術領域で二流になるわけにはいかない」と不吉な警告を発している。 政策分野では、AIの倫理的な問題について、例えば、アメリカの敵がいかに悪人であっても、その敵に対して殺傷力を行使する能力を本当にロボットに委ねることができるのか、ということが議論されている。 国防革新委員会による新しい報告書は、AIの将来の倫理に関する広範な原則を提示していますが、一般論にすぎず、まだやるべきことはたくさん残っています。) Lori Robinson

Michael O'Hanlon

Michael E. O’Hanlon

Co-Director – Center for Security, Strategy, and Technology, Africa Security Initiative

すべての本当の意味は何か、AIはすべてそうであると思われるのでしょうか。 私たちは、その答えは複雑であり、このテーマには適度な冷水を浴びせるべきだと考えています。 実際、現在構想されているAIシステムの多くは、開発に数十年かかると言われている。 さらに、AIはしばしば、そうでないものと混同されています。 4607>

AI システムとは基本的に、試行錯誤のプロセスを通じて物事を行う方法を「学習」し、正しいときと間違っているときを知らせる何らかのメカニズム、たとえばペンタゴンの「プロジェクト・メイブン」のように写真の中のミサイルや人ごみの中の人を選び出し、学習したことを将来のデータの診断に適用できるコンピューターである。 つまり、AIは、実質的に機械自身がソフトウェアを構築しているのです。 ある問題に対する大まかな計算方法は人間があらかじめ決めておきますが、実際のアルゴリズムは、コンピュータが膨大なデータを取り込み、処理する中で試行錯誤を重ねながら作り上げていくのです。 機械の思考回路は、実はそれほど高度なものではありません。 膨大な量の生データを調べ、深い思考に関与するのではなく、写真の中の猫や混雑した高速道路のミサイル発射台を認識する方法を見つけ出すなど、知能よりも人工的な本能を発達させています (少なくとも近い将来はそうなるでしょう)。 それらは戦闘員にとって重要であり、印象的であり、重要であるかもしれませんが、データと複数の反復から自身のアルゴリズムを作成しないので、人工知能ではありません。 言い方を変えれば、機械学習が行われているわけではありません。 私たちの同僚であるトム・ステファニックが指摘するように、何十年も前から存在する高度なアルゴリズム(ただし、コンピュータの高速化に伴い、常に改良されています)と人工知能には根本的な違いがあるのです。 また、自律型兵器システムと AI によるロボット工学の間にも違いがあります。

たとえば、巡航ミサイルやドローンを誘導するコンピューターは、AI を表示しているわけではありません。 センサーを使ってデータを取り込み、それをコンピュータに取り込み、コンピュータは(人間が事前に開発した)ソフトウェアを使って、正しい次の行動と武器を爆発させる正しい場所を決定する、という精巧な、しかしあらかじめ決められたスクリプトに従っています。 これが自律性です。 AIではありません。

Related

  • FILE PHOTO: 2020年9月11日、米バージニア州アーリントンのペンタゴンで行われた第19回9.11追悼式典であいさつするマーク・ミルリー米統合参謀本部議長。 REUTERS/Erin Scott/File Photo
    Order from Chaos

    Russia, China, and the risks of war: Mark Milley将軍との対話

    2020年12月23日(水)
  •  米国海兵隊のBriar Purty上等兵は2018年3月21日にカリフォルニア州の海兵隊基地キャンプ・ペンドルトンで行われた都市型先進海軍技術演習2018(ANTX-18)でドローンキラーの対UAS技術のテストを実施した。 2018年3月21日撮影の写真。 米海兵隊/ランス・Cpl. Rhita Daniel/Handout via REUTERS. ATTENTION EDITORS - THIS IMAGE WAS PROVIDED BY A THIRD PARTY - RC130534DFC0
  •  ロシア、モスクワでの戦勝記念日のパレードのリハーサル前に軍の軍人が軍の車の準備をしながらトヴェルスカヤ通りを確保する国家警備隊、2020 年 6 月 18日。 第2次世界大戦でナチスドイツに勝利してから75周年を記念する軍事パレードは、5月9日に予定されていたが、コロナウイルス病(COVID-19)の発生により延期された。 REUTERS/Shamil Zhumatov
    Order from Chaos

    How to cut (and not cut) the defense budget

    Thursday, July 9, 2020

    Or, 身近な例で言えば、スマートフォンでGoogle MapsやWazeなどのアプリを使って、2地点間の最短ルートを推奨している場合、これも必ずしもAIとは限りません。 2つの地点間を結ぶルートは、限られた数しかありません。 何十本、何百本とあるかもしれませんが、その数は有限です。 そのため、あなたの携帯電話のコンピューターは、基本的にそれぞれの合理的な可能性を別々に調べ、他の多くの人々の携帯電話が貢献する広範なネットワークからデータを取り込み、交通状況を計算に反映させることができます。 しかし、実際に計算が行われる方法は、単純で、あらかじめ決められたものです。 ひとつには、AI を、20 世紀後半に始まり今世紀に入って勢いを増した、より広範なコンピューター革命の一要素としてとらえることができるようになるからです。 また、将来の戦争の領域で規制することが現実的で望ましいこと、望ましくないことが見えてくるはずです。

    前統合参謀本部副議長のポール・セルバ将軍は最近、米国はいつ撃つべきか、誰を殺すべきかを決定できる自律型ロボットを作る能力を持つまであと10年ほどしかないと主張しましたが、米国には実際にそのような生物を作る計画はないとも断言しています。 しかし、別の見方をすれば、ある意味、私たちはすでに一世代にわたって自律型殺人マシンを手にしてきたとも言えます。 先に述べた巡航ミサイルは、1970年代から配備されています。 人間が一切介在することなく、決められたルートを飛行し、弾頭を爆発させるという指示が出ているのです。 1990年代には、戦場上空で待機し、戦車のような暖かいものを探して、いつ破壊するかをソフトウェアで決定する「スキート」弾のようなものを作る方法を知っていた。 セルバ将軍のターミネーターが作られなかったとしても、私たちは事実上すでにこの閾値を越えているので、場合によっては、武力行使のタイミングを決定するため、ロボット工学に大きな決定権が与えられる可能性が高いでしょう。 この非常に危ういテーマは、確かに慎重な倫理的・法的監視を必要とし、関連するリスクは深刻です。 しかし、軍事行動を起こすスピードが速ければ速いほど、多くの戦術的状況において、意思決定の輪の中に人を入れないというインセンティブが働くことになる。 米国が何を望むにせよ、ロシアやおそらく他の国々から反対される可能性が高く、また検証に大きな問題があることから、暴力的な力の自動行使に対する制限を交渉することは(たとえ望ましいとしても)比較的困難であるように思われる

    例えば、陸上、空中、または水中で群として動作できる小型ロボットには、いつその致死能力を行使するかを決める一定の自由が与えられるかもしれません。 互いに通信し、敵に関する情報をリアルタイムで処理することで、防御力が最も弱い場所に攻撃を集中させることができます。このような戦闘形態を、ジョン・アレンとアミール・フセインはその速度と強度から「超戦争」と呼んでいます。 また、小型の爆発物を正確に爆発させれば、翼やエンジンを停止させたり、二次的な大爆発を起こしたりすることも可能です。 今後20年の間に、多くの国がこのようなことを可能にする能力を持つようになるだろう。 米国がこのような群れを致死的かつ攻撃的な目的で使用することを避けようとしても、防御的な盾として(おそらくソウルに対する北朝鮮の砲撃に対して)、あるいは貫通する航空機に付随する妨害補助手段として、群れを採用することを選択する可能性がある。 10時間100kmの飛行が可能なUAVの価格は今や数十万ドルにすぎず、射程距離が1km以上のクアッドコプターの価格は数百ドルであることから、トレンドラインは明らかで、多数のドローンを組織的に使用するための手頃な価格は明らかである。

    関連書籍

    • Targeting the Computer

      By Kenneth Flamm

      1987

    • Creating コンピュータ

      著 Kenneth Flamm

      1988

    • Changing the Rules

      Edited by Robert W. Crandall and Kenneth Flamm

      1989

    規制が可能で、倫理的に説得力があるのは、AI やその他の複雑なアルゴリズムによって駆動される兵器が致死力を使用できる地理的および時間的空間を制限することです。 たとえば、上述の群れは、船舶の近く、韓国の非武装地帯付近の空、または軍の飛行場からわずかな距離でのみ有効かもしれません。 また、人を殺すタイミングを機械に決めさせることを禁止するのも賢明かもしれない。 未来のロボットに顔認識技術を搭載し、中東の巨大都市で次のビンラディン、バグダディ、ソレイマニを狩らせるというのは魅力的かもしれない。 しかし、間違いやハッキング、その他多くの誤作動の可能性があり、このようなことを許すにはあまりに大きすぎるかもしれない。 また、主要な核保有国の核のコマンド&コントロール・インフラを攻撃するためにAIを使用することを禁止することも、おそらく理にかなっている。 そのような試みは、将来の危機において「使うか失うか」という恐怖を生じさせ、それによって核戦争のリスクを増大させる可能性があります。

    私たちは AIの黎明期にいます。 それがどこに向かっているのか、10年、20年、30年後に何が可能になるのか、まだ予見し始めることはできません。 しかし、我々はAIが実際に何であるかを理解するために努力することができますし、その将来の開発と使用に倫理的な境界線を設ける方法について真剣に考えることができます。 戦争の未来は、良くも悪くも、文字通り危機に瀕しているのだ