戦争におけるAI: 人工知能は戦場をどう変えるか?

写真:Tech. コーリー・ペイン軍曹|米空軍|
マクシミリアン・シュライナー4・2023
戦争における人工知能と、それが戦争をどう変えていくのか?
軍隊におけるAI技術の主な応用分野は、ロジスティクス、偵察、サイバースペース、戦争の4つである。
最初の3つの分野では、高度なAIアプリケーションがすでに使用されているか、テストされています。
AIは、ロジスティクスチェーンの最適化、必要なメンテナンスの予測、ソフトウェアの脆弱性の発見、膨大な量のデータを実用的な情報にまとめることに貢献しています。
このように、人工知能はすでに軍事作戦に影響を及ぼしています。しかし、戦闘そのものはまだ主に人間によって行われているのです。
戦争の第3の革命
AI支援戦争の前兆として、世界中の紛争地帯で遠隔操縦ドローンの数が増えています。
2009年から2017年の間に、戦闘中のアメリカ兵の数は90%減少し、アメリカのドローンによる攻撃は10倍に増えました。
現在、米国、ロシア、イスラエル、中国、イラン、トルコのドローンが、中東、アフリカ大陸、東南アジア、ヨーロッパで攻撃を飛ばしています。
自律的に目標を特定し攻撃する完全自律型ドローンは現実的な可能性があり、国連の報告書によると、すでに配備されている可能性がある。

このようなシステムは、致死的自律兵器システム(以下「LAWS」)の一例である。
これを厳しく規制したり、全面的に禁止しようとする国際的な取り組みがある。
しかし、戦争を左右するものであるため、特に軍事大国は禁止に消極的である。
自律型兵器は、原爆や火薬の発明に続く、戦争における第3の革命と言われています。
パワーバランスを変える能力も同じだ。
元兵士で米国防総省のコンサルタント、『Army of None』の著者であるポール・シャーレは、「兵器システムにおける高度なAI技術の使用を放棄することは、電気や内燃機関を放棄するのと同じことだ」と言う。
戦争におけるAI:3段階での自律性と浮遊する軍需品
自律型兵器システムのすべてがディストピアの殺人ロボットというわけではない。
兵器システムの自律性は、大きく3つのレベルに分けることができる。
・半自律型兵器システム(人間がループに入る)
・人間が監督する自律型兵器システム(ループ上の人間)
・完全自律型兵器システム(人間はループから外れる)
半自律型兵器システムの例として、人間が発射した後、あらかじめ指定された目標を独立して攻撃する「ファイア・アンド・フォゲット」ミサイルがあります。
これにより、パイロットは複数の標的を連続して攻撃することができます。
このミサイルは、世界中の軍隊が空と地上の標的を攻撃するために使用しています。
人間が監視する自律型兵器システムは、従来、防衛的な性格が強く、人間の反応速度が戦闘のスピードに追いつかない場合に使用されてきました。
USSマスティンのイージスオペレーター

人間の手によって起動されると、常に人間の監視下にありながら、単独で標的を攻撃することができる。
例えば、海軍の艦船に搭載されているイージス艦は、ミサイル、ヘリコプター、航空機を攻撃するシステムであり、パトリオットやアイアンドームといったミサイル防衛システムもその一つです。
このようなシステムは、すでに30カ国以上が使用しているとシャールは言う。
しかし、”loitering munitions “と呼ばれる新しいクラスの兵器が開発されたことで、それは変わりました。
これらの弾頭を搭載した空中ドローンは自律機能を持ち、特定のターゲットを攻撃するよう人間によってプログラムされます。
この攻撃は人間が中止させることができます。戦闘機やヘリコプターを危険にさらすことなく、部隊に航空支援を提供することができるのです。
このような無人機は、監視付きと完全自律型の兵器システムの境界を曖昧にしており、少なくとも10年前から使用されている。
広く使われているシステムには、例えばイスラエルのハロップ、アメリカのスイッチブレード、ロシアのランセット、イランのシャヘドなどがあります。
アルメニアとアゼルバイジャンの衝突やウクライナ戦争における最近の影響から、軍事専門家の中には、現代技術によって可能になった自律性の程度を抑止力の一部と見なす人もいる。
例えば、台湾の元参謀総長、元国防副大臣、台湾海軍司令官である李熙明提督は、中国の征服戦争を抑止する台湾の軍事力にとって、ロイター軍需は欠かせないものと見ている。
自律型ウォーマシンのあり方
現在、完全自律型兵器システムを公式に運用している軍隊はない。完全自律型戦争は(まだ)AI支援型戦争のディストピアに過ぎない。
技術的な観点から、このようなシステムがまだ広く展開されていないという事実には、必要なAI技術がまだ存在していないという、一つの大きな理由があります。
過去10年間の機械学習ブームにより、AI研究は数え切れないほど進歩したが、現在のAIシステムはプロの軍事利用には適さない。
理論的には、精度、信頼性、高速応答が約束されています。しかし、実際には、現実の世界の複雑さのために、まだ失敗しています。
現在のAIシステムは、文脈を理解できないことが多く、状況の変化に確実に対応できず、攻撃に弱く、倫理的に生死を分ける判断には向いていない。
同じ理由で、大規模な投資と大きな約束にもかかわらず、自律走行車はまだ私たちの道路を広く走っていません。
NATOと米国は、自律型兵器システムの開発と配備を支持すると表明していますが、監督された自律型兵器システムを超えることは望んでいません。
米軍の研究部門であるDARPAは、関連開発に数十億ドルの資金を提供しています。
しかし、コントロールとは一体何なのでしょうか?人間が兵器システムを起動させ、それが勝手に殺人を犯すだけでいいのか。
また、それをオフにできる必要があるのでしょうか?人間の意思決定のスピードがもはや十分でない状況についてはどうでしょうか?
空中での人間と機械の協力
現在、軍や防衛関連企業の焦点は、主に様々なセンサーデータの融合と、人間と協力するシステムの開発である。
2020年、元JAICチーフのナン・ムルチャンダニ氏は、米軍の焦点は、共同戦における認知支援にあると語った。
これらのシステムの中には、飛行、走行、潜水、情報収集、指定された標的への単独攻撃、物資の運搬などを行うものがあります。
しかし、彼らは常に人間からミッションやターゲット、クリアランスを得る。
例えば、アメリカ空軍はスカイボーグ・プログラムの一環として、クレイトスのXQ-58Aの亜種をテストしました。
このステルスドローンは安価で、人間のパイロットと一緒に飛行し、彼から命令を受けながら、支援偵察と武器プラットフォームを提供することになっています。
このプログラムは2021年から機密扱いになっているが、2023年春までに最大12機のドローンが運用される予定である。
一方、米海軍はMQ-25A Stingrayドローンをベースにした自律型タンカー機の開発を進めています。
また、ボーイング社はロイアル・ウィングマン・ドローンを開発し、オーストラリア空軍(RUAF)に販売している。
一方、ロシア空軍はより大型のS-70 Okhotnikドローンに依存し、中国空軍はFH-97Aに賭けている。
戦闘時には、次世代戦闘機(NGF)の人間パイロットが操縦します。
そのパイロットは、AIコパイロットによって機内でサポートされます。これにより、通信のレイテンシーを減らすことができる。
ヨーロッパでは、フランス、ドイツ、スペインのNGFプログラムのNext Generation Weapon System(NGWS)プログラムで、遠隔操作(RC)キャリアとしての自律型ドローンの開発が計画されています。
ヨーロッパの2番目のプログラムはTempestと呼ばれ、イギリス、イタリア、日本が資金を提供している。
水中と陸上で活躍するAIドローン
ドローンは、水中で人間を支援することも期待されています: 例えば、米海軍の駆逐艦「シーハンター」、ボーイングの潜水艦「オルカ」、ロシア海軍黒海艦隊を攻撃するウクライナの簡易型ドローンボートなど、半自律型の艦艇が挙げられる。
地上で使用するために、防衛請負業者は、米陸軍の戦車に随伴するように設計された戦闘ドローン「リプソーM5」や、すでにシリアで-間違いなく非効率的に-使用されているロシアのウラン9戦車など、さまざまな兵器を開発している。
米軍歩兵は赤外線カメラを搭載した小型の偵察用ドローンで活動し、米空軍はGhost Robotics社の半自律型ロボット犬をテスト中です。
ブラックホーネットを搭載した米軍の兵士たち

ウクライナ戦争は、ドローンによる偵察と、ドローン操作者、砲兵、歩兵の間の通信が中心的役割を果たしたことも示している。
こうして得られた精度によって、ウクライナはロシアの進撃を効果的に食い止めることができたのです。
ウクライナのドローン司令官によると、低空飛行と低コストの偵察は、依然として人間の目によって行われているが、ウクライナは利用可能な映像を使ってニューラルネットワークを訓練しているという。これにより、ドローンはロシアの兵士や車両を自動的に検出し、OODAループ(Observe, Orient, Decide, Act)を劇的にスピードアップさせることができる。
サイバースペースにおける人工知能と将来の紛争
現実の戦争から離れ、AIはサイバースペースでますます活用されています。
そこでは、マルウェアの検出や、重要インフラに対するサイバー攻撃のパターンの特定に役立てることができます。
2022年後半、NATOはサイバー防衛のためのAIをテストしました。
6つのチームが、架空の軍事基地にコンピューターシステムと電力網を設置し、サイバー攻撃のシミュレーション中にそれらを稼働させるという課題を課されました。
そのうちの3チームには、米国エネルギー省のアルゴンヌ国立研究所が開発したプロトタイプのAutonomous Intelligence Cyberdefense Agent(AICA)へのアクセスが提供されました。実験の共同責任者であるサイバーセキュリティ専門家のベンジャミン・ブレイクリーによると、AICAは攻撃パターン、ネットワークトラフィック、ターゲットシステム間の関係をよりよく理解し、保護するのに役立つことが示されたそうです。
サイバーセキュリティ、認知支援、センサーフュージョン、うろつき弾、武装ロボット犬など、人工知能はすでに戦場を変えつつあります。
ロボット工学や世界モデル開発、あるいはAIを活用した材料科学や製造技術の進歩により、新たな兵器システムが実現すれば、その効果は今後数年で高まるだろう。
LAWSもその未来の一部となる可能性が高く、少なくとも「致死的自律兵器システムの分野における新興技術に関する原則とグッドプラクティス」(ダウンロード)と題された規制案がそれを示唆している。
これは、オーストラリア、カナダ、日本、韓国、英国、米国によって、2022年3月に国連に提出された。