土曜特集
多様化するAIの軍事利用
LAWS(自律型致死兵器システム)だけではない/京都産業大学世界問題研究所 岩本誠吾所長に聞く
公明新聞2024/04/27 4面より
人工知能(AI)を組み込んだ機械が自ら標的を選択し、攻撃する自律型致死兵器システム(LAWS)の規制に向けた交渉が、特定通常兵器使用禁止制限条約(CCW)の政府専門家会合(GGE)で進められている。ただ、LAWSは実用化に至っていない一方で、別の形でのAIの軍事利用が問題になっている。特に、パレスチナ自治区ガザ地区への攻撃で、イスラエル軍が運用しているとされるAI意思決定支援システム(AI―DSS)が、多くの民間人を犠牲にする攻撃を招く一因になっているのではないかとの懸念がある。多様化するAIの軍事利用に、国際社会はどう向き合うべきか。京都産業大学世界問題研究所の岩本誠吾所長に聞いた。
<インタビュー>
■「殺人ロボット」のイメージ先行。現実味のある規制議論の妨げに
――LAWSの規制に向けた交渉を進めているCCWのGGEでは近年、LAWSに加え、自律型兵器システム(AWS)という言葉も用いられている。
岩本誠吾所長 2013年にCCWの下でLAWSについて議論することが決まって以降、17年から公式にGGEが開かれるようになり、LAWSの規制に向けた交渉が進められている。ただ、実在していないLAWSについては、米国のSF映画「ターミネーター」に出てくるような「殺人ロボット」というイメージが先行してしまい、それへの危機感にあおられる形で議論が行われていたと感じる。
例えば、19年8月のGGEで示されたLAWSの規制を巡る11項目の指針の一つに、LAWSの擬人化を禁止する項目がある。これは、ターミネーターのような人型殺人ロボットの実用化を危惧して盛り込まれた項目だと言えよう。
また、殺人ロボットへの危機感にとらわれすぎるあまり、それ以外のAIの軍事利用に伴う問題が見過ごされがちだった。
LAWSは「致死兵器」だから、人を殺傷する対人AI兵器ということになるが、AIの技術がよっぽど進歩しない限り、LAWSの実用化は不可能である。戦闘員と民間人を区別しない無差別攻撃などを禁じる国際人道法に違反するLAWSは許容できないとの認識が、大多数の国に共有されているからだ。例えば、市街地での戦闘で、戦闘員なのか民間人なのか、投降兵なのか戦闘意欲がまだある兵士なのかを、AIが区別できるとは思えない。
一方、戦闘機や戦車、防空レーダーといった物の識別であれば、AIでも比較的容易に行えるため、AI兵器の本格的な実用化が進むとしたら、対物兵器からになるだろう。AWSという言葉を用いれば、対物AI兵器の規制についても議論できるようになる。
――AI―DSSの軍事利用に対する懸念も高まっている。
岩本 自ら標的を選択し、攻撃する兵器システムではないので、GGEでのLAWSの規制に向けた交渉では、あまり取り上げられてこなかったが、AI―DSSの軍事利用が国際人道法に違反するような事態を招いていないかどうか注視する必要がある。
現在、ウクライナ軍がロシア軍との戦闘で「ゴッサム」というAI―DSSを利用している。これは、データ解析などの防衛関連技術を手掛ける米国の企業「パランティア・テクノロジーズ」が開発したものだ。
イスラエル軍も、諜報などを担う8200部隊が開発したとされる「ハブソラ」(福音)や「ラベンダー」、「ウェアズ・ダディ」(パパはどこ)といったAI―DSSを利用し、パレスチナ自治区ガザ地区を攻撃しているという。イスラエル国有の防衛関連企業「ラファエル・アドバンスド・ディフェンス・システムズ」(ラファエル)も「パズル」と呼ばれる軍用AI―DSSを開発している。
■意思決定支援システムに懸念も
――AI―DSSの軍事利用の何が問題視されているのか。
岩本 AIなどを組み込むことで自動化されたシステムが示した情報や提案などを、人は過度に信じてしまう傾向にあり、人間が調べて導き出した提案の方が正しかったとしても、それを無視したり、拒絶したりする「自動化バイアス」という心理状態に陥ってしまうことへの懸念がある。AIのような高度な技術が、人間みたいな間違いを犯すわけがないという潜在的な思い込みから生じる、心理的な落とし穴だと言える。
軍事利用されているAI―DSSが示した標的の位置情報は誤りで、そこにいるのは民間人だったという場合も、人間が自動化バイアスに陥ってしまえば、その情報は正しいものとして受け入れられ、攻撃が実行されてしまう。
自動化バイアスに陥ると、人間の関与は、AI―DSSが示した提案を検証せずに、承認のサインをするだけの「名ばかりの関与」になってしまうことも問題だ。
■イスラエル軍の過剰攻撃助長か
――イスラエル軍が運用するAI―DSSが、ガザ地区で暮らす民間人に加え、人道支援に従事する国連や非政府組織(NGO)の職員まで標的の候補に挙げているのではないかと疑われている。
岩本 イスラエル軍は「ダヒヤ・ドクトリン」という戦略を採用しているのではないかとの指摘がある。ガザ地区を実効支配し、イスラエルに対して武装闘争を繰り広げている抵抗運動組織ハマスへの住民の支持を失わせるには、軍事的必要性が認められない住宅や学校、病院なども標的にして、多数の民間人が犠牲になることもいとわない大規模な攻撃を行うことで恐怖を与えるのが効率的だとする戦略である。
このような戦略に基づき、イスラエル軍はAI―DSSを運用している可能性がある。
ハブソラは建造物の、ラベンダーは人の標的候補を示し、ウェアズ・ダディは効果的な攻撃方法を提案するAI―DSSだという。ハブソラは1日に100件の標的候補を挙げ、ラベンダーは実に3万7000人ものガザ地区の住民を標的候補に指定しているとされる。
さらに問題なのは、ハマスの戦闘員だと「みなす」ことができれば、標的としている点だ。
イスラエルは05年にガザ地区全域から撤退しているので、標的であるかどうかを判断するための情報は、主に、傍受したガザ地区の住民の通話やメールでのやり取りの内容であり、その情報を基に、AI―DSSに標的候補を挙げさせていると考えられる。
例えば、ハマスの戦闘員でなくとも、ガザ地区で治安維持の任務を担うパレスチナ人の通話やメールでのやり取りの内容は、ハマスの戦闘員のものと似通っている場合があるため、ハマスの戦闘員とみなされ、標的にされ得る。
また、ハマスには、ガザ地区の住民に福祉などの行政サービスを提供している要員もいる。ガザ地区で人道支援に従事する国連やNGOの職員の通話やメールでのやり取りも、行政サービスを担うハマスの要員のものとみなされ、標的の候補にされている可能性も考えられる。
■各国は複合的な課題に向き合え
――日本もAI―DSSの軍事利用を検討しているという。
岩本 22年12月16日に閣議決定された防衛力整備計画には「AIにより行動方針を分析し、指揮官の意思決定を支援する技術を装備品に反映するための研究を行う」と明記されている。これに先立ち、同9日に岸田文雄首相が、パランティア・テクノロジーズのアレックス・カープ最高経営責任者(CEO)と面会しており、AI―DSSの軍事利用に前向きであることがうかがえる。
そうであるなら、日本は国際人道法を順守し、民間人を保護するという観点からも、AI―DSSの運用のあり方について、事前によく考えておくべきだ。
LAWSの規制に向けた交渉を進めているCCWのGGEの枠外だが、オランダと韓国が共催し、昨年2月にオランダのハーグで開かれた「軍事領域における責任あるAI利用」(REAIM)サミット(首脳会議)は、LAWSだけでなく、AI―DSSの軍事利用などに対する規制も視野に入れた国際規範づくりをめざしている。同サミットで採択されたREAIM宣言には、日本を含む60カ国が支持を表明した。
第2回REAIMサミットは今年9月に韓国のソウルで開かれる予定である。多様化するAIの軍事利用に伴う複合的な課題に向き合いながら、規制について議論を進める国際的な機運を高めていくことが重要だ。
<語句>
■AIの軍事利用の主な形態
「自律型致死兵器システム」(LAWS)
実用化されておらず、国際的な合意を得られた定義もない。日本、米国、英国、カナダ、オーストラリア、韓国の6カ国は「ひとたび起動したら、さらなる操作者の関与なしで標的を識別、選択し、致死力を伴う攻撃を行う」のがLAWSであるとしている。
「自律型兵器システム」(AWS)
LAWSだけでなく、人間の殺傷を目的としない多様な兵器システムも含む。赤十字国際委員会(ICRC)は「人間の関与なしで標的を選択(捜索、探知、識別、追跡など)し、攻撃(標的の殺傷や破壊だけでなく、無力化などの非致死性の攻撃も含む)する兵器システム」と定義している。
「AI意思決定支援システム」(AI―DSS)
人間が意思決定を行う上での判断材料となる情報やデータなどをAIが提示するシステム。軍事では、標的の位置を速やかに特定し、その情報を示したり、効果的な作戦などを提案したりする。
いわもと・せいご 1956年、兵庫県生まれ。神戸大学大学院法学研究科博士後期課程単位取得満期退学。防衛庁防衛研究所教官、鈴鹿国際大学教授、京都産業大学法学部教授などを経て、2023年4月より現職。専門は軍事や安全保障に関する国際法。
イスラエルのラファエル社が開発しているAI―DSS「パズル」。標的の位置情報などがモニターに表示されている(同社のホームページより)