ニュース
【主張】AI兵器の規制 人間が管理できる仕組み重要
AI(人工知能)を搭載した機械が自らの判断で標的を選択し、攻撃する「自律型致死兵器システム」(LAWS)の実用化に向けた動きが加速している。人間の管理の手から離れたLAWSが、人を無差別に殺傷するような事態を招いてはならない。
LAWSの規制に向けた国際交渉は、日本を含む126カ国が参加する「特定通常兵器使用禁止制限条約」(CCW)の政府専門家会合(GGE)で進められている。今年は3月と5月に、スイスのジュネーブでGGEが開催された。
2019年8月のGGEでは、▽武力紛争の際に順守すべき国際人道法をLAWSにも適用▽人間がLAWSを管理――など11項目の指針がまとめられた。
ただ、この指針を具体的にどのような形で実施するのか決まっていない。今月15日から19日まで開かれたGGEでも、指針の運用方法などが議論された。
国際人道法は戦闘員と民間人を無差別に攻撃することを禁止し、投降兵への攻撃も禁じている。しかし、戦闘員なのか民間人なのか、投降兵なのか戦闘意欲がまだある兵士なのかをAIが区別できるか疑問だ。
注目したいのは、今月のGGEでの議論の結論をまとめた文書に、国際人道法を構成するジュネーブ諸条約第一追加議定書第36条に関する言及があることだ。
この条文は、新兵器の研究や開発の段階で、国際人道法を守れる仕組みになっているかどうか審査することを義務付けている。GGEの文書でも、審査が行われなければならないと明記された。LAWSの場合、人間が管理できる仕組みになっていることが国際人道法を守ることにつながる。
今や、ウクライナ軍は、米パランティア社が開発したAIによる戦況分析システムを用いてロシア軍の居場所を発見し、攻撃している。ロシア軍も、AI搭載の自律型戦闘車両をウクライナ東部の激戦地に配備したとの報道がある。軍事にもAIが欠かせない現状だ。規制に向けた取り組みを急ぐべきだ。