――AIの軍事利用はどのような状況でしょうか? 人間が関与せずに、AIが自律的に敵と認識した人や物を攻撃する兵器『自律型致死兵器システム(LAWS)』の規制が焦点となっています。「日本は、LAWSそのものの開発や使用はしないとの立場だ。ただ、攻撃において人間の判断を必要としない、LAWS以外の無人兵器の開発は進めている。その分野で、アメリカや中国、ロシア等他国はもっと先行していることは間違いない。敵の居場所を探る索敵等にAIを活用しようとしている国は多い。韓国やフランスではAIソルジャーを作ろうとしている。兵士達の脳にチップを埋め込んでネットワーク化し、AIが支援して部隊間でコミュニケーションを取り、作戦判断をする構想だ。韓国は『意思決定は人間がする』と説明しているが、そのチップをロボットに埋め込むこともできるだろう」
――LAWSを規制する国際的な協議の現状はどうでしょうか?「2019年に、非人道兵器を規制する特定通常兵器使用禁止制限条約(※CCW)の枠組みを使って、“使用は人間が責任を負う”こと等を盛り込んだ11項目の運用指針に合意した。これが、その後の議論のベースラインとなっているが、そこから先には一歩も進んでいないのが現状だ。各国がAIを利用した兵器システムの開発を独自に進めているが、具体的な規制の手立てが見えないまま、ここまで進んだという印象だ」
――何故、規制が進まないのでしょうか?「LAWSに該当する兵器システムの内容を特定し、その定義を明確にするのが難しい為だ。AIを利用した兵器システムについて、各国が規制を守るよう担保することも難しい。仮にある国が違反を指摘されたとしても、『攻撃は人間が判断しており、規制内の運用だ』等と主張して否定するだろう。違反を明確にするには細かく開発のプロセスを検証し、システムを分解しない限り無理だ。ロシアが侵攻したウクライナで今、飛び回っているドローン等がどの程度のAI技術を活用しているのかも、詳細は見えていない」
――日本は規制の協議にどのように関わっているのでしょうか?「日本は国際会議で、実効性のある法的ルールを提案しているが、各国の共感を得られていない。グローバルサウス諸国は、先進国の技術的優位を固定するような不平等なルールが作られることを警戒している。『実効性が乏しい形だけの法的規制を作ればいい』という考えの国が多い。中国は運用規制には関心を持つが、『開発規制はかけるべきではない』という立場だ。先進国と途上国で議論が噛み合っていない面がある」
――日本国内には、防衛分野でのAI利用に関するルールはあるのでしょうか?「ほぼ存在しないと言ってよい。内閣府が2019年にAI活用の基本原則の“人間中心のAI社会原則”を策定したが、民生品が対象だ。アメリカではNGOや民間の研究者らを広範に集めて議論し、国防総省が2020年に“AI5原則”を取り纏めた。AIの意思決定過程は見え難い為、追跡して検証が可能な仕組みを作るよう求めている。日本もAIを防衛に利用するのであれば、リスクをどう管理するのか原則を示さなければ危うい。欧米等の原則を引用して運用するのかもしれないが、日本としての原則を対外的に示しておかなければ国際的に信用されない。だが、AIを搭載した装備品を他国から購入する際、国内に厳格なルールがあると購入が難しくなるので、規制は後追いでよいのではないかという意見もある」
――ロシアのウクライナ侵攻は協議に影響しているのでしょうか?「数年前から、AIを利用した兵器システムの使用を規制する議論をしてきた。しかし、ロシアのウクライナ侵攻が全てを崩してしまったと感じる。人間はこれほどにも身勝手だということが露わになってしまった。議論が停滞する中で、各国の技術開発が進んでいる。ある日気付いたら、AI兵器システムによって戦争が起きているということがあるかもしれない。それを規制する方法が見いだせない状況が続いている」 (聞き手/デジタル報道センター 山下智恵) (撮影/千葉紀和) =おわり
◇
飼手勇介・内橋寿明・岡崎大輔・田中韻・山下智恵・高橋祐貴・田畠広景・山口桂子・岩本桜・秋山信一が担当しました。

2023年1月17日付掲載
テーマ : AI / AR / VR
ジャンル : コンピュータ