AI兵器の国際ルール、原則はどうなっている?

sponser
AI兵器の論理原則のガイドラインはどうなっている?
ターミネーター4

ロボットには「人間への安全性、命令への服従、自己防衛」の三つの原則がある。これが示すのはロボットは”人間を攻撃しない”、”人間の命令は絶対にきく”、”自身に危害が及べば防衛する”といったもの。これを「ロボット三原則」という。これはSF小説の中で生まれた言葉であるが、現実世界でもこの原則は基本とされている。多くのロボットは決められたプログラムの中でしか動くことはできないし、人間が間接的に操縦しているので、ロボットが自己判断で人間に危害を加えることはない。しかし、昨今の人工知能AI技術の発展により、自律行動するロボットの開発が急速に進んでいる。特にAI兵器の分野では各国での競争が激しくなっている。そのような背景もあり、「ターミネーターの世界が実現するのでは?」という懸念が現実味を帯びており、AI兵器の規制について世界で議論が起きている。実際、AI兵器のルール・規制はどうなっているのだろうか?

sponser

ターミネーターの危機感

AI兵器で起きる危機として真っ先に思い浮かべるのが映画『ターミネーター』の世界だと思う。軍用コンピューターとして作られた人工知能「スカイネット」が自我に目覚め、自ら進化していく。それに恐怖を頂いた人間がスカイネットを破壊しようと試みるも自己防衛の設定から人類を脅威と感じ、核ミサイルをロシアに発射して核戦争を誘発し、人類を滅ぼそうとする。その後、残った人類を自律ロボットを使って狩っていくという物語だ。

シリーズ1作目が登場した1984年、世界的にヒットした『ターミネーター2』の1991年当時、AIは存在していなく、あくまで映画の中の空想の話で、このような世界を危惧する者は少なかったが、今ではこのストーリーも杞憂ではない話になってきている。

ロシアで進む完全自律型致死性兵器 LAWS

今、AI兵器が一番進んでいるのが実はロシアだ。既にロシア軍はシリア内戦でAI兵器を導入しているとも噂されている。開発を主導しているのがアサルトライフルAK-47の開発で有名なカラシニコフ社。同社は無人戦闘システム「サラートニク」や無人戦闘車両「ウラン9」をといったAIロボット兵器を既に発表している。これらはAIが搭載された自律型兵器になり、AIが自動的にターゲットを捕捉、識別し、攻撃までの工程を自動で行う。つまり、これらはAIが人の生殺与奪を判断することになり「Lethal Autonomous Weapons System:LAWS=完全自律型致死性兵器」 と呼ばれている。

プーチン大統領はこれらのAI兵器の部隊を2030年までに創設したいと述べている。

ロシアのAI兵器ルール・原則

その上で危惧されるのがロシアのAI兵器のルール・原則になる。ロシアにも人工知能技術の開発と利用のための原則は設けられており、その遵守が義務付けられている。その原則とは、人権と自由の保護、安全保障、透明性、技術的主権、イノベーション・サイクルの完全性、合理的な倹約、競争への支援となる。非常に抽象的であり、機能に関する制限がないとも見て取れる。

アメリカ軍のAI兵器のルール・原則

米軍でもAI兵器の戦場投入は検討はしており、開発も進んでいる。今後、AI兵器を開発する上で国民の理解を得るために米軍は2020年2月24日にAI兵器に関するルール・原則を定めた。

・AIシステムを導入して使用する際には適切な判断と注意を払うこと
・明確な使用方法を定めること
・自動化されたシステムによってなされる決定は、追跡可能でコントロール可能であること
・ AIの軍事的意思決定にはすべて人間が関与すること

つまり、米軍が開発するAI兵器はロシアのようなAIが攻撃(軍事的意思決定)を判断することはなく、最終判断は人が行う。その他の行動も意図しない動作を示す場合はシステムを切断または非アクティブ化して人間のコントロール下に置くことを示している。 現時点ではAIの自律的役割は攻撃ではなく偵察など兵士のサポート的な役割が主になると思われる。

特定通常兵器使用禁止制限条約 (CCW)でも議論

国際的な兵器の規制となるCCWでもAI兵器については何度か議論されており、特にLAWSについては「攻撃の判断には必ず人間を関与させる」という指針を定めようと考えている。しかし、2019年8月の議会では過度な規制を嫌ったロシアと米国が反対しており、今のところ国際的な規制はない。

日本は?

ちなみに日本は人間の関与が及ばない完全自律型の致死性兵器の開発を行う意図は有していないという立場を表明している。

米国は独自の原則を発表し、人を関与させることを表明したがロシアや中国が規制しないと結局、LAWSの開発競争に陥ることが予想される。ターミネーターが現実にならないことを祈るばかりだ。

sponser

https://www.dw.com/en/us-military-adopts-ethical-ai-guidelines/a-52517260

sponser
AI兵器の論理原則のガイドラインはどうなっている?
フォローして最新情報をチェックしよう!