「AI兵器は人間を殺すのか?」 AIに「人間を殺傷する判断」をゆだねられるのか?

2019年3月19日 15:26

小

中

大

印刷

画像はイメージです。

画像はイメージです。[写真拡大]

写真の拡大

 やはり、兵器の分野でAIの自立型判断が問題になってきた。現状では、「殺傷」の判断は人間が行っているケースがほとんどだ。アメリカのドローン兵器「プレデター」が、武器を持って集まっている集団に対して、独自の判断で攻撃していると言われてきた。しかし攻撃の判断は、人間がしてきたと言われてもいる。オバマ政権時代、当初はドローンが発見した集団が武器を持ったテロ集団と判断できる場合、現場の責任者が攻撃を判断していたと言われる。その後オバマ政権下では、「ホワイトハウスの判断がないと攻撃できない」と改めていたようだ。それがトランプ政権になった今、元に戻っていると言う。

【こちらも】AI兵器は「核兵器コントロールより難しい」と警告、キッシンジャー元米国務長官

 いずれ世界の兵器は、生身の人間が危険な戦闘の場に出向かないシステムとなることは、間違いないことだ。アメリカ軍は当面、自律型無人戦闘車両の開発を急ぐようだ。一方中国は、民間技術として小型ドローン200機の自律集団飛行実験に成功しており、これを軍事に利用してくることは間違いのないことであろう。これは、現状のどの様な防空システムも無力化してしまう方法に成り得る。民間技術の応用から軍事技術となることが、AI技術の特徴でもある。

 かつて大ヒットした「映画ターミネーター」の影響は大きく、「自律型AIロボットが人間を襲う」と思われている。AIの情報処理能力は、人間とは比較できないほど大量、高速で行うことができるが、その結果「攻撃する」と人間が教えない限り、AIは攻撃するとの判断はできない。自らの感情で「許せない」「恐ろしい」などと思って攻撃を開始する判断は、人間が指標を示していない限り、起こらない。

 人間はかなり単純な「定型の繰り返し動作」を日常では行っており、その結果はデータとして残り、AIの指標となるのだろう。その人間が行ってきた結果をAIが学習するため、殺傷する判断がありえるのも事実だ。しかしそれも、人間次第ということだ。

 自律型兵器システム(Autonomous Weapon Systems:AWS)、致死的自律型兵器システム(Lethal Autonomous Weapon Systems: LAWS)の開発に対する懸念が高まってきている。人間の判断を待たず、殺傷の行動を起こすことが心配だ。

 昨年他界したスティーブン・ホーキング博士が、「LAWSによる軍拡競争は避けるべきである」という警告を遺している。懸念されるのは、偵察に使われているLAWSが、人間の判断を越え、殺傷のための行動を判断してしまうことだ。最終的には「モラル」の問題で、核兵器のように「使えば必ず報復を受ける」との対立軸が成り立たないため、拡散防止は難しいと言える。

 さらには、これまでの軍事技術先行でなく民需品技術が先行して世界に広まり、その応用で軍事技術、すなわち兵器技術となることが、「核拡散防止」などよりはるかに拡散防止を難しくしている。(記事:kenzoogata・記事一覧を見る

関連キーワードロボットアメリカ中国ドローン人工知能(AI)核兵器スティーブン・ホーキング

広告