AIの判断によって殺される近未来戦争の姿

AIの進化によって無人の戦闘機やドローンなどの無人型の兵器が増えており、今後も増え続けることは明らかです。
しかし、いくらAIが進化しているといっても、誰を標的にするのか、どこを攻撃するのかなど重要な意思決定は人間がなすべきことでしょう。
そうでなければ責任の所在が不明になる。いったい誰の命令によって殺されてしまったのかがわからないままに殺され、その責任もあいまいでは死んだ戦士の魂も浮かばれない。
しかし、現在進行形でAIの判断による殺人兵器が開発されているのが実態です。
AIが勝手な判断で人を殺す世界
現在、人間の判断ではなく、AIが自動で判断して人命を奪う、AI自律型の殺人兵器が国際的に問題となっています。
現状使用されている無人兵器は人間が遠隔操作をしており、人間の判断により意思決定がなされますが、自律型の無人AI兵器は人間の判断によらず、自ら攻撃目標を決めて攻撃するのです。
このような兵器は人道上問題があるという批判が上がるのは当然のこと。
主な批判は以下のようなものです。
・そもそもAIが人間の命を奪うという判断をしてよいのか?
・戦争へのハードルが下がるのではないか?
・誤作動があるのではないか?
・ハッカーに利用されるのではないか?
・AIが人間に反旗を翻すのではないか?
・戦争へのハードルが下がるのではないか?
・誤作動があるのではないか?
・ハッカーに利用されるのではないか?
・AIが人間に反旗を翻すのではないか?
などです。
一定の指針は示されたが・・・
上記のような批判に関し、国連では5年にわたり議論が行われ、2019年に一定の指針を折り込んだ報告書が出されています。
主な内容は以下のようなものです。
・すべての兵器が国際人道法の適用となること
・兵器の使用には人間が責任を負うこと
・ハッカーやテロ集団に利用されないようにすること
・兵器の使用には人間が責任を負うこと
・ハッカーやテロ集団に利用されないようにすること
などです。
しかし、この報告書は兵器先進国によって骨抜きとなっています。
まず、法的な拘束力がない。あくまで努力目標です。国連という名のお花畑機関にはそもそも拘束力のあるルール作りを期待するほうが間違いといえばそれまでですが。
![]() | 価格:1,540円 |

軍事大国による骨抜き化
例えば、近年軍事兵器の進化が著しい中国は、自律の定義に関し、自ら進化するAIのみを規制範囲にすべきと主張しています。
また、アメリカやロシアは、報告書に”兵器の使用を人間が制御する”という文言が入ることに反対し、結局報告書から削除されました。
結局のところ、アメリカや中国、ロシアなどの軍事大国は無人AI兵器、そして自律した判断を行うAI兵器の開発を止めることはないと宣言したようなものです。
努力目標などであれば、やってもよいとのお墨付きをもらったも同様であり、お互いが疑心暗鬼なのですから開発せざるを得ない。
最後に
近未来、映画「ブレードランナー」の世界が実現してしまう可能性は十分といったところです。
同じ殺されるにしても、相手が人間であれば裁かれることもあるだろうし、恨むこともできる。しかし、相手が血も通わないAIでは虚しさしか残りません。
少なくとも自律進化型AIの開発は止めておいたほうがよい。いずれ人間を敵とみなして殺しにかかることになるかもしれません。
【関連記事】
完全自動運転実現は少なくても2029年以降。長ければ今世紀中かかりそう
わずか140文字のツイートで人はここまで暴かれる
日本にシリコンバレーが生まれないのはなぜか
ホンダ、いち早く自動運転レベル3へ。しかしその先は試練が・・・
AIが進化すれば労働市場はより分断化される
AIが予測するマンション市場の近未来
先進国が育て上げたモンスター、中国の巨大軍事力
先制核攻撃を宣言した中国軍人。そして核の傘がないことがばれる
↓↓応援クリックお願いします↓↓

にほんブログ村
![]() | 人工知能は人間を超えるか ディープラーニングの先にあるもの [ 松尾 豊 ] 価格:1,540円 |

- 関連記事
-
-
世界の驚くべき核シェルター普及率。かたや日本はお寒い限り 2022/11/28
-
ウクライナ戦争で得をしたのは中国・イスラエル。損をしたのは・・・ 2022/04/11
-
ミサイルを打ち落とすのは不可能。敵基地攻撃能力を! 2020/07/03
-
核保有国の横暴。いったいどうすれば防げるのか? 2023/02/18
-
無慈悲な戦争にも国際法によるルールがある(でも守られない) 2020/02/11
-
コメント