ラクマも宜しくお願い致しますm(__)m
進軍中の部隊が重要な都市まで迫った。だが兵士を突入させて、泥沼の白兵戦が展開されるような事態は避けたい。ならばドローンで守備兵を片付けておくか――。
テクノロジーの発達によって、かつては映画の中だけのものだった状況が現実になりつつある。今、各国の軍隊ではこうした自動技術に大いに興味を抱いている。
米軍が従軍している地域では、軍用ドローンがすでに空を飛行している。それはターミネーターのようなキラーロボットとは少々違い、発砲するかどうかは人間が決めており、完全な自律型致死兵器システム(LAWS)はまだ存在しない。
しかし、それを人間に代わって決定するアルゴリズムならある。カリフォルニア大学バークレー校のAI研究者スチュアート・ラッセル氏によると、LAWSは自動運転車よりも技術的に簡単であるらしく、2年以内にはかなり効果的な兵器が登場するだろうという。
自律型致死兵器システム(LAWS)は、人工知能などが搭載されていて自律的に動き、標的を判断して殺傷する能力をもつロボット兵器を意味する。
攻撃を判断するアルゴリズムには、攻撃対象のリストが与えられており、カメラなどで捕捉したものが、かなりの確率でリストの対象であると判断されると攻撃に移る。
あるいは、過去の戦闘に基づき攻撃指示が下るだろうと判断される場合に攻撃するよう設定したり、戦場で銃を持った人間に攻撃するといったやり方もある。
ここ数年でAIは大きく発展したが、特に顔認証技術や物体認証技術はきわめて正確になった。これらはLAWS開発には特に大切な技術で、今それが不可能から現実へ向かって急速に動いていることを示している。
攻撃の判断を完全に機械任せにしてしまうことには、恐ろしいほどの倫理的意味合いがある。それなのに、なぜそんなことをしようというのだろうか?
軍の立場からは、まったく新しい世界が開けると言える。たとえば、各ドローンを兵士一人一人が操縦しなければならないのだとすれば、それを大量に展開するにはそれだけ人員を割かねばならない。
また現在のドローンは基地と情報の送受信を行わねばならないが、それはタイムラグの原因となるし、万が一通信が遮断されてしまえば、まったく使い物にならなくなってしまう。
だがLAWSならそんな弱点はない。わずかな人員で大量に運用することが可能で、通信が遮断されて無力化してしまう心配もない。
さらに人道的であるという見方もできる。なにしろ生身の人間を過酷な戦場に送る必要がないのだ。
しかも、その人間は間違いを犯す生き物で、機械ではないからといって戦争犯罪と無縁なわけでもない。その点機械なら、どのような状況でも常に冷静で、適法な対象だけに攻撃を仕掛けることだろう。
しかし、この議論には致命的な欠陥がある。合法であることと正しいことが常に同じとは限らないからだ。
たとえば、かつてアフガニスタンでタリバンが6歳の少女を戦場に派遣したことがあった。その子はヤギ飼いの格好で米軍に近づき、その位置をタリバンに伝えていた。
戦争法では、戦闘員に年齢の要件を定めていない。よって、その女の子はタリバンの戦闘員とみなされるのであって、米兵が射殺したとしても戦争法違反ではない。
だが現場の兵士はそのように考えないだろう。子供を殺すのは人の道に外れることだと考える。
ところが機械は戦争法に従うようプログラムされており、子供を殺害することが善か悪かを考えたりはしない。
ときに生身の兵士は法律よりもずっと悪いことをするが、反対にいいことをすることもある。法律だけでなく、道徳によっても規律された人間ゆえのことだ。
ならば、戦争法に従い、それに反するような命令を拒否するようプログラムしつつ、同時に人の命を奪う際は人間の監督を必要とする——そんな兵器だって作れるはずだ。
だが現実には、LAWSの開発は完全な自律型へと向かっている。
完全なる自律型兵器は楽に低コストで人を殺せる。だが、その帰結は恐ろしいものだ。
まずLAWSの開発が続けば、いずれはかなりの低コスト化が実現されるだろう。なにしろ今日でさえ、手頃な価格のドローンを一般人が入手できるのだ。
もし、戦場でそんな戦闘ドローンがテロリストの手に渡ったら? 彼らは、それを容易に大量生産できるようになる。
LAWSはまた民族浄化やジェノサイドをきわめて効率的にやってのけるだろう。そのような行為を望む人間は、特定の人種をターゲットの要件に入力するだけでいい。
そしてもちろん、例の心配もある。すなわちAIが人類に対して反乱を起こし、私たちを駆逐するという可能性だ。
そんな危険性があるからこそ、AIの開発は公開されながら行われるべきなのだ。極秘に開発されていたのでは見落としてしまうような欠陥も、大勢の目に触れれば発見される可能性は高くなる。
そして何より開発に焦らないことが大切だ。ところが、困ったことにそれが起こりやすい分野がある――軍事である。
現時点においてAI技術で最先端を行っているのは米国だ。その米国がAI兵器の優位性を過度に振りかざすようになれば、他国もまたAI開発に注力するようになるだろう。開発競争の勃発だ。
AIによる過ちはそうした状況で最も起こりやすく、かつ最も危険なものとなる。
殺人ロボットへの対抗策の文脈で指摘されるのが、かつて生物兵器の使用が禁止され、これがかなり成功していることだ。
生物兵器はその開発が進み、危険性が認識されるようになったことから、1972年に生物兵器禁止条約の署名が開始され、1975年に発効された。
これに成功した背景にはいくつか要件があった。まず、国家が生物兵器によってそれほどメリットを得られなかったことがある。やたらと安価でしかも容易に入手できる大量破壊兵器など、国家にとっては厄介なだけだ。
LAWSに関しても、同じことが主張されている。たとえば核兵器の拡散防止に苦労してきたこの70年を振り返ってみるといい。LAWSで同じようなことが繰り返されるのは、政府も望まないはずだ。
ところが国連の場でこれに関する議論はなかなか進んでいない。
その要因としては、まずそもそも多国間条約の議論とは一般にゆっくりとしたものだということが挙げられる。だが、技術の発展は非常に急速で、議論がついていけない。
もう一つ、より重要なことに、そうした条約に反対する国があることが挙げられる。米国もそうした国で、反対の理由については、LAWSには人道的な側面があり、この点を検討する前に禁止するのは時期尚早だとしている。
無論、禁止派の声も根強い。LAWSをいつまでも国家の軍隊だけのものにしておくのは至難の技だろう。いずれは国家以外のグループの手に渡る可能性が大きい。そうなる前に禁止をするべきであるし、いずれ禁止するのだとしたら実用化される前にした方がずっと容易だ。
またAIの研究者にも、自分たちの開発した技術が軍事利用されることに強い抵抗感を示す人たちがいる。
かつてグーグルが国防総省のメイヴァン計画に関与していることが明らかになったとき、従業員が大反対し、結局計画はお蔵入りとなったことがある。同様に、マイクロソフトの従業員も、自分たちの技術の軍事利用を拒んだ。
殺人ロボットは潜在的に非常に危険な代物だ。全体主義国家や非国家主体の手に渡ってしまえば、恐ろしい事態になることは目に見えている。
同時にLAWSはより大きな流れの一部だとも言える。AIはかつて不可能だったことを可能にした。それは人間の認知能力を超え、今後もますます強力なものになっていくだろう。
今、それが自律兵器であれ、裁判の判決を下すものであれ、私たちは社会の重要な機能をよく理解されておらず、人間のことなどさして考えていないかもしれない機械に委ねようとしている。
完全なAIはまだ登場していないが、私たちはその日の到来に備えておかなければならない。それも映画の中の出来事が現実になってしまう前に――。
References:Death by algorithm: the age of killer robots is closer than you think - Vox
☆中国と朝鮮を実験場にすればええんじゃ!
BrendanHunter/iStock
進軍中の部隊が重要な都市まで迫った。だが兵士を突入させて、泥沼の白兵戦が展開されるような事態は避けたい。ならばドローンで守備兵を片付けておくか――。
テクノロジーの発達によって、かつては映画の中だけのものだった状況が現実になりつつある。今、各国の軍隊ではこうした自動技術に大いに興味を抱いている。
米軍が従軍している地域では、軍用ドローンがすでに空を飛行している。それはターミネーターのようなキラーロボットとは少々違い、発砲するかどうかは人間が決めており、完全な自律型致死兵器システム(LAWS)はまだ存在しない。
しかし、それを人間に代わって決定するアルゴリズムならある。カリフォルニア大学バークレー校のAI研究者スチュアート・ラッセル氏によると、LAWSは自動運転車よりも技術的に簡単であるらしく、2年以内にはかなり効果的な兵器が登場するだろうという。
アルゴリズムによる自律攻撃
自律型致死兵器システム(LAWS)は、人工知能などが搭載されていて自律的に動き、標的を判断して殺傷する能力をもつロボット兵器を意味する。
攻撃を判断するアルゴリズムには、攻撃対象のリストが与えられており、カメラなどで捕捉したものが、かなりの確率でリストの対象であると判断されると攻撃に移る。
あるいは、過去の戦闘に基づき攻撃指示が下るだろうと判断される場合に攻撃するよう設定したり、戦場で銃を持った人間に攻撃するといったやり方もある。
ここ数年でAIは大きく発展したが、特に顔認証技術や物体認証技術はきわめて正確になった。これらはLAWS開発には特に大切な技術で、今それが不可能から現実へ向かって急速に動いていることを示している。
iStock
LAWSのメリット
攻撃の判断を完全に機械任せにしてしまうことには、恐ろしいほどの倫理的意味合いがある。それなのに、なぜそんなことをしようというのだろうか?
軍の立場からは、まったく新しい世界が開けると言える。たとえば、各ドローンを兵士一人一人が操縦しなければならないのだとすれば、それを大量に展開するにはそれだけ人員を割かねばならない。
また現在のドローンは基地と情報の送受信を行わねばならないが、それはタイムラグの原因となるし、万が一通信が遮断されてしまえば、まったく使い物にならなくなってしまう。
だがLAWSならそんな弱点はない。わずかな人員で大量に運用することが可能で、通信が遮断されて無力化してしまう心配もない。
従来の兵器よりも人道的?
さらに人道的であるという見方もできる。なにしろ生身の人間を過酷な戦場に送る必要がないのだ。
しかも、その人間は間違いを犯す生き物で、機械ではないからといって戦争犯罪と無縁なわけでもない。その点機械なら、どのような状況でも常に冷静で、適法な対象だけに攻撃を仕掛けることだろう。
しかし、この議論には致命的な欠陥がある。合法であることと正しいことが常に同じとは限らないからだ。
Computerizer from Pixabay
法と正義、どちらが大切か
たとえば、かつてアフガニスタンでタリバンが6歳の少女を戦場に派遣したことがあった。その子はヤギ飼いの格好で米軍に近づき、その位置をタリバンに伝えていた。
戦争法では、戦闘員に年齢の要件を定めていない。よって、その女の子はタリバンの戦闘員とみなされるのであって、米兵が射殺したとしても戦争法違反ではない。
だが現場の兵士はそのように考えないだろう。子供を殺すのは人の道に外れることだと考える。
ところが機械は戦争法に従うようプログラムされており、子供を殺害することが善か悪かを考えたりはしない。
ときに生身の兵士は法律よりもずっと悪いことをするが、反対にいいことをすることもある。法律だけでなく、道徳によっても規律された人間ゆえのことだ。
ならば、戦争法に従い、それに反するような命令を拒否するようプログラムしつつ、同時に人の命を奪う際は人間の監督を必要とする——そんな兵器だって作れるはずだ。
だが現実には、LAWSの開発は完全な自律型へと向かっている。
強力かつ低コストな兵器の問題性
完全なる自律型兵器は楽に低コストで人を殺せる。だが、その帰結は恐ろしいものだ。
まずLAWSの開発が続けば、いずれはかなりの低コスト化が実現されるだろう。なにしろ今日でさえ、手頃な価格のドローンを一般人が入手できるのだ。
もし、戦場でそんな戦闘ドローンがテロリストの手に渡ったら? 彼らは、それを容易に大量生産できるようになる。
LAWSはまた民族浄化やジェノサイドをきわめて効率的にやってのけるだろう。そのような行為を望む人間は、特定の人種をターゲットの要件に入力するだけでいい。
そしてもちろん、例の心配もある。すなわちAIが人類に対して反乱を起こし、私たちを駆逐するという可能性だ。
Computerizer from Pixabay
透明な開発プロセスが必要
そんな危険性があるからこそ、AIの開発は公開されながら行われるべきなのだ。極秘に開発されていたのでは見落としてしまうような欠陥も、大勢の目に触れれば発見される可能性は高くなる。
そして何より開発に焦らないことが大切だ。ところが、困ったことにそれが起こりやすい分野がある――軍事である。
現時点においてAI技術で最先端を行っているのは米国だ。その米国がAI兵器の優位性を過度に振りかざすようになれば、他国もまたAI開発に注力するようになるだろう。開発競争の勃発だ。
AIによる過ちはそうした状況で最も起こりやすく、かつ最も危険なものとなる。
生物兵器禁止条約の先例
殺人ロボットへの対抗策の文脈で指摘されるのが、かつて生物兵器の使用が禁止され、これがかなり成功していることだ。
生物兵器はその開発が進み、危険性が認識されるようになったことから、1972年に生物兵器禁止条約の署名が開始され、1975年に発効された。
これに成功した背景にはいくつか要件があった。まず、国家が生物兵器によってそれほどメリットを得られなかったことがある。やたらと安価でしかも容易に入手できる大量破壊兵器など、国家にとっては厄介なだけだ。
LAWSに関しても、同じことが主張されている。たとえば核兵器の拡散防止に苦労してきたこの70年を振り返ってみるといい。LAWSで同じようなことが繰り返されるのは、政府も望まないはずだ。
Computerizer from Pixabay
議論が進まない理由
ところが国連の場でこれに関する議論はなかなか進んでいない。
その要因としては、まずそもそも多国間条約の議論とは一般にゆっくりとしたものだということが挙げられる。だが、技術の発展は非常に急速で、議論がついていけない。
もう一つ、より重要なことに、そうした条約に反対する国があることが挙げられる。米国もそうした国で、反対の理由については、LAWSには人道的な側面があり、この点を検討する前に禁止するのは時期尚早だとしている。
無論、禁止派の声も根強い。LAWSをいつまでも国家の軍隊だけのものにしておくのは至難の技だろう。いずれは国家以外のグループの手に渡る可能性が大きい。そうなる前に禁止をするべきであるし、いずれ禁止するのだとしたら実用化される前にした方がずっと容易だ。
またAIの研究者にも、自分たちの開発した技術が軍事利用されることに強い抵抗感を示す人たちがいる。
かつてグーグルが国防総省のメイヴァン計画に関与していることが明らかになったとき、従業員が大反対し、結局計画はお蔵入りとなったことがある。同様に、マイクロソフトの従業員も、自分たちの技術の軍事利用を拒んだ。
私たちは危険な未来を回避できるのか?
殺人ロボットは潜在的に非常に危険な代物だ。全体主義国家や非国家主体の手に渡ってしまえば、恐ろしい事態になることは目に見えている。
同時にLAWSはより大きな流れの一部だとも言える。AIはかつて不可能だったことを可能にした。それは人間の認知能力を超え、今後もますます強力なものになっていくだろう。
今、それが自律兵器であれ、裁判の判決を下すものであれ、私たちは社会の重要な機能をよく理解されておらず、人間のことなどさして考えていないかもしれない機械に委ねようとしている。
完全なAIはまだ登場していないが、私たちはその日の到来に備えておかなければならない。それも映画の中の出来事が現実になってしまう前に――。
References:Death by algorithm: the age of killer robots is closer than you think - Vox
☆中国と朝鮮を実験場にすればええんじゃ!