goo blog サービス終了のお知らせ 

世界の人権・紛争・平和

ヒューマン・ライツ・ウォッチ 米国:自律稼働型兵器に関する新政策には欠陥がある

米国:自律稼働型兵器に関する新政策には欠陥がある

重大な危険に対処する国家政策、新たな法律が必要

(Washington, DC  February 14, 2023) – A new United States Department of Defense directive concerning development of autonomous weapons systems is an inadequate response to the threats posed by removing human control from the use of force, Human Rights Watch said in a report issued today. Instead of creating adequate controls on the development of these weapons, the directive could facilitate it.

(ワシントンDC、2023年2月14日) 自律稼働型兵器システムの開発に関する米国国防省の新指令は、武力行使から人間の制御を排除することで発生する脅威への不適切な対応だ、とヒューマン・ライツ・ウォッチ(以下HRW)は本日公表した報告書で述べた。そのような兵器の開発に適切な制御を設けるのではなく、今回の指令はそれを促進する可能性がある。

“The US pursuit of autonomous weapons systems without binding legal rules to explicitly address the dangers is a recipe for disaster,” said Mary Wareham, arms advocacy director at Human Rights Watch. “National policy and legislation are urgently needed to address the risks and challenges raised by removing human control from the use of force.”

「米国が危険に明確に対処する強制力を持つ法的規則なしで、自律稼働型兵器システムを追及するのは、大惨事を招く行為です。武力行使から人間の制御を排除することで増大する危険と課題に対処するために、国家政策と法律制定が緊急に必要です。」、とHRW武器アドボカシー局長マリー・ワレハムは指摘した。

The United States, as well as Australia, China, India, Iran, Israel, South Korea, Russia, Turkey, and the United Kingdom, is investing heavily in the military applications of artificial intelligence (AI) and related technologies to develop air, land, and sea-based autonomous weapons systems. At diplomatic talks held since 2014, these countries have consistently resisted growing calls to negotiate a new legally binding instrument on autonomous weapons systems.

米国と同様にオーストラリア、インド、中国、イラン、イスラエル、韓国、ロシア、トルコ、英国が、人工知能(AI)や関連技術の軍事応用に多額の投資を行い、陸・海・空の自律型兵器システムの開発を進めている。自律型兵器システムに関する新たな法的強制力のある制度について交渉せよという増大する要求に、それらの国々は2014年以降行われている外交協議で、一貫して抵抗してきた。

Human Rights Watch and the Harvard Law School International Human Rights Clinic reviewed the content of Directive 3000-09 on Autonomy in Weapons Systems, issued on January 25, 2023. The directive, which defines an autonomous weapon as “a weapon system that, once activated, can select and engage targets without further intervention by an operator [person],” closely follows a previous Defense Department directive issued in November 2012.

HRWとハーバード大学法科大学院国際人権クリニックは、2023年1月25日に出された「自律稼働型兵器システムに関する指令3000-09」の内容を精査した。新指令は、自律稼働型兵器を、「一度稼働したら、操縦者による更なる介入なしに標的を選定・交戦できる兵器システム」と定義していて、2012年11月に出された国防省の旧指令を厳密に倣ったものだ。

As with the original directive, the 2023 directive applies only to the Department of Defense. There is still no US government-wide policy on autonomous weapons systems or governing their use in law enforcement, border control, or other circumstances outside of armed conflict. The 2023 directive also does not apply to the CIA, which has played an active role in the use of armed drones abroad.

当初の指令と同様に2023年指令は国防省だけに適用される。自律稼働型兵器システムに関する或いは法執行、国境管理あるいは武装紛争以外の状況下における自律稼働型兵器システムの使用を統治する、米国政府全般としての政策はまだない。国外で武装ドローンの使用に積極的な役割を果たしてきたCIAには、2023年指令は適用されない。

The 2023 directive contains some of the same significant loopholes and provisions as the original directive. Like the earlier directive, it requires that “autonomous and semi-autonomous weapon systems will be designed to allow commanders and operators to exercise appropriate levels of human judgment over the use of force.” That language recognizes the value of human judgment, which is essential for ensuring compliance with international humanitarian law. However, neither the previous nor current directive are clear on what constitutes an “appropriate level” of human judgment.

2023年指令は当初の指令のように、重大な抜け穴と重要な規定の一部を盛り込んでいる。以前の指令のように新指令は、「自律稼働型・半自律稼働型兵器システムは、武力行使に関して指揮官と操縦者が、適正レベルの人による判断を可能にするよう、設計される」ことを義務付けている。この語句は、国際人道法への順守にとって欠くことのできない、人による判断の価値を認識している。しかし新旧いずれの指令も、人による判断の「適正レベル」を構成する要因が明らかではない。

The new directive establishes similar requirements, such as testing, that must be met before a waiver can be granted for the development or use of autonomous weapons systems that deliver lethal force. That review requirement can be waived by high-level officials “in cases of urgent military need.” There is little transparency, but it appears that the review requirement has never been used.

新指令は、致死力を発揮する自律型兵器システムの開発や使用に向けて、要件審査の免除が認められる前に、満たさなければならない、試験などの類似の要件を定めている。この審査要件は、「緊急の軍事的必要性がある場合」、国防省高官によって免除されることがある。透明性は殆どなく、この審査要件は一度も使われたことがないようだ。

Like its predecessor, the 2023 directive does nothing to curb the proliferation of autonomous weapons systems as it allows for “international sales and transfers” as long as they are “approved in accordance with existing technology security and foreign disclosure requirements and processes.”

2023年指令は、旧バージョンと同様、"技術安全保障と対外開示に関する既存の要件とプロセスに従って承認されている "限り、「国際販売と移転」を認めており、自律稼働型兵器システムの拡散を抑制するものではない。

One problematic revision is the deletion of several references to concern for “loss of control.” The US has repeatedly objected to the use of the word “control” in multilateral meetings. Human “control” is an appropriate word to use because it encompasses both the mental judgment and physical act needed to prevent autonomous weapons systems from posing moral, ethical, legal, and other threats, Human Rights Watch and the Harvard clinic said.

問題となる改訂は、"制御の喪失 "への懸念に関するいくつかの言及が削除されたことである。米国は、多国間会議で "制御 "という言葉を使うことに繰り返し異議を唱えてきた。人間の「制御」は、自律稼働型兵器システムが道徳的、倫理的、法的、その他の脅威をもたらすことを防ぐために必要な精神的判断と物理的行為の両方を包含するため、適切な言葉であると、HRWとハーバード・クリニックは指摘した。

The 2023 policy is also out of step with widely supported international proposals for a new treaty to prohibit and regulate autonomous weapons systems.

また、2023年指令は、自律稼働型兵器システムを禁止・規制する新条約を求める、広く支持された国際的提案にも同調していない。 

The US has proposed that countries agree to voluntary commitments such as a “code of conduct” to guide development and use of autonomous weapons systems. It recommends adoption of a political declaration aimed at ensuring responsible use of weapons systems that incorporate AI capabilities.

自律稼働型兵器システムの開発と使用を指導する「行動規範」のような自主的誓約に、各国が合意することを、米国は提案してきた。AI機能を組込んだ兵器システムの責任ある使用の確保を、目的とする政治宣言の採択を、それは推奨している。  

By contrast, more than 70 countries as well as nongovernmental organizations and the International Committee of the Red Cross regard a new treaty with prohibitions and restrictions as necessary, urgent, and achievable. United Nations Secretary-General António Guterres has called for “internationally agreed limits” on weapons systems that could, by themselves, target and attack human beings, describing such weapons as “morally repugnant and politically unacceptable.”

これに対し、70以上の国、非政府組織、赤十字国際委員会が、禁止規定と制限規定のある新条約を必要・緊急・達成可能であると見なしている。国連事務総長アントニオ・グテーレスは、それ自体が人間を標的にして攻撃する可能性のある兵器システムについて、「道徳に反しており、政治的にも容認できない」と述べ、「国際的に合意された制限」を求めた。

Most treaty proponents call for prohibitions on autonomous systems that by their nature operate without meaningful human control or that target people, and regulations that ensure all other autonomous weapons systems cannot be used without meaningful human control. The US directive fails to reach this bar.

条約提案者の大半は、その性質上「有意な人間の制御」なしに作動する、或いは人間を標的とする自律稼働型システムへの禁止と、他全ての自律稼働型兵器システムが「有意な人間の制御」なしに使用できないことを保証する規制を求めている。米国新指令はこの制約に到達していない。

Human Rights Watch is a cofounder of Stop Killer Robots, the coalition of more than 190 nongovernmental organizations in 67 countries that is working for new international law on autonomy in weapons systems.

ヒューマン・ライツ・ウォッチは、67ヵ国190以上のNGOの連合体で、自律稼働型兵器システムに関する新たな国際法を提唱する、「ストップ・キラーロボット」の創設メンバーである。

“Now is not the time for the US to tinker with incremental measures that pave the way for a future of automated killing,” Wareham said. “To protect humanity, the US should support the negotiation of new international law to prohibit and restrict autonomous weapons systems.”

「今は、自動殺戮の未来に道を開くような漸進的な措置を米国が、弄んでいる時ではありません。人類を守るために、米国は自律稼働型兵器システムを禁止・制限するための新しい国際法の交渉を支援すべきです。」、と前出のワレハム局長は指摘した。

 

キラーロボット:新たな場で条約を交渉せよ

https://blog.goo.ne.jp/tacchan/e/c7979d798db7847b4396823a89b7d677

 

参考文献

ロボット兵器の自律性に関する一考察 上野 博嗣著

「有為な人間の関与(Meaningful Human Control: MHC)」

自律型致死兵器システム(LAWS)に関するロボット法的視点からの考察 新保史生(慶応大学教授)著

人による有意の制御(meaningful human control)

自律型致死性無人兵器システム  佐藤丙午(拓殖大学教授)

  • Xでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

最近の「日記」カテゴリーもっと見る

最近の記事
バックナンバー
人気記事