Civilian Watchdog in Japan-IT security and privacy law-

情報セキュリティ、消費者保護、電子政府の課題等社会施策を国際的視野に基づき提言。米国等海外在住日本人に好評。

米コロラド州は米国内で最初の州として人工知能 (AI) の使用を規制する法案 (SB24-205) を可決、その内容を概観する

2024-05-17 07:05:31 | 米国のAI規制立法

 コロラド州は、米国内で人工知能 (AI) の使用を規制する法案 (SB24-205) を可決した最初の州となった。 この法律は、さまざまな分野にわたる AI テクノロジーの倫理的法的社会的な影響と予測される事態に対処することを立法目的としている。

  筆者は、かつて23日付けブログ AI立法 のトレンド: 米国の州法案の発展を概観」36日付けブログ「わが国のAI立法の在り方を見据える観点からEUAI規則案(AI法案:Artificial Intelligence Act)の最終段階を改めて探る(その1)「同(その2完)」を投稿した。

  今回のブログは、これらを受け(1)ローファームの解説を仮訳するとともに、(2)コロラド州議会の法案上程者の解説の仮訳を試みるものである。特に生成AIについては倫理的な問題だけでなく法的にも大きな課題をかかえていることから、筆者なりに注記を加えながら補筆した。

1.LexblogColorado Passes AI Regulation仮訳

 法案全条の原文参照。

 同法は消費者と対話することを目的とした高リスク AI システムの開発者または導入者を含む、コロラド州でビジネスを行うすべての人物が対象となる。 この法案では、「高リスク AI システム」を、結果的な意思決定を行う上で重要な要素となる AI システムと定義している。 特に、重要な決定を下さない限り、顔認識(facial recognition,(注1)、マルウェア対策、データストレージ、データベース、ビデオゲーム、チャット機能を使用しない不正行為対策技術は(とりわけ)含まれていない。

 この法案には、AIの開発と導入における倫理基準透明性説明責任の促進に重点を置き、政府、教育、企業内でのAIの使用を管理する包括的な枠組みが含まれている。 この法案は、意思決定プロセスにおける AI の使用に関する開示を義務付け、AI 開発を導くための倫理基準を定め、AI 関連のバイアスやエラーが発生した場合の救済と監視のメカニズムを提供します。 これらの救済メカニズムには、消費者が高リスク AI システムによって処理された誤った個人データを修正する機会や、(可能であれば)人間によるレビューを伴うシステムによって下された不利な決定に対して異議を申し立てる機会が含まれる。 開示要件は開発者に適用され、アルゴリズムによる差別のリスクを管理するために使用される方法を説明する公開された声明が必要となる。

 この法案では、企業が高リスクの AI システムを使用する場合、いくつかのコンプライアンス・メカニズムの開発が義務付けられており、これらには、(1)影響評価、(2)リスク管理ポリシー策定とプログラム、(3)高リスクシステムに関する年次レビューが含まれる。 これらのメカニズムは、これらのAIシステムの開発と使用における透明性を促進するように設計されている。

 この法案の可決により、コロラド州は米国における AI 規制の最前線に位置し、同様の課題に取り組んでいる他の州や管轄区域にとって先例となることになる。

2.法案の概要(州議会サイトで法案上程者の解説仮訳

Robert Rodriguez上院議員(民主党)

Brianna Titone議員(民主党)

Manny Rutinel 議員(民主党)

 

【法案要旨】

 この法案は、高リスク人工知能(AI)システム(以下、「高リスクシステム」という)の開発者に対し、高リスクシステムにおけるアルゴリズムによる差別(algorithmic discrimination)(注2)を回避するために合理的な注意を払うことを義務付けている。 開発者が法案の次のような特定の条項を遵守していれば、開発者および実働展開責任者(以下、「導入者(deployer)という)(注3)は合理的な注意を払っていたという反駁可能な推定が存在する。

(1)高リスクシステムに関する特定の情報を開示する声明を高リスクシステムを導入者に提供する。

(2)高リスクシステムの影響評価を完了するために必要な高リスクシステム情報と文書を導入者が利用できるようにする。

(3)AI開発者が開発または意図的かつ大幅に変更し、現在導入者が利用できるようにしている高リスクシステムの種類、または、これらの高リスクシステムのそれぞれを意図的かつ大幅に変更する開発から生じる可能性のあるアルゴリズム差別(algorithmic discrimination)の既知または合理的に予見可能なリスクを開発者がどのように管理するかを要約した公開可能な声明を作成する、

(4)高リスクシステムが原因であるか、またはそうであるという信頼できる報告をAIシステムの導入者から発見または受領してから 90 日以内に、州司法長官および高リスクシステムの既知の導入者に、アルゴリズム差別の既知のまたは合理的に予見可能を引き起こした可能性がかなり高いリスクを開示する。

 また、この法案は、高リスクシステムの導入者に対し、高リスクシステムにおけるアルゴリズムによる差別を回避するために合理的な注意を払うことを義務付ける。導入者が法案の次のような特定の条項を遵守していれば、導入者は合理的な注意を払っていたという反駁可能な推定が存在する。

(1)高リスクシステムの「リスク管理ポリシー」策定と「プログラム」を実施する。

(2)高リスクシステムの「影響評価(impact assessment )」を完了する。

(3)導入者が導入した各高リスクシステムの導入を毎年レビューし、高リスクシステムがアルゴリズムによる差別を引き起こしていないことを確認する。

(4)高リスクシステムが消費者に関して重大な決定を下した場合に、指定された品目を消費者に通知する。

(5)高リスクの人工知能システムが結果的な決定を下す際に処理した誤った個人データを修正する機会を消費者に提供する。

(6)高リスクの人工知能システムの導入から生じる消費者に関する不利な結果的決定に対して、技術的に可能であれば人間(human)による審査を通じて消費者に異議を申し立てる機会を提供する。

(7)導入者が現在導入している高リスクシステムの種類と、これらの高リスクシステムのそれぞれの導入から生じる可能性のあるアルゴリズムによる差別の既知または合理的に予測可能なリスクとその性質を導入者がどのように管理するか、導入者によって収集および使用される情報のソースおよび範囲を要約した公開可能な声明(satement)を作成する。

(8)アルゴリズムによる差別(algorithmic discrimination)の発見を発見後 90 日以内に、高リスクのシステムが引き起こした、または合理的に引き起こした可能性があることを州司法長官に開示する。

 消費者と対話することを目的とした人工知能システムを展開または利用可能にする、導入者または他の開発者を含め、この状態でビジネスを行う者は、人工知能(AI)システムが、人工知能システムと対話する各消費者に、次のことを確実に開示する必要があり、消費者は人工知能システムと対話している。

 この法案は、開発者または導入者が次のような特定の活動に従事する能力を制限するものではない。

(1)連邦、州、地方自治体の法律、条例、規則を遵守する。

(2)特定の調査への協力および実施

(3)消費者の生命または身体の安全にとって不可欠な利益を保護するために緊急措置を講じること。

(4)特定の研究活動を実施し、取り組むこと。

 この法案は、次の場合に開発者または導入者に積極的抗弁(affirmative defense)(注4)を提供する。

 潜在的な違反に関与する高リスクシステムの開発者または導入者は、法案または司法長官が指定する国内または国際的に認められた人工知能システムのリスク管理フレームワークに準拠していることを遵守し、また、開発者または導入者は、法案の違反を発見するために指定された措置を講じる。

 最後にこの法案は、州司法長官に法案の要件を実施し執行する規則制定権限を与えている。

***********************************************

(注1)解説から抜粋

 「顔認識」は顔の特徴や表情を読み取る技術で、「顔認証」は前もって取得した画像のデータと照合して本人かどうかを見分ける技術である。

 顔認識とは:顔認識技術は、人工知能やコンピュータビジョン技術を使用して、画像またはビデオの中で人の顔を自動的に検出し、識別する技術です。この技術は、セキュリティシステム、監視システム、マーケティング、医療、ゲーム、ロボット工学など、さまざまな分野で使用されている。

 顔認識システムの主な機能は、以下のとおり。

①顔検出

②特徴抽出

③顔比較

(注2)アルゴニズムによる差別からの保護(Algorithmic Discrimination Protections):

アルゴリズムによる差別に直面すべきではなく、システムは公平な方法で使用、設計される必要がある。アルゴリズム差別は、自動化システムが人々を人種、肌の色、民族、性別、宗教、年齢等に基づいて不当に異なる扱いを行ったり、不利益となる影響を与える場合に生じる。システムの設計者、開発者、導入者はこうした差別から個人とコミュニティを保護し、公平な方法でシステムを使用および設計するために、積極的かつ継続的な対策を講じなければならない。

(注3) デプロイ(deploy)は、「展開する、配置する」などの意味を持つ。IT分野では、Webアプリケーションなどのシステム開発工程で、アプリケーションの機能やサービスをサーバー上に配置・展開し、利用可能な状態にする一連の作業を指す。

通常のシステム開発では、「開発環境」「テスト環境」「本番環境」など、環境ごとにファイルが設置されて、開発作業が行われる。デプロイはテスト環境と本番環境を利用して、サーバー上に実行ファイルを反映し、実際に稼働できる状態にする。(本稿では“deployer”は「導入者」と訳す)。

(注4) 積極的抗弁(affirmative defense)(conell 大学ロースクールの解説仮訳)

 積極的抗弁とは、たとえ被告が申し立てられた行為を行ったことが証明されたとしても、その証拠が信頼できると判断された場合には、刑事責任または民事責任を無効にするであろう証拠を被告が提出する抗弁をいう。 積極的抗弁を提起する当事者は、それが適用されることを立証する立証責任を負う。 積極的抗弁を提起しても、当事者が他の抗弁を提起することを妨げるものではない。

 正当防衛(Self-defense)、罠(entrapment)(注5)、心神喪失(insanity)(注6)、必要な防御(注8)、および優れた対応は、積極的防衛の例である。

 連邦民事訴訟規則第 56 条に基づき、いずれの当事者も積極的抗弁について略式判決を求める申し立てを行うことができる。

(注5)罠(entrapment): 被告がそうでなければ犯しなかった犯罪行為に従事するよう被告を誘導することによって、被告の訴追を開始するために必要な証拠を入手したと被告が主張する肯定的抗弁。 たとえば、ジェイコブソン対米国、503 US 540 (1992)を参照。 各州には、罠に対する抗弁がいつどのように適用されるかを概説する独自の判例法および法令があり、罠の主張に対して主観的なテストが適用される場合がある。これには次の 2 つの要素が含まれる。

    ① 被告には犯罪行為の性向がないこと。

 ② 政府による犯罪誘発

(cornell 大学ロースクール解説仮訳)

(注6)心身喪失(insanity)とは、人が自分の行動を完全に理解することができない精神疾患または疾患である。 心神喪失は主に刑法の概念ですが、契約法や遺言書にも見られることがあります。 心身喪失は部分的な場合もあれば完全な場合もあり、一時的な場合もあれば永続的な場合もある。 心神喪失の定義は、法律、特に州の刑法に多く見られるが、司法判決に由来する場合もある。

 事的心神喪失とは、被告が自分の行動の性質を知ることや理解すること、あるいは善悪を区別することを妨げる心神喪失のことである。 心神喪失の定義は州によって異なり、ほとんどの州ではマックノートン・ルール(M’Naghten rule)(注7)またはモデル刑法(Model Penal Code (MPC))の心神喪失に対する弁護(insanity defense)のいずれかに従う。 犯罪的心神喪失の他の検査には、抵抗不能衝動検査(irresistible impulse test)やダーラム検査(Durham test)などがある。(cornell 大学ロースクールの解説仮訳)

(注7) マックノートン・ルール(M'Naghten Rule ) (McNaghten と綴られることもある) は、犯罪的心神喪失に対する最初の法的検査である。 この検査は 1843 年に英国でダニエル・マックノートンに対する訴訟中に始まった。 マックノートンは首相秘書官エドワード・ドラモンドを首相だと信じて射殺した。 マックノートンは逮捕中、「保守党」が自分に対して共謀し、首相を殺害したいと考えていたため、首相を殺害する必要があったと主張した。 公判でマックノートンの弁護士は心神喪失の弁護を行い、これを裏付ける専門家の証言やその他の証拠を提出した。 裁判官の指示に従い、陪審の評決は「心神喪失のため」無罪となり、マックノートンは残りの生涯を精神病院で過ごすことになった。(cornell 大学ロースクールの解説を仮訳)

Daniel M'Naghten(Wikipedia から抜粋 )

(注8) 必要な防御(necessity defense):必要性の抗弁は、不法行為が避けられず、より深刻な危害の発生を防ぐため特定の行為が正当化される場合の、不法行為に対する責任に対する抗弁である。

刑法では、必要性の弁護は、俳優または他人に特定の危害を及ぼす恐れのある状況において、行為者の違法行為は 2 つの悪のうち必然的に小さい方であると主張する。 カリフォルニア州の陪審説示(California Jury Instructions)によれば、必要性の弁護を成功させるには、次のことを証明する必要がある。(筆者注記:わが国でいう「緊急避難」)

①行為者は、行為者または他の誰かへの怪我を防ぐために行動しました。

②行為者には合理的な代替手段がなかった。

③行為者は回避した危険よりも大きな危険を引き起こしたわけではない。

④行為者は実際、脅迫された危害や悪を防ぐために違法行為が必要だと信じていた。

⑤まともな人であれば、その状況では違法行為が必要だったとも信じただろうし、

その行為者は緊急事態に実質的に貢献しなかった。

*******************************************************

Copyright © 2006-2024 芦田勝(Masaru Ashida).All Rights Reserved.You may reproduce materials available at this site for your own personal use and for non-commercial distribution. 

コメント    この記事についてブログを書く
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする
« 米国16州の包括的個人情報保... | トップ | 児童のプライバシー保護強化... »
最新の画像もっと見る

コメントを投稿

米国のAI規制立法」カテゴリの最新記事