JBpress (フロントラインプレス)
2024年4月9日
AIを規制する動きが広がる(写真:ロイター/アフロ)
人工知能(Artificial Intelligence : AI)に関するニュースを聞かない日がありません。とくに生成AIの急速な発展に伴い、虚偽情報の創出・拡散による負の影響がこれまでとは段違いで危険視される状況になってきました。そんななか、AIを規制しようという各国の動きも急ピッチで進んでいます。先頭を走る欧州連合(EU)は今年3月、世界初となる包括的な「AI規制法」を成立させました。この法律をひも解きながら、AIと規制の最前線を専門記者グループのフロントラインプレスがやさしく解説します。
自由と民主主義を守るために
EUの政策や方針を議論する欧州議会は3月13日、フランス東部のストラスブールで本会議を開き、AI(Artificial Intelligence)の包括的な規制の枠組み規則(AI規制法)を賛成多数で可決しました。賛成523人、反対46人。大差でAI規制法が承認された瞬間、議場は大きな拍手に包まれました。
2021年4月に法案が公表されてから可決まで、ちょうど3年。このわずかの期間に、「ChatGPT」に代表される生成AI (Generative AI)が国際社会を席巻しました。コンピューターが自ら学習し、その成果によってコンピューターが新たなコンテンツを創出することが当たり前になってきたのです。
こうした動きに対し、自由と民主主義、人権擁護という西側諸国に共通する価値観に立脚し、社会の混乱や分断、紛争などの発火点にならないよう規制の枠組みを整えたいとEUは考えてきました。子どもや障がい者などの社会的弱者を危険にさらすようなAIも認めない方向を明確にしています。そうした人間優先をベースにした達成点の1つが今回の規制法です。
では、EUのAI規制法は何をどう禁じているのでしょうか。
欧州が定めた4段階の危険度
EUのAI規制法は、使用目的や内容によってAIの危険度を4つのレベルに分類し、それぞれのレベルに応じた規制を設けました。
EUのウェブサイトの資料をもとにフロントラインプレス作成
最も厳しいランクは「容認できないリスクを持つAI」で、これに該当するものは全面的に使用が禁止されます。
例えば、個人の行動を操作するもの、個々人の信用格付け(ソーシャルスコアリング)、年齢・障がい・経済状況など個人の弱みにつけ込むものなどが、このレベルに該当します。政治・宗教・思想・性的指向・人種など極めてセンシティブな個人の情報を利用して人々を分類するAI、インターネットや監視カメラからの顔画像の収集、職場・教育機関で人々の感情を認識するAIなども使用できません。
次のランクが「高リスクを持つAI」です。これに該当するAIは全面禁止ではありませんが、法の要件を厳格に満たしていなければなりません。教育機関での入学者選抜やクラス分け、職場での採用や評価などに使う場合、さらに従業員の行動監視・分析のためのAIなどが該当します。
「限定的なリスクのAI」では、透明性の確保のみが使用の条件となります。該当するのは生成AIを使用した動画や音声、チャットボットなどです。例えば、ディープフェイク技術を使用したコンテンツを提供する場合は、生成AIを使っていることを明示する必要が生じます。
「最小リスクのAI」では自主的な使用規範の作成などが求められます。ゲームなどにAIを組み込む場合が該当します。
一方、AIの基盤モデルを開発した企業に対しては、著作権を侵害していないかどうかを厳しく自己チェックし、AIの学習過程で著作権のあるコンテンツを使った場合などにはそのデータを開示する義務が生じます。
重い制裁金を課すのも、この規制法の目玉です。違反した事業者には、最大3500万ユーロ(約56億円)もしくは年間売上高の7%のどちらか高い方という巨額の制裁金が課せられます。
AI規制法の全面的な適用は2026年になる見込みです。EU全域で適用され、域内で活動する外国企業も対象。AIによるコンテンツをEU内で提供する場合も法の適用対象になるため、日本企業も無関係ではありません。
中国は政府批判の押さえ込みが目的
EU以外の国々では、どんなAI規制が進んでいるでしょうか。
実は、EUより先にAI規制を法制化した国があります。中国です。
2023年8月にAI管理規則をつくり、「国家や社会制度の転覆を図り、国家と社会の安全をリスクにさらす情報」などの情報を生成AIで発信することを禁じました。EUのAI規制法は自由と民主主義を守ることを眼目にしていますが、中国では政府批判や中国共産党への反対意見などを押さえ込むことが主目的になっています。
米国では2023年10月、バイデン大統領がAI規制に関する大統領令に署名し、管理に乗りだしています。ポイントは、AIの開発企業は政府と重要情報を共有しなければならないということ。一般公開される前に安全性のテストも義務付けられ、開発途中であっても政府に重要情報を通知することが求められます。
また、虚偽情報の拡散を防ぐため、生成AIが創り出した動画や音声については、利用者が判別できるようにしなければなりません。「電子透かし」(digital watermark)技術などを用いて政府と企業が安全性を保証する仕組みも整えていくことにしています。
こうした方針に基づき、バイデン大統領は今年2月、IT企業やAI開発企業など200社以上が参加する共同事業体を設立すると発表しました。米グーグルやアップル、オープンAIなどのほか、金融大手のJPモルガン・チェースなども参加しています。
日本はガイドラインで事業者に自主的な取り組みを促す
AI規制に関する日本の取り組みはどうなっているでしょうか。
これまで、総務省の「AIネットワーク社会推進会議」と経済産業省の「AI事業者ガイドライン検討会」が軸となって、基本的な考え方や具体的対応策を練ってきました。2023年夏に広島で開催されたG7サミット(主要国首脳会議)では、AI規制の国際ルールを協議していく「広島AIプロセス」が合意。日本は議長国として取りまとめに当たりました。
現在は総務省・経済産業省が中心となって作成した「AI事業者ガイドライン案」が公表され、最終的な詰めを行っている段階です。
日本の基本姿勢は、EUのように罰則を伴った法規制ではなく、事業者の自主的な取り組みに依拠するというものです。
法的拘束力のないガイドライン(案)では、①事業者の自主的な取り組みを支援、 ②国際的な議論との強調、 ③利用者にとってのわかりやすさ―という3点の方針を明示。事業者に共通する課題として、偽情報対策などの「人間中心」、偏見や差別をなくす「公平性」、学習データの正確性を期す「安全性」など10項目を整備すべきとしています。
出所:総務省・経済産業省の資料『「AI事業者ガイドライン案」に対する」ご意見及びその考え方』より
ガイドライン案については、今年1~2月にパブリックコメントも募集され、約4000件の意見が集まりました。このなかでグーグルやソフトバンクなどの事業者は「過度に法令による規制等が適用されることは生成AIの活用やイノベーションを阻害する」として、法的拘束力を求めない日本政府の姿勢を支持しています。一方では偽情報や犯罪に利用される危険性などについての具体的な対応策に欠けているとの指摘もありました。
AI技術は日進月歩ではなく、それこそ分単位・時間単位で進歩を遂げています。おそらく10年前には今の状況を多くの人が正確に予測できていなかったでしょう。規制と活用をめぐる動きも今後は分単位・時間単位で進んでいくことは間違いありません。
フロントラインプレス
「誰も知らない世界を 誰もが知る世界に」を掲げる取材記者グループ(代表=高田昌幸・東京都市大学メディア情報学部教授)。2019年に合同会社を設立し、正式に発足。調査報道や手触り感のあるルポを軸に、新しいかたちでニュースを世に送り出す。取材記者や写真家、研究者ら約30人が参加。調査報道については主に「スローニュース」で、ルポや深掘り記事は主に「Yahoo!ニュース オリジナル特集」で発表。その他、東洋経済オンラインなど国内主要メディアでも記事を発表している。
*左横の「ブックマーク」から他のブログへ移動