【社説②・04.07】:性的偽画像 被害を防ぐ対策の検討を急げ
『漂流する日本の羅針盤を目指して』:【社説②・04.07】:性的偽画像 被害を防ぐ対策の検討を急げ
生成AI(人工知能)を悪用した、性的な偽画像や偽動画の被害が国内でも深刻化しつつある。被害を防ぐ対策の検討を急がねばならない。
生成AIの進歩で、巧妙な偽の性的画像や動画を誰でも簡単に作れる時代になった。インターネット上には、性的偽画像や動画の作り方を紹介するサイトが多数存在している。AI技術の進化がもたらした負の側面の一つだろう。
米国のセキュリティー会社の調査では、2023年にネット上で確認された偽動画は約9万6000本で、19年の5倍を超えた。全体の98%は性的な内容だった。
被害に遭っているのは、多くが芸能人だが、卒業アルバムから入手した知人や同級生の顔写真などが勝手に使われるケースもある。AI技術の悪用によるリスクは、身近に迫っている。
ひとたび偽画像がネットに流れると、すべてを削除することは難しい。知らぬ間に画像を使われた人が「いつ、誰に見られるか分からない」とおびえ、心に傷を負うような現状は放置できない。
海外では性的偽画像の作成や所持を禁じる動きがある。これに対し日本では、名誉 毀損 などの実害が生じた場合、罪に問われるケースはあるが、偽画像の作成そのものを禁じる法律はない。
鳥取県は、生成AIで子供の顔写真を加工して作った性的な偽画像や動画を「児童ポルノ」と規定し、作成や提供を禁止する改正青少年健全育成条例を施行した。
児童買春・児童ポルノ禁止法は被害者が実在していることが、適用要件だが、AIの偽画像は「実在」の証明が難しい。そのため県は条例の制定で、実在性にかかわらず適用できるようにした。
ただ、こうした課題への対応は本来、国レベルで行うべきだ。AIの法規制などを検討する国の有識者会議は、性的偽画像の問題もリスクの一つに挙げている。
今国会で審議中の生成AIに関する法案では、国民に対する悪質な権利侵害が発生した時は、政府がAI事業者名などを公表する方針だが、罰則はない。これで被害を十分に防げるのか、議論を深めることが重要だ。
民間と連携したネット監視の強化や相談窓口の整備も不可欠だ。ネット事業者も、本人の同意なく投稿された偽画像は削除するなどの措置を徹底する必要がある。
学校や家庭での教育も大切になる。性的偽画像の作成や拡散が重大な人権侵害にあたることを、丁寧に教えてもらいたい。
元稿:讀賣新聞社 朝刊 主要ニュース 社説・解説・コラム 【社説】 2025年04月07日 05:00:00 これは参考資料です。 転載等は各自で判断下さい。