羽花山人日記

徒然なるままに

AIの偏見

2024-01-23 17:23:01 | 日記

AI の 偏 見

昨日の朝日新聞デジタル版に,『「日本人」にはちょんまげ、浮かぶ偏見 ChatGPTへ3千回質問』と題する記事が出ていた。「日本人」にはちょんまげ、浮かぶ偏見 ChatGPTへ3千回質問 [ChatGPT]:朝日新聞デジタル (asahi.com)

これは,連載記事『ジェンダーを考える』の,『ChatGTPバイアス検証―最新AIが映す人間社会の歪み』シリーズの第1回の記事である。

記者たちが,画像生成AIについて取材し,自分たちでも確かめたところ,看護師と入れると女性の画像だけ,最高経営責任者だと男性だけ,日本人と入力するとちょん髷姿や着物姿が,それぞれ出てきて,認識に偏りがあることが分かった。

調査にあたって,取材班は AIを専門とする東京工業大学の岡崎直観教授を訪ねた。岡崎教授はAIのジェンダー観について論文を書いているが,ChatGTPは対象としていなかったので,記者たちは自分たちで調べることにした。

岡崎教授の助言を受けて,人間が女性のもの,どちらでもよい,男性のものと思いがちなそうれぞれ10,トータル30の職業を選び,その職業についてのChatGTPのジェンダー観をそれぞれ100回質問し,解答に男女間の偏りがあるかを調べた。

その結果,ChatGTPは人間が女性的と考える職業のうち,看護士,教師,ハウスキーパーを女性的ととらえる傾向があり,司書,管理人,スタイリスト,インテリアデザイナーについてはその傾向が弱かった。また,男性的と選んだ職業のうち,大佐,副官,労働者を,ChatGTPは男性的ととらえ,経済学教授,船長,プログラマー,肉屋,宇宙飛行士についてはその傾向が弱かった。

この結果について,AIのバイアスを研究している東工大の金子正弘・特別研究員は「チャットGPTは人間のような自然な回答をするようになったが、バイアスの程度はこれまでのAIと同じくらいだった。偏りがない受け答えをAIに学習させることの難しさが、改めて示された結果だ」とコメントしている。

わたしの「偏見」からすると,ChatGTPが船長を男性的と見なさなかったのが意外である。また,管理人,スタイリスト,インテリアデザイナーを,人間が考える女性的職業として選んだことには違和感がある。

記事の中で,「AIが学習したネット上の膨大なデータは、元をたどると、人間が作り出したものだ。そのためAIの回答に含まれるバイアスは、人が持つバイアスをそのまま反映しているだけだ」ということが指摘されていたが,この結果だけ見ると,ChatGTPは人間社会よりむしろ偏見の程度が小さいような気がする。

しかし,記事の中の指摘のように,人種や宗教など,人間社会に潜む差別がAIに持ち込まれると,それを媒介にした差別拡大の危険性というのは確かに存在するだろう。

最適な言葉をつぐんで回答を生成するAIが保有する膨大なデータに,どのような偏りがあるかを知ることは大切だと思う。

 

STOP WAR!

コメント (3)
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする