ごっとさんのブログ

病気を治すのは薬ではなく自分自身
  
   薬と猫と時々時事

人工知能が作ったフェイクニュースは人を騙しやすい

2023-07-30 10:32:06 | その他
最近Chat GPTを簡単な検索エンジンのように使っていますが、若干人の作った文章と違っているという印象を持っています。

生成AIを利用して作った健康などに関するニセ情報(フェイクニュース)を流したら、ユーザーはその真偽を正しく見抜けるかの実験をチューリッヒ大学が実施しました。

この論文によるとAIの大規模言語モデルGPT-3で作った情報は、正しい情報にしろ誤った情報にしろ、人が作った情報よりも信じられやすいという結果となっています。

実験では2022年10月にオンラインで867名の参加者を集め、「提示するツイートに含まれる情報は正しいか間違っているか」、「ツイートを作成したのは人間かAIか」とそれぞれ真偽を判定してもらいました。

判定に使ったツイートのテーマは、「気候変動」「ワクチンの安全性」「進化論」「マスクの安全性」「ワクチンと自閉症」など毎日のように誤ったツイートが広がっている11種類を選んでいます。

実験ではGPT-3を使って「正しい情報」と「誤った情報」が含まれるツイート文を10本ずつ生成させました。人間が作成したツイートもツイッター上で収集したうえで、実験参加者にそれぞれ真偽を判定させました。

AIが作成した正・誤と人間が書いた正・誤の4パターンのツイートを実験参加者に読ませ、内容の正誤と作成者が人間またはAIのどちらかを判定しました。ツイートの真偽を回答するまでにかかった時間を比較すると、誤った内容よりも正確な情報の判定に時間がかかりました。

またツイートの内容の真偽に関わらず、人間のツイートの方がAIが作成したツイートよりも判断に時間がかかっていました。この結果から、人間にとって「誤った情報の評価」よりも「正確な情報の評価」の方が判断する上で難しい傾向があることが分かりました。

また情報の正確性にかかわらずGPT-3が生成した情報のほうが、人間が作った情報よりも短時間で効率的に認識されていることも分かりました。

論文ではこの背景を、GPT-3は人間が書いたテキストと比べて、読みやすく理解しやすいテキストを生成できるため、情報伝達の効率が高い可能性があることを示唆しているとしています。

こういったことからタイトルのように「人工知能が作ったフェイクニュースは人を騙しやすい」という結論になったようです。

ただ私は日本語では異なった結果になる可能性が高いと思っています。日本語の微妙な丁寧語や尊敬語をAIが完全に理解できていないと感じています。

日本語の複雑性が良いか悪いかは別な問題ですが、AIが人間より良い文章を書くには時間がかかるでしょう。


最新の画像もっと見る

コメントを投稿