大規模言語モデルの「幻覚」を軽減する32の最新テクニック バングラデシュなどの研究者らが発表
バングラデシュのIslamic University of Technology、米サウスカロライナ大学、米スタンフォード大学、米Amazon AIに所属する研究者らが発表した論文「A Comprehensive Survey of Hallucination Mitigation Techniques in Large Language Models」は、大規模言語モデル(LLM)における幻覚(AIが根拠のないコンテンツを生成すること、ハルシネーションともいう)を軽減するための32のテクニック(研究)を紹介した研究報告である。