【速報】すべてのETCレーンが使用可能に ETCシステム障害 応急復旧が完了 NEXCO中日本管内の高速道路
【速報】すべてのETCレーンが使用可能に ETCシステム障害 応急復旧が完了 NEXCO中日本管内の高速道路
これ、随分前から気になってました。
今の検索エンジンって、AIの結果をトップコラムに掲載しにかかるじゃないですか?それが明らかにおかしい時が幾度もあって、なんだよこの検索エンジンは?って思ってったら、おおむねAIの誤審判がまさにデカデカと乗ってるのね。
・完全に正しい
・正しいが完全ではない
・部分的に正しくない
・全く正しくない
・回答なし
・クローラーがブロックされた
8つのLLM検索エンジン(ChatGPT search、Perplexity、Perplexity Pro、DeepSeek Search、Copilot、Grok-2 Search、Grok-3 Search、Gemini)について評価結果をチャートに視覚化したところ、正確な回答を示す緑色よりも、不正確な回答を示す赤やピンクが多いチャートが生成された。最も正確な回答を示したのはPerplexityとPerplexity Proだった。一方、Grok-2とGrok-3、Geminiは正しい回答をほとんど提示できなかったようだ。
このヒット率に低さって問題じゃない?未完成品を通常運用に乗せてるんだから。
あちこちで拾ってきました!ってのがAIの本性だし、本懐なんだけど、間に合ってないんです、は「ルール違反」だと思う。
最も驚くべき発見の1つは、評価されたAI検索ツールが正しい情報を見つけられなかったとき、それを認めることなく、実にたやすく「偽の結果」を生成したことである。
「答えなくちゃ」なる命令がルーチンにあるとしてさ、「何かは必ず言っておく」なる切実な、裏切れなさもあるんだろうけれどさ、出鱈目でもこたえておけ、では優先順位が酷すぎって思わない?
「チャットボットは全体として、正確に答えられない質問への回答を拒否することが苦手で、代わりに不正確な回答や推測に基づいた回答を提供した。生成AI検索ツールは(引用元記事への)リンクを捏造することも多く、ポータルサイトに配信された記事や無断転載された記事を引用しがちだった」
このような生成AIの出力結果がいかにユーザーを惑わし、信頼性があるかのような錯覚を起こさせるかは容易に想像がつく。生成された情報が完全なる捏造だった場合は、なおさらだ。
ひどいもんである。「答えとく」至上主義が、デタラメも捏造も「構わない」をスタンスに入れているだなんて。しかも「電子頭脳」様たるコンピューターネットワークの返答がこれである。
記事中ではこれを小見出しに
「リンクやクレジットなしでコンテンツを再パッケージする生成AIツールは、配信元へのトラフィックを遮断し、その認知度と収益に影響する」と研究者らは述べた。
経済的な影響以外にも、AIツールが引用を捏造したり不正確な属性を付与したりすれば、記事の内容そのものの信頼性が大きく脅かされる。ユーザーが出典を確認できなかったり、AI検索エンジンが誤った情報を提示したりする状態では、誤情報に対処するのは難しい。
「AIツールが誤った属性を付与したり、引用を捏造したりすると、AI技術に対する信頼も、参照先のジャーナリズムに対する信頼も損なわれる。また、これらのツールは間違った回答を示していても信頼できると思われやすく、誤情報のリスクにもつながる」と2人の研究者は述べている。
記事の記載通りなら、冊子などの「引用元」「欄外の補足」などのほうがはるかに信憑性が高く、リンク元への「信頼」をデータ価値自体に内在してくれてるだけ、「本当かなあ・・」って立ち戻る手間をうんと省かせてくれる。
AIの堂々たる独断専行っぷりは、ただのエセ隠居さんの知恵みたいに怪しさが募り出す。
ざっくり総括すれば「凛として嘘をつき続けられるペテン師然」がAIの本性と言い切れるのが現状のようだ。
言われてみれば、随分「検索結果上で変な方にスピンさせられた」かいすうはAIが入ってから増してたな。
最も驚くべき発見の1つは、評価されたAI検索ツールが正しい情報を見つけられなかったとき、それを認めることなく、実にたやすく「偽の結果」を生成したことである。
ですって。
実際そう香る景色を幾度もみてる。