goo blog サービス終了のお知らせ 

ボーナス・トラックが終わらない

文章練習にはじめました。
思ったことを思ったまま書き散らしています

2025年2月24日(月・祝) 東京・晴れ  ChatGPTでファクトチェックはできません

2025-02-24 16:48:12 | 日記
最近ツイッター(現X)にて

「AIに聞いたら乗り換え可能と出たらしいですが、この駅から〇〇(電車名)に
乗ることはできません」

って貼紙が駅にあった、という話や

「卒論の口頭試問で根拠は?と尋ねたら『AIがそう言ってました』って堂々と答える学生がいた

って話を目にしたんですが
「現時点でAIに根拠のある正確な回答を求めてはいけません」ってやつ
みんなまずAI使う前に知る機会があったらいいのにね。

ネットで学習した有象無象の情報を無限に(?)学習して、その中から
それっぽいことを堂々と言うのが得意なアレ(AI)なわけで
そういうひとに「ねえこれって正しいと思う?」って聞くのが筋違いだって
一度でも聞くか読むかするとわかると思うんだけどな。
そういう人って現実にもいるしさあ


大量の情報を一気に与えて
「今伝えた情報を1000字程度に要約して」っていうのだったら
たぶん余計な情報は加えずに、そのままそれを加工してくれると思う……けど
それもほんとうにそうなんだろうか

AIに校正させればいいって話も聞いたけど
今のところは逆にAIが書いたやつは人間が校正する必要があるっていうほうが
理解しやすい気がする。だってあいつしゃあしゃあと嘘つくから。

どれくらいめちゃくちゃなこと言うのかちょっと試してみたい気もするよな
chatGPTは「知りません」ってなかなか言わないらしいから
こっちが即興でつくった、【まだ世界に存在しない言葉】の意味とか聞いて
みようか
なに言い出すか楽しみだわフフフ
※しかしこの造語をまた学習されるとやっかいなので、ちゃんと設定で【今入力した内容は学習させない】にチェックしときます
……よくわからんで使ってる人が想像より多いなら、このチェックボックスの
存在も知られてない可能性が大? それでまたさらに変なこと学んでるのか……?

一ヶ月前に「おもしろーい!」って学んだはいいけどそこから前に進んで
ないんで、半分あそびがてらChatGPTの学習をすすめたいと思います。