チャットGPT(Chat GPT)という、AI(人工知能)の一般使用を提供するインターネットサービスが公開され、日々それについての解説・意見がマスコミに取り上げられ話題となっている。AIそれ自体は随分以前から多種多様な分野で使われていることが、マスコミやテレビ番組などでも報じられている。今回チャットGPTがホットな話題になったのは、それが(登録は必要だが)一般公開されている点と、尋ね手の要望に短時間で返答を返すことで会話(のようなもの?)が実現できるという点からなのだろう。
チャットGPTはいくつかのIT企業が次々に公開を予定しているらしいので、サービス提供社による「返答の違い」や「ニュアンスの差」などもいずれニュースになるかも知れない。あるいは「A社」のAIはこう答えたが、「B社」のAIは違う答えを返したとか、「どちらが正しいのか?」とか、「私はA社よりB社の方が好き」とか。
そうなると、チャットGPTにも個性があるということになり、「チャットGPTは常に正しいとは限らない」という手の議論の意味も変わって来るだろう。つまり、「評論家のAさんの意見がいつも正しいわけでは無い」というと極めて似て来るということ。但し、人間よりはるかに膨大な情報を学習・処理して、しかも「一時的な物忘れ」はシステム上起きないという点で、人間の評論家とは異なっている。逆に、人と違って「感情や立場を持たない」と言う点で、「機械的な結論」という冷ややかさを感じるかも知れない。
チャットGPTのAIはインターネット上の情報を「機械学習」して、それを基にして返事を作るということだから、学習内容に偏りがあれば当然、返答もその偏りに影響を受けることになる。いずれ、どのAIに聞いたのかを銘記する必要も出て来るのじゃないか?、と想像。