嘗て Eliza という chat bot が存在したのであるが、今は ChatGPT と。
Eliza の後続は多く、ほとんどいわゆる「電子無能」と呼ばれていた。
巧妙なオウム返しで人との会話を模すようなものが多かった。
現在の ChatGPT は、単純な入力のオウム返しではなく、入力を評価し、それに従った返答の構築を一応行っているのである。
その返答は、一部の人たちに大変評判がよろしいのである。
じゃあ、巷間に「仕事を奪う」と言われるほどなのか?というと、正直素で使えばすぐわかるけれど、完全に人間の替わりに置き換えできるとは思えないのである。
なにせ平気で法螺を吹く。法螺にならない返答をさせることもできるけれど、それには最近プロンプトエンジニアリングなどといった言葉で台頭してきたものが示すように、入力で巧いこと誘導してあげないと与太話を始めがちなのである。
使う側としては、その返答をそのまま鵜呑みにはできないので、そういう人は使うとダメになると思われるのである。
人が容易に思いつかない変なアイデアを出させるとか、まるっきりわからないことを調べる端緒となるところを提示してもらうとか、調べ物をする際の手順等の手助けとか、ぶっちゃけ間違っていても大して被害が無いようなことには、滅法役に立つ気はする。
あと、経験値型の作業向きかな?合理的、論理的な推論を積み重ねた結果の決断を下すとかは、案外ダメだと。変に聴こえるかもしれないけれど。
むしろやらせると強そうなのは、なんだかわからないけれどそうやるとだいたい上手くいくみたいのの経験値の積み上げの果ての助言みたいなところとかか?
例えば、西の方の空の様子をずっと観察し続け、今後数時間後の天気を予測するとか、そういうのは無茶強そうなのである。
もしくは人ごみの中で動き回るスリ犯をその動きから発見するとか。
会話の端々から嘘っぽところを抽出するとか。
理論的な推論は、制約などの条件を容易に無視してしまう傾向から、なかなか難しそうなのである。例えば、「200文字で」といった制約条件は比較的無視してくる傾向。多分過去の学習時にこういう何らかの制約を守るというのが評価が低かった結果なのではないかと思う。だから課せられた制約を守るよりもっと入れ込みたいことがあれば、制約は守らずにそれを盛り込んでくる。
逆に入力としてそういう制約を上手く押し付けられれば、巧く誘導ができるのである。
一休さんの頓智を巧いこと防ぐみたいな入力を考えるお仕事が今後発生するかもしれない。