猫じじいのブログ

子どもたちや若者や弱者のために役立てばと、人権、思想、宗教、政治、教育、科学、精神医学について、自分の考えを述べます。

予測からの誤差が人の感情を引き起こす - 明和政子の『ヒトの発達の謎を解く』

2022-02-13 22:09:37 | 脳とニューロンとコンピュータ

明和政子の『ヒトの発達の謎を解く―胎児期から人類の未来まで』(ちくま新書)の最終章は「人類の未来を考える」である。人間はAI(人工知能)、VR(仮想現実)、アンドロイド(人型ロボット)と共存できるかということである。このなかで、彼女は、なまじ人間に似せたロボットは不気味であるという話しを紹介している。それを最初に指摘したのは、1970年のロボット工学者の森政弘であるという。

明らかに機械であるとわかる範囲では、ヒトに似てる、あるいは、機能が部分的にうわまわる程、好感度を増すが、ある敷居を越えると、不気味に思われ、ヒトとして受け入れられないという「不気味の谷」の仮説である。

2011年に、アメリカの研究者による心理実験で科学的に裏付けされたという。

また、傍証として、SF映画『ファイナルファンタジー』の興行上の大失敗、SONYのaiboが急に売り上げが落ちたことを明和は挙げている。

彼女はこれをつぎのように説明する。ヒトの脳は対人関係において「予測―誤差検出―予測の修正―更新」を繰り返しているという。予測からの誤差がなければ、ヒトの関心をひかない。少しの誤差なら関心を生む。場合によっては好感かもしれない。ところが、この予測からの大きな誤差は、大きな不安を生む。

ヒトに似せることでヒトとしての言動を予測するようになると、そこからの誤差、期待の裏切りが大きいのである。もし、その人型ロボットが力持ちであれば、恐怖を覚えるだろう。私は彼女の指摘に同意する。

100年前、精神医学の大家、エミール・クレペリンは、精神科医が心の動きをシミュレーションできない言動をする人を、精神疾患者と定義した。「不気味の谷」は予測不可能な言動をとることを狂気だとみなしたのに通じる話しである。

「予測―誤差検出―予測の修正―更新」のモデルは男女関係にも適用できる。この場合は誤差がないとなると、つまらない相手となる。私の妻は、私を危険な男と思って、ひかれたという。その危険度が度をすぎていなかったから結婚までいったのであろう。

いくつものバブルを目撃してきた私は、現在のAIやVRやアンドロイドの礼賛は、軽率すぎると思っている。資本主義の行き詰まりの反映にしか思えない。



最新の画像もっと見る

コメントを投稿