宇宙そのものであるモナド

生命または精神ともよびうるモナドは宇宙そのものである

叢小榕『老荘思想の心理学』第7章28「杞人の憂い――予知の限界を乗り越える」(『列子』天瑞):「気にかける」べきは、現実が内包する「無限にある起こりうる全ての事態」ではない!

2024-02-02 18:20:42 | Weblog
※叢小榕(ソウショウヨウ)編著『老荘思想の心理学』新潮新書、2013年:第7章「何を判断の基準とすべきか」
(28)「杞人の憂い――予知の限界を乗り越える(『列子』天瑞)
杞(キ)の国に、「天が崩れ、地が陥る」ことを心配する者がいた。それに対して列子が言った。「そもそも天地崩壊を心配するのは間違いだし、崩壊しないと断言するのも間違いだ。崩壊するかしないかは我々の知りうるところではない。天地が崩壊しようとすまいと、どうして我々が気にかけることがあろうか。」(『列子』天瑞)

★。「そもそも天地崩壊を心配するのは間違いだ」と『列子』が言うのは、「無限にある起こりうる全ての事態(可能性)を想定していては、行動できない」という意味だ。
★「現実世界の中で起こりうる事態は無限にある」ので、たとえコンピューターのように相当高速な計算能力があっても処理しきれない。経験を通して、生起確率の低い事態や、関連性(relevance)の低い事態を無視する
ことで、「起こりうると想定する事態」の数を減らし、かくて行動の選択肢を決めることが可能となる。

★現実が内包する「無限にある起こりうる全ての事態(可能性)」を考えることは不要だ。つまり「気にかける」必要はない。そう『列子』は言う。

《感想1》「気にかける」べきは、現実が内包する「無限にある起こりうる全ての事態」ではなく、「生起確率が高い事態」や、「関連性(relevance)の高い事態」のみだ。人は、そのように行動している。
《感想2》AI・人工知能は現実が内包する「無限にある起こりうる全ての事態(可能性)」を考えてしまう。かくて「フレーム問題」(後述)が生じる。現実内において、AI・人工知能が取り扱うべき事態を「生起確率が高い事態」や、「関連性(relevance)の高い事態」などに限定するならば、「フレーム問題」は解決できるだろう。

(28)-2 《参考》AI(人工知能)の「フレーム問題」:問題解決に不要な選択肢を無限に計算し続け、処理しきれずにAIが稼働を停止する問題!
★AI(人工知能)が抱える「フレーム問題」とは「問題解決に不要な選択肢」or「問題解決には必要のない背景」を無限に計算し続けてしまい、処理しきれずにAIが稼働を停止する問題である。
☆例えば、「スーパーに行って、卵を購入する」という問題をAIが受け取ったとき、卵を購入するまでの道中には、さまざまな出来事が起こる可能性がある。しかし一般的には、それらの大半は考慮しなくても、卵の購入を完了することは可能だ。ところがAIは「自宅を出発してスーパーに卵を買いに行こう」と考えたとき、「自宅とは反対側の方向に1時間歩いてから、方向転換して目的のスーパーへ向かおう」と思ったりする。人間であれば不要と思われる選択肢を排除し最適なプロセスを計画するが、AIは人間が考えもしないような「あらゆる可能性」を考慮した上で、最終的な結論を導き出す。
★そのため、AIが無限に計算を行わないように、ある程度の枠組みの中で思考するための「フレーム」を作成するが、「複数作成したフレームのうちどれを計算に使用するか」を決定する過程でも無数の計算が発生するという問題に直面する。
★「フレーム」とはコンピュータやプログラムが思考するための枠組みであり、「フレーム」を定義することによって、AIは「世界に生じる無限の事象」を計算せずに、一定の前提に基づいて枠組みのうちで計算を行う。

★「フレーム問題」を解決するためには、AIに扱わせる情報に「重要度と優先順位」を設定し、本来は必要のない情報まで無限に思考しないよう制御する必要がある。すなわちAIに情報の「重要度と優先順位」を指示し、「フレーム問題」の発生を回避する。Ex. ロボット(AI)に爆弾を取り出させるとき、「爆弾を取り出そうとすると壁の色が変化しないか?」といった、人間であれば選択肢として思い浮かべないような思考までロボット(AI)は行う。このような「答えを導き出すためには不要な思考」を除外するために、例えば「ロボット(AI)の現在位置からnメートル以内にある情報を優先的に処理せよ」という命令を与えておく。すると「重要度」の低い思考は行われなくなり、「フレーム問題」を回避できる。

★人間はロボットのように「全ての可能性(選択肢)」を考慮して結論を出すのではなく、自身の過去の「経験」からある程度「選択肢」を絞り込み、「有限の選択肢」の中から最適な行動を導き出す。かくてロボット(AI)にも、人間のように「あらかじめ思考の選択肢を絞り込ませる」プログラムを実装する。つまり「無視してよい選択肢」の条件をAIに指示する。ただしロボット(AI)に与える選択肢が狭すぎると最適な解が出ないが、選択肢が広すぎると「フレーム問題」を解決できず大量に存在する選択肢によってAIが動作を停止する。

★そもそも人間は「フレーム問題」を解決しているわけでない。1991年に人工知能研究者の松原 仁氏が提唱した「暗黙知におけるフレーム問題」では、「電子レンジと猫」という「フレーム問題」の例が挙げられている。
《あるアメリカの主婦が、雨に濡れたペットの猫を乾かそうと思い、電子レンジに入れて温めようとした。当然ながらその猫は死んでしまう。事件を起こした主婦は「電子レンジの説明書に『生き物を入れて温めてはいけない』と書いていないのだから、猫が死んだのはメーカーの責任だ」という理由で、損害賠償請求を起こした。》
この例は、「一般的な人間の解釈からいえば、猫を電子レンジに入れることは考えないが、絶対ということはなく、猫を電子レンジに入れることも無限の選択肢のひとつである」という「フレーム問題」を表している。「電子レンジに入れてはいけないもの」という項目に「猫」を記載しなかったために、選択肢が制御されなかった。
☆このように、本質的には人間も「フレーム問題」を解決できているわけではない。そこで過去の「経験」によって「無限の選択肢」に悩まされずに済んでいる状態は、「フレーム問題を疑似解決している状態」と呼べる。

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする