AIのアカウンタビリティーが話題になっている。
私の中ではAIは結論に対してその根拠がはっきりしないと使い物にならないと思っていた。ところが知識ベースが膨大になり、その推論も複雑になってくると、その根拠を遡っていちいち検証することが困難になりつつある。反対にいちいち検証していたのでは手間がかかりすぎて使い物にならないともいえる。そして、最終的には検証することそのものが困難になることが確実である。AIはブラックボックス化に向けて現在も走り続けている。
AIの開発者が語る。
「私にもわからないけれどもどうやらこのように推論しているらしい」「こんなふうに理解しているようだ」とか・・・。あたかも一つの人格に対応しているかのような言い方である。幼児に対してその成長の反応を見てどのように思索しているのかを予想するかのような雰囲気である。確かに幼児がどのように結論を出し、その結論に基づいて行動しているかは理解できないし、幼児に聞いてもわからない。下手をすると我々大人でも詳細にわたって結論の根拠を説明することは難しい。
従来の考え方であれば、
根拠のない結論は信用ならない。ましてやコンピュータの世界ではすべてが理論的に証明され、すべての事象を網羅し、ある限定した範囲の限定した条件の下では一定の動作をするし、どんなに複雑であろうと正確な関数として働いて、入力が同じであれば出力としての結果は同じにならなければならない。やるたびに結果が違うようでは使い物にならないというのが常識であったろう。
しかし、無限大に近い範囲と条件を扱う関数はそうはいかない。
条件は膨大な量になり、時々刻々と常に変わっている。今日出した結果が明日も同じとは限らない。いや1秒後の結論だって変わるかもしれない。そしてその常に変わる結論についていちいち検証しているわけにいかない。出された結論を採用するのなら、採用する人間側がその理由と根拠を自分たちで考える必要がある。あくまでAIのだした結果は参考にしかすぎないのである。こんな結果もあるんだぐらいで考えなければならない。
例えば、全世界から常時リアルタイムで情報を収集するシステムがあるとする。
世界レベルのすべての知識ベースと徹底したIOTで情報網が広がっていて、この大量のデータを瞬時にAIとして処理できるとすると、このAIに質問を発すると、たぶんその度に結果は変わってくるだろう。そして、当然のことながら遡ってその理由と根拠を検証するのはたぶん無理だろう。というか、その時は別のデータに遷移してしまっている。このようなAIは果たして使い物になるのであろうか?
AIの結果を単純に鵜呑みしてはならないのだろう。
ただ単に結果だけがあっても、この結果に基づいて行動を起こす場合、その依って来る所以がはっきりしないと具体的な対応はできないはずである。その部分は人間が考えなければならないようである。因果関係というか物語というか、その部分がないと結果以降の対応のつながりがなくなってしまう。反対に結果に対する対応とは、その結果に対する未来の物語を作って行くことであろう。過去の物語がなければ未来は語れない。
我々は、AIを唯一絶対の神みたいな妄想を抱いている。
AIも多種多様なものがあり、システムを構築した経歴によってそれぞれの特質と成長度に応じた人格というかAI格のようなものがあるだろう。そのAI格ごとに種々の結論があるはずである。それもすべてAIの出した結論である。さて、人間としてはどうしたらいいのだろう。どのAI格を選ぶかは人間の勝手であり、選んだからにはそのあとは自分の責任で行動しなければならない。いったいAIとは何だろう。
AIは膨大な知識ベースを記憶し迅速に処理する道具に過ぎない。
AIの出した結論にAI自身の責任を問うことは無理だろう。とは言え、責任を問う前にAIが自動的に行動する場面もある。たとえば、今話題の自動運転システムであろう。事故が起きた時はすでに処理は終わった後である。誰が責任を取るのだろう。それは、事実を詳細に再現して、何が問題なのかを追及するしかない。操縦系が悪いのか機械系が悪いのかセンサー系が悪いのか知識ベースが悪いのかなどであろうか。そしてそれぞれを製造した人達が責任を負うのであろう。事実を忠実に再現できる機能も必要になるだろう。
これら検証は大変な労力を必要とするだろう。
人間がいちいち手作業で行うことはとうてい困難である。ここにもAIが活用される。原因検証のためのAIの登場である。人間の行う裁判のごとく、被告、原告、検察、弁護、証人などが裁判所で戦う如く、AI同士が戦うことになる。そして結論が出される。この結論を人間が再度検証して責任を明確にすることになるのではなかろうか。たぶん、優秀なAIが勝利を収めるのだろうが、人間はそんな優秀なAIを開発し育てるべく日々努力することとなる。面白い社会が実現しそうである。
例えば、自動運転システムで事故の原因がAIによって解明されたとする。
例えば、事故が道路の小石をはねて装置に当たり故障した誤動作により発生したとする。責任は小石を発見できなかったセンサーか、小石をはねたタイヤか、小石が当たって故障した装置か、故障したことにより安全運行できなかった操縦系か、フェイルセーフ機能の不備か、全体システムの制御系統か、などとなってゆくだろう。ただ、AIの結論は小石をはねたことである。小石をはねたことは人間による現場検証でも証明され、これによる装置の故障であると事実確認でき、信ぴょう性はあるとしても、この事実の起こる可能性は現実に起こることは極めてまれ(何憶分の一?)であり、このほとんど可能性のない原因を取り除くために予防策を講じると例えば車両価格の100倍以上の経費が掛かるとすると、この対策は人間としては全く蓋然性がない。人間の結論としては不可避の予測できない事故であり責任は問えない。こんな感じで人間が再検証するのかな?と思ったりしている。
私の中ではAIは結論に対してその根拠がはっきりしないと使い物にならないと思っていた。ところが知識ベースが膨大になり、その推論も複雑になってくると、その根拠を遡っていちいち検証することが困難になりつつある。反対にいちいち検証していたのでは手間がかかりすぎて使い物にならないともいえる。そして、最終的には検証することそのものが困難になることが確実である。AIはブラックボックス化に向けて現在も走り続けている。
AIの開発者が語る。
「私にもわからないけれどもどうやらこのように推論しているらしい」「こんなふうに理解しているようだ」とか・・・。あたかも一つの人格に対応しているかのような言い方である。幼児に対してその成長の反応を見てどのように思索しているのかを予想するかのような雰囲気である。確かに幼児がどのように結論を出し、その結論に基づいて行動しているかは理解できないし、幼児に聞いてもわからない。下手をすると我々大人でも詳細にわたって結論の根拠を説明することは難しい。
従来の考え方であれば、
根拠のない結論は信用ならない。ましてやコンピュータの世界ではすべてが理論的に証明され、すべての事象を網羅し、ある限定した範囲の限定した条件の下では一定の動作をするし、どんなに複雑であろうと正確な関数として働いて、入力が同じであれば出力としての結果は同じにならなければならない。やるたびに結果が違うようでは使い物にならないというのが常識であったろう。
しかし、無限大に近い範囲と条件を扱う関数はそうはいかない。
条件は膨大な量になり、時々刻々と常に変わっている。今日出した結果が明日も同じとは限らない。いや1秒後の結論だって変わるかもしれない。そしてその常に変わる結論についていちいち検証しているわけにいかない。出された結論を採用するのなら、採用する人間側がその理由と根拠を自分たちで考える必要がある。あくまでAIのだした結果は参考にしかすぎないのである。こんな結果もあるんだぐらいで考えなければならない。
例えば、全世界から常時リアルタイムで情報を収集するシステムがあるとする。
世界レベルのすべての知識ベースと徹底したIOTで情報網が広がっていて、この大量のデータを瞬時にAIとして処理できるとすると、このAIに質問を発すると、たぶんその度に結果は変わってくるだろう。そして、当然のことながら遡ってその理由と根拠を検証するのはたぶん無理だろう。というか、その時は別のデータに遷移してしまっている。このようなAIは果たして使い物になるのであろうか?
AIの結果を単純に鵜呑みしてはならないのだろう。
ただ単に結果だけがあっても、この結果に基づいて行動を起こす場合、その依って来る所以がはっきりしないと具体的な対応はできないはずである。その部分は人間が考えなければならないようである。因果関係というか物語というか、その部分がないと結果以降の対応のつながりがなくなってしまう。反対に結果に対する対応とは、その結果に対する未来の物語を作って行くことであろう。過去の物語がなければ未来は語れない。
我々は、AIを唯一絶対の神みたいな妄想を抱いている。
AIも多種多様なものがあり、システムを構築した経歴によってそれぞれの特質と成長度に応じた人格というかAI格のようなものがあるだろう。そのAI格ごとに種々の結論があるはずである。それもすべてAIの出した結論である。さて、人間としてはどうしたらいいのだろう。どのAI格を選ぶかは人間の勝手であり、選んだからにはそのあとは自分の責任で行動しなければならない。いったいAIとは何だろう。
AIは膨大な知識ベースを記憶し迅速に処理する道具に過ぎない。
AIの出した結論にAI自身の責任を問うことは無理だろう。とは言え、責任を問う前にAIが自動的に行動する場面もある。たとえば、今話題の自動運転システムであろう。事故が起きた時はすでに処理は終わった後である。誰が責任を取るのだろう。それは、事実を詳細に再現して、何が問題なのかを追及するしかない。操縦系が悪いのか機械系が悪いのかセンサー系が悪いのか知識ベースが悪いのかなどであろうか。そしてそれぞれを製造した人達が責任を負うのであろう。事実を忠実に再現できる機能も必要になるだろう。
これら検証は大変な労力を必要とするだろう。
人間がいちいち手作業で行うことはとうてい困難である。ここにもAIが活用される。原因検証のためのAIの登場である。人間の行う裁判のごとく、被告、原告、検察、弁護、証人などが裁判所で戦う如く、AI同士が戦うことになる。そして結論が出される。この結論を人間が再度検証して責任を明確にすることになるのではなかろうか。たぶん、優秀なAIが勝利を収めるのだろうが、人間はそんな優秀なAIを開発し育てるべく日々努力することとなる。面白い社会が実現しそうである。
例えば、自動運転システムで事故の原因がAIによって解明されたとする。
例えば、事故が道路の小石をはねて装置に当たり故障した誤動作により発生したとする。責任は小石を発見できなかったセンサーか、小石をはねたタイヤか、小石が当たって故障した装置か、故障したことにより安全運行できなかった操縦系か、フェイルセーフ機能の不備か、全体システムの制御系統か、などとなってゆくだろう。ただ、AIの結論は小石をはねたことである。小石をはねたことは人間による現場検証でも証明され、これによる装置の故障であると事実確認でき、信ぴょう性はあるとしても、この事実の起こる可能性は現実に起こることは極めてまれ(何憶分の一?)であり、このほとんど可能性のない原因を取り除くために予防策を講じると例えば車両価格の100倍以上の経費が掛かるとすると、この対策は人間としては全く蓋然性がない。人間の結論としては不可避の予測できない事故であり責任は問えない。こんな感じで人間が再検証するのかな?と思ったりしている。
※コメント投稿者のブログIDはブログ作成者のみに通知されます