オクトシティー正直村

おかしいな?変だな?と思った事を綴った駄文

人工知能(AI)雑感

2018年01月01日 | Weblog

昔も人工知能全盛のころがあった。

 1980年代である。日本(当時の通産省)が570億円を費やし、1992年に目的を達成せずに終了している。目的を達成せずとは、一応の目的は達成したけれども産業界に影響を与えるような成果は皆無だったということである。ただしこれとは関係なくAI的な応用はたくさんあり、AIソフトウェアも開発され、AIを応用した製品もボチボチ出回った。コンピュータの第1世代は真空管であり、第2世代はトランジスターと磁気コアメモリ、第3世代がLSIで、第4世代はその延長の超LSIであったが、日本はこれを飛び越えて第5世代の連想や推論を可能とするコンピュータを目指したが、はっきり言うと失敗に終わっている。

この過程で取り上げられ注目したのがファジー理論である。

 世の中何でもファジー、ファジーと言われた時代もあったのである。連想や推論を可能にするには不明確な定義できない部分も取り入れる必要がある。人間でも100%間違いない事実から不確かではあるがある推論を導き出すことが連想であり、推測である。ところが、コンピュータに不確かな要素を取り入れると、そのあとどうしていいのか分からず動作を停止してしまう。反対にそれ以上稼働させると、でたらめのとんでもないことになってしまう。不確かなことでも取り扱えるようにしたのがファジーマシンである。不確かなままで要素を処理できるプログラムと言える。このファジーマシンはあちこちで開発され検証され一部で実用化されたものもある。

ファジーマシンで処理された結論はやはりファジーである。

 このファジーな部分を何とかしないと実用にはならない。よって、そのファジーな部分を洗いざらい再検証することとなる。そして、最終的に出来上がったプログラムはファジーでないものとなる。従来のやり方で完全にプログラム化できるのである。そうであれば、最初からファジーでないプログラムを作ればいい。ファジーでもいい結論で実用化できるものは別として、厳密に正確性を要求されるものにはファジーは向かないのである。処理するごとに結論が変わるようではコンピュータの意味がない。人間には多様性が求めれれるが、コンピュータに多様性があっては人間が困ってしまう。

ファジー理論はシステム開発段階や、人間との対話などに応用されたが、その後死語となっている。

 ファジー理論の構想は、結局はコンピュータを人間に近づけようとしたものである。厳格に完ぺきに定義してやらないと動作しないコンピュータでなく、いい加減でも動作するコンピュータを目指したのだと思う。しかし、ただの要素と要素をつなぐ探索木のつながりをファジーにしただけでは人間とは程遠いものである。どっちに進むか解らないとき、とりあえずどちらかを選択して進むコンピュータが果たして完全かどうか疑わしいものである。結局は技術的にも理論的にも未熟でこの第5世代コンピュータの夢ははかなく消えたのである。

そこにきて、昨今のAIブームである。

 いったい何だろう。32年前の日本の国家を挙げた研究は間違いではなかったのだろうか?それとも当時と環境が変わったのだろうか?変わったとしたら何が変わったのだろうか?まず、変わったのは技術である。膨大なデータを高速に効率的に処理できる技術が発達した。ハードウェアも超LSIどころか超超超LSIと超超超大規模メモリーが実現しさらに進化している。そして世界規模でネットワーク化されあらゆる情報にアクセスすることが可能となった。そこに発達したのが情報の検索技術で、すでに我々はその便利さを享受している。過去から現在までの世界規模の膨大なディジタル化された情報を要求に応じて直ちに検索して手に入れることができる。

この延長上にあることは、

 これらの環境を活用したビッグデータとこれを有効に活用するためのディープラーニングである。ディープラーニングは昔の推論システムに相当するものだが、より高度に処理できる機能を満載している。そして人間の脳の働きを忠実にシミュレートしている。ただの探索木のつながりだけでなく、脳のニューロンを参考に各要素との結びつきに重み付け処理をして、それにより学習し記憶することができる。この中に大量のデータを入力すれば、一つの知識ベースが出来上がる。これをもとに判断をさせると一つの結論を得ることができるし、どの要素が一番反応しているかを確認できる。

もう一つは、結論が間違っていた時の修正機能である。

 探索木を逆にたどって各要素の結びつきの重みを減らすのである。この機能も重要である。膨大な情報を入力すれば、全く関係ないものや、間違ったもの、不正なもの、などが紛れ込むが、このディープラーニングではこれらの要素の結びつきが小さくなったり無視されたりして知識ベースの信頼性が向上する。昔でいうところの「汚いデータ」であっても学習することにより影響を受けなくなる。学習すればするほどAIは進化し膨大な情報を効率的に処理して一つの結論を得ることが可能になる。ただし、この結論は人間にとって考え付くこともできない結論だったりする。

何故そうなるかと言うと、

 人間の考え方とAIの考え方が一致しないからである。AIは常識や善悪や良心や美醜や不正や将来予測や創造性などのフィルターを持っていない。単に情報源を分析して現時点での結論を出しているだけである。そうであれば、その判断は人間がやらなければならない。そして、結論が間違っていた場合はその原因を追究して、たとえAIとして正しくても、人間として採用してはならないのである。例えば、ビッグデータを利用してディープラーニングした結果、考えもつかない結論が出て、これをそのまま採用して実行して確かに成果も出た場合、果たしてこのままでいいのだろうか?

実行したことがどのような影響を及ぼすのかを考えなければならない。

 これはAIにはできない。もしかしたらお客を騙しているかもしれないし、人間の弱みに付け込んで誘導しているかもしれないし、単に一時的なもので、次は別の結論になるかもしれない。これは経営者としては許されないはずである。やはりAIは完全に信頼できるものではなく、人間にとって道具であり、その結論は参考意見にこそなるが最終的には人間が判断し責任を取らなければならない。ただし、この参考意見は人間の思いもつかない独創的な発想を可能にする。その発想につなげるのも人間なのである。

シンギュラリティーという言葉がある。

 意味としては「特異解」であるが、AIが発達するとシンギュラリティーが起きるという。人間の思考過程の延長では人間の域を出ることはできないが、AIによって人間に思いもつかない情報が得られるようになると、人間の思考過程に画期的な転換が生じる。これがシンギュラリティーであろう。衛星が周回軌道から宇宙空間に飛び出す時の制御が「特異解制御」である。一つの状態から不連続に飛躍した状態に転換するのである。その時の制御のための要素は無限大である。地球や月や水星、金星、火星、木星、土星、天王星、海王星、冥王星、その他諸々の宇宙の星の影響を考慮しなければならない。これを完全に関数で表すことは困難である。このための手法が、主要な要素で関数モデルを作成し、その中にデータを無作為に入力し、近似的に正解に近い数値を見つけ出して、一つの近似正解群を作るのである。その周辺がおおよその特異解制御の結論である。

特異解制御の計算に能力を発揮したのが電子計算機である。

 真空管の電子計算機であっても、月着陸を可能にした。多量の計算を迅速に繰り返し行うことができたのである。それでは、AIのシンギュラリティーとは何だろう。宇宙力学の無限大の組み合わせに対応するのが、膨大なデータ間の探索木である。そして、人間には想像できない新たな結論が導き出される。これが特異解であろう。こういう結論が増大してゆくと、人間の考え方も変革せざるを得ないし、画期的に変革するだろう。これがAIのシンギュラリティーではなかろうか。AIを育て学習させるのは人間であり、このことにより人間側が画期的に変革することになる。ただし、出された結論が正しいかどうかの検証は人間がやることには変わりない。それを繰り返しやることがAIをより良いものにするただ一つの道なのである。一方的にAIの結論を妄信したのではAIは事実に基づくデータを積み重ねるだけで学習することはない。

AIは人間を超えるか?

 私は当分は人間を超えないと思う。人間の脳は人類20万年の膨大なデータを蓄積している。その中には人間が認識しないデータも存在する。そして、時にそのデータが活性化して思いもよらない結論を出すことがある。「何となく」とか「気分的に」とかいう判断は、この潜在的なデータが関係しているのではないかと思う。AIと人間とでは蓄積されているデータが比較にならないほどなのである。また、いくらAIが人間のニューロンをシミュレートしているとはいえ、人間の場合は電子レベルで繊細に動いている。その速さも判断の量もAI以上である。そしていまだに解明できない機能を隠し持っている。そんなことを考えながら、2018年の新年を迎えている。


コメント    この記事についてブログを書く
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする
« 二者択一の弊害 | トップ | 「リーダーシップ」ってなぁ... »
最新の画像もっと見る

コメントを投稿

Weblog」カテゴリの最新記事