Smile Engineering blog ( スマイルエンジニアリング・ブログ )

ジェイエスピーからTipsや技術特集、プロジェクト物語を発信します

広告

※このエリアは、60日間投稿が無い場合に表示されます。記事を投稿すると、表示されなくなります。

第1回 AIの歴史 後編

2016-12-12 09:30:00 | 最新技術動向展開
前編に続き、ディープラーニングに至るまでのAIの歴史について説明していきます。
前編では人工知能を作るための3つのアプローチについて、第1次AIブーム(パーセプトロン、ルールベースAI)について説明しました。
後編は第2次AIブーム、第3次AIブームについて説明していきます。

■1980年代~ 第2次AIブーム

・エキスパートシステム
ルールベースのアプローチとして、専門家の知識やノウハウを人間がルールとして記述し、そのルールに従ってコンピュータに処理させるエキスパートシステムは1970年代に開発され、1980年代には商用利用され始めました。

特定の領域に限れば、エキスパートシステムは実用で成果を上げられる初のAI技術でした。
例えばスタンフォード大学で開発された細菌感染症診断を行うエキスパートシステムのMycinは、細菌感染の専門医による診断結果の正しさ(80%)には劣るものの、専門ではない医師よりは良い診断結果(65%)を出しています。

エキスパートシステムは固定の推論エンジンと可変の知識ベースからなっており、推論エンジンが知識ベースを使用して推論を行います。
推論システムの高性能化を目指し、日本では1982年に通商産業省(今の経済産業省)による「第5世代コンピュータプロジェクト」が開始され、述語論理による推論を高速実行する並列推論マシンとそのオペレーティングシステムの開発が多くの日本企業により行われました。

知識ベースには専門家の知識やノウハウが「もし○○ならば△△である」という規則で記述されていますが、エキスパートシステムの最大の問題はこの知識を集める方法です。
専門家が普段無意識に行っている判断を記述することの難しさがあり、専門家が想定できなかったケースを記述することが出来ず、記述されなかったケースには対応できないという欠点がありました。

人間の専門家のように、経験知ではなく常識に基づいて新たな問題を解決することが出来ないという点で、どうしても人間の専門家には及ばないとわかってきたことで、AI技術としてのエキスパートシステムのブームは終わりを告げます。
しかしこの考え方は後に業務システムとして応用され、今も活躍しているBRMS(Business Rule Management System)へと発展していきます。

・ベイジアンネットワーク
ベイズ理論をベースにしたベイジアンネットワークは、1980年頃に研究が始められました。
これは統計・確率論的なアプローチによるAI技術です。

ベイズ理論とは、観測を繰り返すごとに確率を修正して正解に近づけるという考え方であり、それをもとにしたベイジアンネットワークは因果関係を確率で表現するグラフィカルモデルです。

ある事象に対する原因の確率と結果の確率をノードとし、それらをエッジで繋いだ形で表現されます。
観測によって得た新たな情報をベイジアンネットワークに投入するとそれぞれの確率が変化し、その確率に基づいて推論を行います。ベイジアンネットワークには原因から結果を推論することも、結果から原因を推論することも可能であるという特徴があります。

ベイジアンネットワークはネットショップでのお勧め商品紹介、健康診断結果からの疑わしい病気の推定、スパムフィルタ、ウェブ侵入検知など、様々な分野での実用例があります。
そして現在でも、ビッグデータ活用の手法の一つとして利用されています。

統計・確率論的なAIに対しては、「統計と確率が基本にあるため、それは知性や知能ではない」という批判があります。
膨大なデータの解析結果から単語の辞書的な意味を確率的に知ることはできるが、その単語の本当の意味を理解することはできません。
人間の知能そのものを作るということを目的とした場合、統計・確率論的なAIはいつか限界に達すると予想されます。

・ニューラルネットワークの進化
また、その一方でニューラルネットワークの概念・手法も進化していました。
単純パーセプトロンの持つXOR問題は入力層と出力層の間に隠れ層を入れることで解決できることが判明しています。隠れ層を入れたものを多層パーセプトロンと呼びます。



1979年に福島邦彦がディープラーニングの一種である、畳み込みニューラルネットワークの原型となるネオコグニトロンを発表しました。ただし、当時はコンピュータの演算性能の限界により、文字認識へ応用されるにとどまりました。

1986年に心理学者のデビッド・ラメルハートらにより、隠れ層を持つニューラルネットを高速に学習する訓練方法「誤差逆転伝播法」が発見されると、2度目のニューラルネットブームが巻き起こります。
ですが、この頃のニューラルネットワークは満足な精度を得られず、2度目のブームも収束しました。

そして80年代後半から90年代初めにかけては、資金難によるAIの冬第二期となりました。
ただしコンピュータが知識獲得を行うための機械学習技術については、AIブームとは別に90年代に成長期を迎えています。

■2000年代~ 第3次AIブーム

2000年代には、コンピュータの性能向上と低価格化、インターネットの普及によって、大量のデータを活用することが出来るようになり機械学習技術が発展します。

そして、2006年にジェフリー・ヒントンによってニューラルネットワークを多層化しても精度を損なわない手法が提唱されました。
これがディープラーニングの誕生です。

2012年、物体の認識率を競うILSVRCにおいて、ジェフリー・ヒントンが率いるトロント大学のチームはディープラーニングによって、エラー率が26%だった従来の手法に対して、エラー率17%という劇的な進歩を見せつけて注目を集めました。
その後もILSVRCではディープラーニングを使用したチームが毎年上位を占めるようになり、2015年にはエラー率が5%以下となっています。
ちなみに人間のエラー率は5%程度とのことで、静止画に限って言えば、人間の認識力を既に凌駕していると言えます。

ディープラーニングによる物体認識がそれまでの物体認識技術と違うのは、学習データから特徴を抽出する作業を人工知能が自ら行うという点です。
コンピュータが画像データから人や物などの物体を認識するためには、まず画像データから物体の輪郭や色の成分など、何らかの特徴を抽出する必要があります。抽出されるデータを特徴量と呼びますが、それまでの物体認識技術ではどのような特徴量を抽出するかは、専門家が細かく設計する必要がありました。

それに対してディープラーニングでは、大量の画像データをコンピュータに読み込ませて学習させるうちに、最適な特徴量を自ら導き出すことが出来るのです。

そして現在、ディープラーニングはAppleの音声認識システム「Siri」、Google等の画像検索エンジンなど、広く使用されています。


長くなりましたが、パーセプトロンに始まり現在のディープラーニングに続くAIの歴史を説明させていただきました。
次回は実際にディープラーニングを用いて手書き文字の認識にチャレンジしてみたいと思います。翌年1月の公開を予定しておりますので、お楽しみに!

monipet
  動物病院の犬猫の見守りをサポート
  病院を離れる夜間でも安心

ASSE/CORPA
  センサー、IoT、ビッグデータを活用して新たな価値を創造
  「できたらいいな」を「できる」に

OSGi対応 ECHONET Lite ミドルウェア
  短納期HEMS開発をサポート!

GuruPlug
  カードサイズ スマートサーバ

株式会社ジェイエスピー
  横浜に拠点を置くソフトウェア開発・システム開発・
  製品開発(monipet)、それに農業も手がけるIT企業
ジャンル:
ウェブログ
コメント   この記事についてブログを書く
この記事をはてなブックマークに追加
« 第1回 AIの歴史 前編 | トップ | 第2回 OpenFaceのご紹介 »
最近の画像もっと見る

コメントを投稿


コメント利用規約に同意の上コメント投稿を行ってください。

数字4桁を入力し、投稿ボタンを押してください。

あわせて読む

トラックバック

この記事のトラックバック  Ping-URL
  • 30日以上前の記事に対するトラックバックは受け取らないよう設定されております。
  • 送信元の記事内容が半角英数のみのトラックバックは受け取らないよう設定されております。
  • このブログへのリンクがない記事からのトラックバックは受け取らないよう設定されております。
  • ※ブログ管理者のみ、編集画面で設定の変更が可能です。