ファンタジアランドのアイデア

ファンタジアランドは、虚偽の世界です。この国のお話をしますが、真実だとは考えないでください。

AIのブラックボックス・ホワイトボックス・説明責任 アイデア三題噺257

2019-08-16 17:28:57 | 日記

 グーグル写真検索で画像認識AI(人工知能)導入したところ、黒人を「ゴリラ」だと判断した事例がありました。美人コンテストでAIに判定させたところ、白人女性ばかりが多く入賞したことで、人種差別という批判もあがりました。ウーバーの自動運転による車両が横断中の女性と衝突し、死亡させたこともありました。自動運転の中枢は、AIが行っています。でも、自動運転車が事故を起こしても、AIの判断根拠を説明することができないのです。いわゆるブラックボックスになっており、事故の原因を解明できません。また、マイクロソフトの会話型A1が、悪意あるネットユーザーに不適切な言葉を教え込れたことがあります。この会話型A1が、ツイッターで差別発言を繰り返したのです。AIブームの火付け役となった深層学習技術には大きな問題があります。でも、現在も使われ続けています。深層学習を使うと高度な分析ができる一方で、AIの判断根拠が不透明になることがあります。AIが独自の基準で複雑な計算を繰り返すため、結論を導く過程がブラックボツクスになるのです。人工知能活用を進める多くの企業がAIの「ブラックボックス」化に頭を悩ませています。
 そこで、人間にもわかるAIの仕組みにせまってみました。好成績を期待されていたAIによる株式運用は、現在のところ苦戦しています。株式運用では、Alが人間よりも振るわないのです。日経平均株価が年初来で2%安に対し、AIが運用する日本株投信の平均はマイナス8%と、悪い成績を上げています。アメリカ株などグローバル株式に投資するものは、平均5%のプラスと比較的良い成績です。Alが株を運用するということは、データサイエンティストが目的に合うようにシステムを作ることになります。この時に使う数式が、回帰分析といわれるものです。回帰分析は、複数のデータを用いてある値を予測する計算式を作ることです。回帰分析の作業は、データサイエンティストが行うことになります。アメリカのデータサイエンティストのほうが、日本より株のデータやAIのシステムを上手に運用しているようです。
 このAIは、人材採用にも使われるようになりました。優秀な人材は、どの会社でも採用したいものです。この採用を人間に任せるより、AIの行わせようとしたわけです。この新しい試みを、アマゾンが行いました。自慢のクラウドコンピューティングを使ったわけです。アマゾンは、過去の入社採用履歴書データをAIに学習させました。AIは、膨大なデータから合否を判定していったのです。結果は、男性希望者に高い評価を与える結果になりました。今までのデータに、問題があったのです。応募者の多くが男持た性だったため、女性に対して差別的な評価を下すようになったわけです。AIが採用に当たってどの情報を重視したのかは不明です。でも、データに偏りがあると、偏った解答しか帰ってこないことも分かりました。
 日本でも、人事にAIを使う会社が出てきています。優秀な人材に関しては、どこでも引く手あまたです。注意を怠れば、優秀な人材の流出に繋がります。この会社は、半年以内に退職をする可能性の高い人を予測するためにAIを利用しているのです。まず、途中退社した社員のデータを蓄積します。データの結果を基に、管理職が社員の不満や心配事を聞き出し、継続を促す仕組みを作ったわけです。AIがこの仕組みを、支援する形になりました。データに基づき流出の対策を早く打てるようにし、働きやすい環境を整え、流出を防いでいるようです。
 医療行為では、AIの判断が人命を左右しかねないことがあります。その場合、判断の根拠を示す説明が求められます。株式運用のように、失敗は許されません。失敗の根拠を明確にすることが求められるわけです。そんな中で、判断の根拠を説明できるAIの開発が進んでいます。これは、XAI(Explainable AI)という「説明可能なAI」です。NECは、分析結果の根拠を示せる「ホワイトボックス型AI」を開発しています。これは深層学習より旧式技術を応用し、分析結果の根拠を示せるAIになります。現在の高性能のAIは、判断根拠が不透明になるため、人命などを左右する分野では使いづらい面があります。これからのAIは、透明性と説明責任の可能なAIが普及することが求められます。結果や判断に、説明を求められる場面が増えているということでもあります。