それでも僕はテレビを見る

社会‐人間‐テレビ‐間主観的構造

NHKスペシャル「天使か悪魔か 羽生善治 人工知能を探る」:AIが大ブーム

2017-07-19 09:09:13 | テレビとラジオ
 自分のゼミ生の就職活動に一喜一憂する日々の私。

 面接で聞かれる質問や小論文で密かにブームらしい「人工知能(AI)」。

 同僚との飲み会でも話題になっており、とにかくまあ、面白いのである。



 どう面白いのかを簡単に理解するうえで最良の手引きとなるのが、タイトルにあるNHKスペシャルの企画。

 気をよくしたNHKは、今週末から新たなAIシリーズを放送予定。

 すでに一部で大きな話題になっている。



 ここまでで少しだけ興味を持ったかもしれない読者諸氏に、件のNHKの番組について、ざっと説明したい。

 「天使か悪魔か 羽生善治 人工知能を探る」では、AIが(日本やアメリカの)社会のなかで、すでにどこまで影響力を持っているのかを明らかにする。

 導入は、将棋でAIが人間の名人を完膚なきまでに倒すエピソードから始まる。

 私が小学生の頃は、スーパーファミコンのソフトがアマチュアの3段程度だったが、20年ほど経て、遂に人間を追い抜いたのだ。

 なぜそんなことになったのか?

 ここで注目すべきなのが機会学習と呼ばれるシステムだ。

 将棋の事例でAIが行った学習とは、以下のようなものだった。

 まず、AIにこれまで行われたプロの対局データ(棋譜)を入力する。

 このデータの束が、いわばAIの教師となる(「教師データ」)。

 AIは、このデータの束を分析し、どうすればゲームで勝てるようになるのかを学習する。

 一昔前のコンピュータの場合、人間が将棋で勝つための法則性をある程度入力していたらしいのだが、現在のAIの場合、それはしない。

 人間は教師データを入れるだけで、あとはAIが勝つためのルールを発見する。

 AIは、自分のなかで対局を無数に行い、実践を繰り返す。ここがポイント。

 それによって、より優れたルールを作り出すわけだ。

 番組によれば、すでにAIは人間が2000年ほどかけて行う試合を自分のなかで行ったという。

 将棋が現在のようなかたちになったのが16世紀後半以降らしいから、せいぜい400年程度の歴史しかない。

 これに対して、AIは2000歳のプロ棋士(しかも、まったく休まずに指し続けている不死身の棋士)なのであり、未来から来た将棋指しということになろう。

 それゆえ、名人の想像を超越した指し手を実践してくるのである。



 AIが人間を凌駕してしまったのは将棋だけではない。

 株などのトレーディングもそうだ。

 AIはわずかな未来の株価を予想しながら、一秒間に数千もの取引を行い、利益を上げていく。

 人間はただ黙ってそれを見守るだけだ。

 こうなると、どういうプログラムをつくって他のトレーダーを出し抜くかがカギになる。



 この番組でカギとなるのが、アメリカの裁判所の事例だ。

 アメリカの一部の州では、裁判所の判断の補助のためにAIを導入しているそうだ。

 そこでは、犯罪者のデータをAIに読み込ませ、再犯可能性などを判断させる。

 再犯可能性が高ければ、刑期の途中での仮釈放は否定される。

 NHKの取材では、実際に仮釈放が認められずにいる受刑者にインタビューしている。

 「あなたの刑期の判断にAIが使われているを知っていますか?」と、ダイレクトに尋ねるNHK。

 当然そんなこと知らない受刑者。

 問題は、AIがどういう理由で「再犯可能性が高い」と判断したのか分からないことだ。

 「分からないけど、高いんだから、刑務所にいろ」というわけである。



 そう、この番組が問うのは、ここだ。

 AIは人間が気が付かない社会的な法則性を発見してしまっている。

 もちろん、それは「教師データ」の内容によるわけだが、

 たとえ、そのデータを研究者が長年かけて分析しても見いだせていないことをAIは見出してしまっている。

 ところが、その法則性をAIは人間に説明できないのである。

 AIは答え(予測)は教えてくれるが、それがどういう理由で、どういう根拠で出てきたのかは説明してくれない。

 つまり、決定的にブラックボックスになってしまっている。



 政治でも司法でも説明責任が重要だ。

 なぜなら、人間は誰しも間違うのであり、それを検証できるようにしなければ大きな過ちにつながるからだ。

 しかし、AIがそこに入ってくると、説明責任が果たしにくくなる。

 (まあ、そもそも行政府がせっせと公文書を廃棄しているような日本や、説明責任という概念がない中国では、AIがやっても同じようなものかもしれないが。いや、むしろマシな可能性すらあるが。)



 さらにAIは人事管理にも利用されつつあるという。

 たとえば、離職率が問題になっている会社で、次に辞職しそうな人を探し出すというプログラムが利用されているのだという。

 こちらはまだマシな事例だが、将来的に昇進や給与の査定にAIが入ってくると、これは非常にシビアである。

 ただ、人間があいまいに判断するよりずっとマシな可能性もある。



 ここからは、私の簡単な感想を書く。

 無論、AIは手段だ。それを良しするのも、ひとつのイデオロギーであり、何らかの価値規範を前提にしている。

 たとえば、職場の離職率を問題にする場合、

(1)離職しそうな人を探し出すのか、

(2)それとも、離職の原因を改善するのか、

(3)あるいは、優れた人だけを残し、他を離職させるよう促すのか、といった選択肢がある。

 AIに何をさせるのかは、人間次第だ。

 鉄人28号の歌にあるように、AIもまた「あるときは正義の味方 あるときは悪魔の手先」。

 当然、軍事利用もされているはずだ。

 使い方に加えて、AIに入力する「教師データ」についても同じことが言える。

 データの採集方法それ自体に何らかのイデオロギーが反映されているはずだからだ。

 だから、AIが無規範で中立で透明だと考えるべきではない。

 まあ、当たり前のことだけどね。

最新の画像もっと見る

コメントを投稿