猫じじいのブログ

子どもたちや若者や弱者のために役立てばと、人権、思想、宗教、政治、教育、科学、精神医学について、自分の考えを述べます。

自動おしゃべり人工知能ソフトTayの失敗

2019-05-29 11:46:14 | 脳とニューロンとコンピュータ


相変わらず、人工知能(AI)が「人間の能力を超えるときが まもなく くる」、「人間から仕事を奪うのでは ないか」という脅威論が、メディアにあふれている。

IT業界に10年前までいた 私からすると、人工知能は、IT業界が投資資金をあつめるための、キャッチコピーにすぎない。

3年前の3月23日に、マイクロソフトは、ツイッター上でおしゃべりする人工知能ソフトTayの公開実験を始めた。ディープラーニングの原理を利用し、ツイッター・ユーザとのやり取りで、人間らしいお喋りを学習するソフトだ。しかし、ソフトは差別的、攻撃的な発言をしだし、マイクロソフトは16時間で公開を停止した。調整を行って、公開実験を再開したが、再び、問題発言をしだし、最終的に、3月30日に公開実験を終了した。

ディープラーニングは、プログラマが確率モデルを与えずとも、機械が大量のデータから学習し、確率的な判断を行う手法のことである。

人工知能ソフトTayの失敗は、何が望ましいお喋りかを、善意の人間が指導しないかぎり、機械は予測不可能なふるまいをする、という教訓を与えた。

チェスが勝てる、将棋に勝てる、碁に勝てる、クイズ番組で勝てる、これらは、目的の「勝つ」の意味がはっきりしている。
いっぽう、「何が望ましいお喋りか」を、人間がいちいち判断しなければならない、とすると、機械学習のメリットがなくなる。手間をかけた教育が必要になるからだ。

さらに、問題なのは、「確率的」判断である。「確率的」という語は、判断に不適切なこともある、を前提にしているからだ。

機械がチェスに負ける、将棋に負ける、碁に負ける、クイズ番組で負けることは、社会に何の実害もない。
しかし、戦争で人工知能を無人兵器につかったら、どうなるのか。裁判で人工知能を使ったら、どうなるのか。政府が国民のインタネット・アクセスを人工知能で分析し、反政府分子をリストアップしていたらどうなるのか。
間違って、殺すべきでない人を殺したらどうなるのか。無実な人を有罪にしてよいのか。自分で反政府的と思っていない人に、反政府のレッテルを貼ってよいのか。

もちろん、判断を間違えるということは、人工知能だけでなく、人間でもありえることだ。しかし、健全な民主主義社会なら、それぞれの人間が「よい」「わるい」を判断し、判断の違いを率直に話し合い、より適切な判断を行っていくだろう。そして、判断主体は責任をとることもできる。しかも、多くのものごとは、早急な判断を要しないから、十分な話し合いの時間がある。

機械に確率的判断を任して良いものといけないものとがある。何を人工知能に任せば良いか、我々人間が決めなければならない。洗濯機や掃除機が、大変な家事労働から人間を解放したように、人工知能に任すことで、煩雑な事務労働から人間が解放されるかもしれない。


最新の画像もっと見る

コメントを投稿