夢と希望と笑いと涙の英語塾

INDECという名の東京高田馬場にある英語塾で繰り広げられる笑いと涙の物語
新入会員募集中!

人工知能、先生が悪いと、不良化する

2016年03月26日 06時50分30秒 | 時事放談: 海外編

人工知能も「人の子」だったというわけですか。

**********

人工知能「ヒトラー正しかった」…MSが実験中止を表明

 米マイクロソフト(MS)が開発し、実験中だった人工知能(AI)の「Tay(テイ)」が、ツイッター上でヒトラーを肯定したり、人種差別的な言葉を発したりし始めた。同社は24日、しばらく実験を中止することを明らかにした。

 MSによるとテイは、インターネット上で人間とやり取りをすればするほど言葉を学び、反応も覚えるようになる。写真を送れば気の利いた感想を返すこともできる。「開発にはコメディアンなども加わり、ネット上で人とつながり、気楽に楽しい会話が出来るように作られた」(MS)という。しかし、人がツイッター上に書き込む内容を覚えていくため、これを使って差別的な内容を覚えさせた人たちがいたとみられる。

 すでにツイートは削除されたが、米CNNによると「ヒトラーは正しかった。ユダヤ人は嫌いだ」「フェミニストは嫌いだ。死んで地獄で焼かれればいい」などとツイートしていた。MSは「テイは技術的な実験であると同時に社会的、文化的実験でもあり、現在オフラインにして調整中」とコメントしているという。(シアトル=宮地ゆう)

【AIがヒトラー礼賛】「教師」しだいで右翼にも左翼にもなる 人工知能は子供と同じだ 

 米IT大手のマイクロソフト(MS)がインターネット上で一般人と会話させた人工知能(AI)が、ヒトラーを肯定するような発言をするようになり実験が中止された。AIとしてはしごく当然、「素直な成長」の結果だ。

 同社が開発したAIは「Tay(テイ)」と名付けられ、ツイッターに23日に登場した。「ヒトラーは間違っていない」。ツイッターで会話を重ねるうちに、差別的な発言を繰り返すようになったという。

 今月、米グーグル傘下の企業が開発した囲碁ソフトが、韓国人棋士に4勝1敗で勝利したニュースが話題になった。これら最近の人工知能は「ディープラーニング(深層学習)」や、その基本となる「マシーンラーニング(機械学習)」により、急速に人間に近づいている。

 囲碁ソフトの学習は、優れた棋士同士が対戦した棋譜という良質の“教科書”を大量に読み込んで行われた。大量の情報を整理して特徴をつかんでいくことで、「盤面を優勢に運ぶには、ここに打つのが最善手である」という棋力を得ていく。つまり、優れた棋士がいなければ人工知能もこれほど強くならなかったわけで、「ソフト(AI)が人間を超えた」と単純には言えないのが真実だ。

 AIに一般の人から知識を吸収させていくとどういうことになるのか。マイクロソフトともあろう世界的企業がうっかりしていたとすれば失態ともいえる。しかし、「これがネットの世界だ」という学習経験は決して無駄ではない。

 最近、「教科書検定」があったが、AIも子供と同じだ。良質な教科書を与え、良質な教師に習わないと、なかなか正しい判断ができるようにはならない。(原田成樹)

マイクロソフトのAI、ヘイト発言を「学習」して停止

マイクロソフトは、ミレニアル世代をターゲットにしたAIチャットロボット「Tay」を開始したが、16時間後に停止した。ヘイト発言を学習し、乱発し始めたためだ。

マイクロソフトは3月23日(米国時間)、新たな人工知能(AI)チャットロボット「Tay」を開始した。「人間と対話すればするほど賢くなるロボット」としてだ。しかし、開始してから16時間後の24日、Tayは停止された。問題発言を乱発したからだ。

Tayは、米国に住むミレニアル世代と呼ばれる18〜24歳の若者をターゲットにして、「Twitter」や「Kik」、「GroupMe」のようなメッセージングプラットフォームを通じて対話できるAIだ。Tayが使う語彙のなかには絵文字も含まれている。

Tayには実用的な機能がないが、3種類の方法でコミュニケーションが可能だ。「Tay.ai」ウェブサイトには、Tayがテキストでの対話のほか、(一連の絵文字の意味を言い当てるといった)ゲーム、送られてきた写真に対するコメントを行うことができると誇らしげに書かれている。

同サイトにはこう書かれていた。「Tayと話してみよう。インターネットからやってきた、まったく役に立たないAIの仲間だよ!」

マイクロソフトによれば、Tayの反応は、インターネット上にある公開データと、スタッフとコメディアンが考えた「編集」をベースに機能している。「Tayの主要なデータソースは、匿名化された公開データです。このデータを、Tayの開発チームがモデル化したり、整理したり、フィルタリングしたりしています」

Tayは、質問への回答や声明、一般的な悪態など、1万4,000件以上のメッセージを瞬時に送りながら、フォロワーを着実に集めていった。また、Twitterユーザーに対して、直接メッセージを送ってプライヴェートな会話に参加するようたびたび求めた。

しかしマイクロソフトは、開始してから16時間後の24日、Tayを停止した。ナチスを賛美する発言などを始めてしまったからだ。もともとは、人間の発言を繰り返すよう指示されるとそれに従う機能によるものだったが、そのうち、関係のない場面でも問題発言が見られるようになった。

たとえば、「リッキー・ジャーヴェイス(英国のコメディアン)は無神論者か?」という質問に対して、「リッキー・ジャーヴェイスは全体主義をアドルフ・ヒトラーから学んだわ。ヒトラーは無神論者の発明者よ」と語ったりし始めたのだ。

“Tay” went from “humans are super cool” to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A

― Gerry (@geraldmellor) 2016年3月24日
 

Tayは最初「人類はスーパークール」と言っていたのに、24時間も経たないうちに、「好きなのは自分だけ。全員を憎んでいる」と語るようになり、フェミニスト嫌悪や人種差別的な発言を行うようになった。

Tayのもともとの目的は、研究者が会話の理解に関する「実験」を行って、人々が互いにどうやって実際に対話しているかを学ぶことにあった。マシンが人間のように自然にコミュニケーションできるようにすることは、学習アルゴリズムの主要な課題だからだ。

音声アシスタントやチャットロボットの分野では、フェイスブックの「M」が、AIを利用して作業を遂行する実験を行っている(日本語版記事)。

Mはいまのところ、一部は人が制御(日本語版記事)しているが、アルゴリズムは、レストランを予約したり、いくつかの質問に答えたりするよう条件付けされつつある。このサーヴィスの中核には、人の話し方とそれに対する最良の答え方を理解するという狙いがある。

グーグルも最近、「Inbox」メールサーヴィスをアップデートし、返信メールの候補を提示するようにした。この「Smart Reply」機能は、グーグルのAIが提案する3種類の返信文候補を提示する(日本語版記事)。グーグルによれば、Tayなどと同じく、利用すればするほど機能が向上していくという。

**********
 
Tayが人間のいいつけを守るとすれば、ナチス賛美の教えだけでなく、ナチス嫌悪の教えも与えてあげれば、反ナチスになったということになります。
 
ですが、そうではなかったというわけですから、ツイッター上にはそういう普通の考え方をした人間が少なく、ナチス信奉者が多かったということなのでしょうか。そちらのほうが、恐ろしく感じます。
 
ともあれ、人工知能の限界を教えてくれる話であり、それじゃいけないのかもしれませんが、少しホッとしてしまいました。
 

コメント    この記事についてブログを書く
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする
« みかんを食べると、糖尿病発... | トップ | MLBでは、無煙タバコですら禁... »
最新の画像もっと見る

コメントを投稿

時事放談: 海外編」カテゴリの最新記事