ウィリアムのいたずらの、まちあるき、たべあるき

ウィリアムのいたずらが、街歩き、食べ物、音楽等の個人的見解を主に書くブログです(たま~にコンピューター関係も)

「機械学習で定義は理解できるの?」についてマジレスしてみる。

2021-09-13 08:07:36 | AI・BigData
奥村先生のお話のあと、西先生が質問で(と書いてもソフトウェア工学やってる人でないと、まったく意味通じないと思うケド、そこ重要でないので、今回は説明省略)

「機械学習では、定義みたいなのは学習できるか?
 例えば、犬や猫は動物でもあるが、場合によっては”ぬいぐるみ”のことを言ってるかもしれない。そういうのは、理解・判別できるか?」

という質問に、(奥村先生も答えていたけど)もちょっと無責任に、だけどはっきりと答えてみたい。



まず、
 「犬は動物である」
 「猫は動物である」
というのは、そういう定義文を読み込ませない限り、理解してるしてないにかかわらず、答えられない。なので、こういう学習が必要になるが、この学習として、Wikipediaを学習させるのが一般的だと思う。Wikipediaの文章は、「~とは●●である」という文で始まっている。ここを定義として学習させればよい。

Wikipediaで学習する内容は一般的な話で、ここでは「犬」と言ったら「ぬいぐるみ」を指すという場合は、Wikipediaで一通り学習した後で、「犬はぬいぐるみ」「猫もぬいぐるみ」というような学習を追加して行うことになる。
このような学習を転移学習という。事前学習のあとに転移学習を行い、カスタマイズ可能かどうかという話は、画像処理なら一般的に行われるけど(だからCIFER10以外のものでも機械学習できるんだけど)、自然言語処理の場合は・・・どうなんでしょう。

 ただ、Wikipediaを事前学習させておいて、個別の学習を転移学習として行ったら、定義を答えることができた(犬と入力したらぬいぐるみと答えた)からと言って人間と同じ知識構造を持っているとは言えない。
 たしかにBirtの場合、事前学習を行って知識を得ているけど、それが人間と同じ(定義の)理解をしているかどうかわからない。単に犬ー動物、猫ー動物という組み合わせを、犬ーぬいぐるみに書き換えただけかもしれない。
 どうしてわからないかというと、機械学習の学習の仕方がブラックボックスだから。どういう構造を知識構造として持っているのか、見ることができない。
 これがAIの第三世代と第二世代との違いで、第三世代の前の知識学習としてはRDFがあったが、RDFの場合、知識構造関係は明示されるので、定義をどのような形で学習しているかははっきりしていた。

 ただ、人間の場合もブラックボックスで、他人が、犬と猫をどういう風に理解しているかは、自分にはわからない。この線の話でいうと、機械学習で定義を理解しているかどうかは、理解の様子が見えないのでわからないと言える。



  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする