5月29日分。
毎度。朝起きた時点でやたらと吐き気にぐるぐる振り回されて、やむなくお仕事休みの電話を入れるハメになりました。幽霊です。夕方前くらいまでいまいちそれが抜けないまま寝転がっていましたが、夜になってようやっと収まってきた様子。原因が分からないままなのが正直不気味ですが……変な物食べた記憶は無い。
うーん、昨日何か普段食べないようなものを口にしたかしら……??? あまり思い当たる物がないけれど。
まあ今は体調が戻っているのでとりあえず無視しておくにして、本日のネタはこちら、「怪しい動き…万引きか?! AIカメラが店内監視」という話と、それから「物流倉庫へのロボット導入進む 複数のAI協調で大幅時間短縮」という話の組み合わせです。参照先の話の要約は割愛、割と短めのニュースなので……。まあいずれにせよ、AIでこういうことが出来るようになったよ、的な話です。
個人的に注目しているのは後者のニュースの方で、「複数のAIでの協調」を前提とした技術も増えてくるんだろうなぁ、と。今は割と前者のニュースのような「一つのAIでの機能」での話がまだ多いのですが、じきに「一つのAI」同士の機能衝突が起こってくるんじゃないかなぁ、とか。そういった流れになったときに、じゃあ「協調」してやってくれるようにしようね、という方向性になっていくだろうなと。
それでも人間の仕事の全てがAIに奪われる……ということには、残念なことにならないんでしょうね。少なくとも今の学習の仕組みを考えると、AIはあくまでも「既存の事柄」に対しては膨大な学習量を積み上げて、ある程度「適解」っぽいものを出してくれるというものです。現時点では、ですけれども。逆に言えば、「未知の事柄」に対しては間違える可能性が非常に高い。
また、現時点において、「既存の事柄」についてもミスはたまに発生します。そんな話がこちら、「AIスピーカーが勘違い?米で夫婦の会話を録音し送信」だそうで。音声で操作を指示できるということは、室内で「音声」が聞こえればそれを「指示として受け取る」可能性はあり、意図しない形で機能してしまうことはあり得る……という感じでしょうか。メーカ(アマゾン)曰く、「非常にまれな現象」ではあるそうですが、AIで厄介なのはその「非常にまれな」ミスが出ることですね。
無論、人間がやってもミスは出てくるものなので、正味トータルのミス発生率は人間の方が大概酷いくらいなんじゃあるまいか、とも思いますが。ただ、AIがミスをする場合、その理由の一番根本的なところは、「何故そのミスをしてはいけないかを「理解しているわけではない」から」です。もしくは逆の言い方をするならば、「こうするのが正しいということを「理解しているわけではない」から」でもあります。
膨大な件数の学習データに基づいて、こういうケースは○、こういうケースは×、というのを延々と積み上げ続けて、その結果として「今回のケースはあのケースとこのケースに近似しているので○」もしくは「今回のケースは既に学習済みのあのケースと同一なので○」、くらいの判定が出来る「だけ」。そのケースが何故○なのか、何故×なのかの「理由を理解しているわけではない」のです。
……なんというかとても当たり前のことを書いているわけなのですが、自分自身も割とここをうっかり勘違いしてしまいやすいので、わざとこういう書き方をしています。AIはあくまでも学習の積み上げで○×判定を積み重ねているに過ぎず、「理解してはいない」のです。歴史年表の丸暗記だけしてあって、「ナントカの乱」が起こったのはいつか? という問題には即答できても、ではその歴史的背景は何か? という問題には全く解答出来ない状態と言えば良いのでしょうか……。
ただ、大量の「年表」を暗記出来ている状態なので、割と大体のパターンは「暗記」されており、普段めったなことがない限りは「理解してない」ということが表面化しません。ただ、稀に「理解していない」ことによる、結果的に誤った判断が発生することはある。そこを一応覚えておかないと、うっかり何かしら起こってしまうことはあるかもしれませんね。
ではでは、本日の更新はこのくらいにて。
毎度。朝起きた時点でやたらと吐き気にぐるぐる振り回されて、やむなくお仕事休みの電話を入れるハメになりました。幽霊です。夕方前くらいまでいまいちそれが抜けないまま寝転がっていましたが、夜になってようやっと収まってきた様子。原因が分からないままなのが正直不気味ですが……変な物食べた記憶は無い。
うーん、昨日何か普段食べないようなものを口にしたかしら……??? あまり思い当たる物がないけれど。
まあ今は体調が戻っているのでとりあえず無視しておくにして、本日のネタはこちら、「怪しい動き…万引きか?! AIカメラが店内監視」という話と、それから「物流倉庫へのロボット導入進む 複数のAI協調で大幅時間短縮」という話の組み合わせです。参照先の話の要約は割愛、割と短めのニュースなので……。まあいずれにせよ、AIでこういうことが出来るようになったよ、的な話です。
個人的に注目しているのは後者のニュースの方で、「複数のAIでの協調」を前提とした技術も増えてくるんだろうなぁ、と。今は割と前者のニュースのような「一つのAIでの機能」での話がまだ多いのですが、じきに「一つのAI」同士の機能衝突が起こってくるんじゃないかなぁ、とか。そういった流れになったときに、じゃあ「協調」してやってくれるようにしようね、という方向性になっていくだろうなと。
それでも人間の仕事の全てがAIに奪われる……ということには、残念なことにならないんでしょうね。少なくとも今の学習の仕組みを考えると、AIはあくまでも「既存の事柄」に対しては膨大な学習量を積み上げて、ある程度「適解」っぽいものを出してくれるというものです。現時点では、ですけれども。逆に言えば、「未知の事柄」に対しては間違える可能性が非常に高い。
また、現時点において、「既存の事柄」についてもミスはたまに発生します。そんな話がこちら、「AIスピーカーが勘違い?米で夫婦の会話を録音し送信」だそうで。音声で操作を指示できるということは、室内で「音声」が聞こえればそれを「指示として受け取る」可能性はあり、意図しない形で機能してしまうことはあり得る……という感じでしょうか。メーカ(アマゾン)曰く、「非常にまれな現象」ではあるそうですが、AIで厄介なのはその「非常にまれな」ミスが出ることですね。
無論、人間がやってもミスは出てくるものなので、正味トータルのミス発生率は人間の方が大概酷いくらいなんじゃあるまいか、とも思いますが。ただ、AIがミスをする場合、その理由の一番根本的なところは、「何故そのミスをしてはいけないかを「理解しているわけではない」から」です。もしくは逆の言い方をするならば、「こうするのが正しいということを「理解しているわけではない」から」でもあります。
膨大な件数の学習データに基づいて、こういうケースは○、こういうケースは×、というのを延々と積み上げ続けて、その結果として「今回のケースはあのケースとこのケースに近似しているので○」もしくは「今回のケースは既に学習済みのあのケースと同一なので○」、くらいの判定が出来る「だけ」。そのケースが何故○なのか、何故×なのかの「理由を理解しているわけではない」のです。
……なんというかとても当たり前のことを書いているわけなのですが、自分自身も割とここをうっかり勘違いしてしまいやすいので、わざとこういう書き方をしています。AIはあくまでも学習の積み上げで○×判定を積み重ねているに過ぎず、「理解してはいない」のです。歴史年表の丸暗記だけしてあって、「ナントカの乱」が起こったのはいつか? という問題には即答できても、ではその歴史的背景は何か? という問題には全く解答出来ない状態と言えば良いのでしょうか……。
ただ、大量の「年表」を暗記出来ている状態なので、割と大体のパターンは「暗記」されており、普段めったなことがない限りは「理解してない」ということが表面化しません。ただ、稀に「理解していない」ことによる、結果的に誤った判断が発生することはある。そこを一応覚えておかないと、うっかり何かしら起こってしまうことはあるかもしれませんね。
ではでは、本日の更新はこのくらいにて。