先日、余命を測定する人工知能の話しをラジオで聴いた。アメリカの大学と病院が提携して開発したらしいが、余命3ヵ月〜12ヵ月の患者の90パーセントを当てたそうだ。
終末医療に活かすのが目的らしい。アメリカでは(日本も同じだと思うが)自宅で最後を迎えたいという人が多い。しかし実際には、病院で亡くなる人が多い。正確な余命が分かりにくいからだ。
そこで、200万人分の医療データを人工知能に学習させた。それとは別に終末医療の患者のデータも学習させた。それにより、膨大なデータから3ヵ月〜12ヵ月の余命の患者をかなりの精度で当てられるようになった。
番組では自分の余命を知ることが話題の中心になっていた。個人的にはそれはあまり気にならない。それよりも人工知能で気になるのは、その一神教的な感じだ。
以前、テレビ番組で「人工知能を使って退職者を未然に防ぐ」という放送をしていた。ディープラーニングをさせた人工知能に、社員のアンケート情報などを入れると、退職の可能性がある社員をリストアップしてくれるというものだ。
リストには、人事部で長く仕事をしてきたベテランにも、まったく想定できない人が含まれていた。人事部でそのリストをもとに対象者をケアした。その結果、退職者は出なかった。そんな話しだったと思う。
人工知能の一番の特徴は、正しい結果は示してくれるが、その根拠やプロセスが開示されないところだ。受け手の人間から見れば、正しい答えは提示されている、でもそれがなぜ正しいかわからない。そんな状況に立たされていることになる。
人事部の例もそうだ。ある社員が退職の可能性があると人工知能に知らされる。なぜその人が対象になるのかはさっぱり分からない。でも人工知能が言うことだから正しいに違いない。とりあえず、その社員をケアする。結果的に退職しなかった。人工知能のおかげで退職者を一人防げたことになる。
たしかにその人は退職しなかった。しかし、その人は本当に退職の可能性が高かったかどうか、人間にはわからない。人間ができるのは人工知能が言っているから正しい、と信じることだけだ。
なんだか、旧約聖書などでのヤハウェとユダヤの民の関係と似ている。聖書をきちんと読んだことはないが、軽く目を通した感じだと、ヤハウェというのはとにかく人間を試す。人間からすると理不尽なことを行う。そんなヤハウェを丸飲みできるのが信仰である。人間の尺度で神を評価することは許されないのだ。
それは人間に対して自戒を迫るためだ。人間ごときが決めた善悪などを基準にしてすべてを測ってはだめだと。人間を超えたところに正しさがあることを自覚せよと。その考えは正しいと思う。人間というのは善意を持ちながら結果的に悪を行ってしまうような存在だ。だからこそ、自らの善を疑えるシステムが人間には必要なのだ。
そこに人工知能が出てきたわけだ。人工知能は正しい答えを提示する。でもその正しさは人間の基準では評価できない。(なぜそれが正しいのかわからない。)人間はそれを丸飲みするのか拒絶するのか、その態度を表明しなければならない。(バカな上司に君の意見は人工知能と違うよと言われたとき、私たちは「はい、自分が間違ってました」と言うことになるのか。結局、信仰を試すのは人なのだろうか。)
そもそも、人工知能が一神教的なら、ヤハウェが人々の信仰心を試すために理不尽なことをしたように、人工知能も人々を理不尽に試すかもしれない。退職の可能性のない人間をピックアップしてケアさせるとか。もちろんそれは悪意ではない。人間を超えた正しさがあることを私たちに示すためだ。人間とは善意で悪を行ってしまうような存在だから。それを戒めるために。
終末医療に活かすのが目的らしい。アメリカでは(日本も同じだと思うが)自宅で最後を迎えたいという人が多い。しかし実際には、病院で亡くなる人が多い。正確な余命が分かりにくいからだ。
そこで、200万人分の医療データを人工知能に学習させた。それとは別に終末医療の患者のデータも学習させた。それにより、膨大なデータから3ヵ月〜12ヵ月の余命の患者をかなりの精度で当てられるようになった。
番組では自分の余命を知ることが話題の中心になっていた。個人的にはそれはあまり気にならない。それよりも人工知能で気になるのは、その一神教的な感じだ。
以前、テレビ番組で「人工知能を使って退職者を未然に防ぐ」という放送をしていた。ディープラーニングをさせた人工知能に、社員のアンケート情報などを入れると、退職の可能性がある社員をリストアップしてくれるというものだ。
リストには、人事部で長く仕事をしてきたベテランにも、まったく想定できない人が含まれていた。人事部でそのリストをもとに対象者をケアした。その結果、退職者は出なかった。そんな話しだったと思う。
人工知能の一番の特徴は、正しい結果は示してくれるが、その根拠やプロセスが開示されないところだ。受け手の人間から見れば、正しい答えは提示されている、でもそれがなぜ正しいかわからない。そんな状況に立たされていることになる。
人事部の例もそうだ。ある社員が退職の可能性があると人工知能に知らされる。なぜその人が対象になるのかはさっぱり分からない。でも人工知能が言うことだから正しいに違いない。とりあえず、その社員をケアする。結果的に退職しなかった。人工知能のおかげで退職者を一人防げたことになる。
たしかにその人は退職しなかった。しかし、その人は本当に退職の可能性が高かったかどうか、人間にはわからない。人間ができるのは人工知能が言っているから正しい、と信じることだけだ。
なんだか、旧約聖書などでのヤハウェとユダヤの民の関係と似ている。聖書をきちんと読んだことはないが、軽く目を通した感じだと、ヤハウェというのはとにかく人間を試す。人間からすると理不尽なことを行う。そんなヤハウェを丸飲みできるのが信仰である。人間の尺度で神を評価することは許されないのだ。
それは人間に対して自戒を迫るためだ。人間ごときが決めた善悪などを基準にしてすべてを測ってはだめだと。人間を超えたところに正しさがあることを自覚せよと。その考えは正しいと思う。人間というのは善意を持ちながら結果的に悪を行ってしまうような存在だ。だからこそ、自らの善を疑えるシステムが人間には必要なのだ。
そこに人工知能が出てきたわけだ。人工知能は正しい答えを提示する。でもその正しさは人間の基準では評価できない。(なぜそれが正しいのかわからない。)人間はそれを丸飲みするのか拒絶するのか、その態度を表明しなければならない。(バカな上司に君の意見は人工知能と違うよと言われたとき、私たちは「はい、自分が間違ってました」と言うことになるのか。結局、信仰を試すのは人なのだろうか。)
そもそも、人工知能が一神教的なら、ヤハウェが人々の信仰心を試すために理不尽なことをしたように、人工知能も人々を理不尽に試すかもしれない。退職の可能性のない人間をピックアップしてケアさせるとか。もちろんそれは悪意ではない。人間を超えた正しさがあることを私たちに示すためだ。人間とは善意で悪を行ってしまうような存在だから。それを戒めるために。
※コメント投稿者のブログIDはブログ作成者のみに通知されます