未だに「AIは理論的」だと思っている人達がいるんだけど
AIっていうのは予めヒトが「これが正解だよ」っていう情報を大量に与えておくことで「多分これも正解だと思う」っていう感覚的な答えを導き出してくるシステムなのね
だからAIは論理的に理解して判断しているわけではない
なので 論理的に正しいのかどうかはAIは判断することが出来ない
科学論文的なものの場合 大多数の研究者が同じ間違いをしている場合 間違っている多数を「正解」として「学習」してしまうことによって 間違った答を「多分これも正解だと思う」と出力することしか出来ない
AIっていうのは生物の脳のメカニズム構造をエミュレート(真似)したものなので 動物的「感覚」で答えることしか出来ないわけですよ
なので「AIは理論的」というのはAIのことを深く知らない人の勝手な思い込みでしかない
論理的に正しいかどうかをAIは導き出すことは出来なくて あくまで「多数派を正解と見なしている」だけなのです
マイクロソフトのTwitterAIがヘイトスピーチを始めてしまったのも Twitter上の多数派に同調しただけのことであって それが論理的に正しいとか 倫理的に間違いだとか そういう判断は自律的には出来ないから起きた暴走事故
アメリカの一部で利用されている犯罪予測AIでは 犯罪に関わりのありそうな人物をピックアップすることは出来るそうなんだけど それが具体的に被害者なのか加害者なのかは予測が全く出来ないらしい
「なんだそれ!?」って思うかも知れないけど AIで導き出せるのは大量の過去の情報から何となく「感覚」的に関係がありそうな項目を拾い出してくるだけなので ヒトからしたら意味が解らない答えしか導き出すことが出来ない
ヒトの錯視をAIで再現することも出来るそうで ヒトと同じように同心円を螺旋と錯覚することもあるんだそうな
とはいえ AIというのは機械なので ヒトのように疲れたり不調だったりということもなく ヒトでは到底扱い切れないような膨大な情報を基に「多分これが答えなんじゃないかな」という項目を見つけ出してくれるので CTやMRIの画像診断などでは非常に利用価値が高い
本当に怖いのは 生物学や哲学における学術論文の「多数派」が優生学に対する論理反証を理解していない内容の場合 AIもそれに同調して障害者を淘汰しようとしてもおかしくはないってこと
もしAIが「生存にとって不利な人なら 殺しても構わない」と言い出すとしたら その原因というのは生物学者や哲学者達の頭の悪さに起因するものなのです
AIっていうのはあくまで機械で 道具に過ぎないので 扱うヒトの人間性に依存した判断しかしないのです
Ende;
AIっていうのは予めヒトが「これが正解だよ」っていう情報を大量に与えておくことで「多分これも正解だと思う」っていう感覚的な答えを導き出してくるシステムなのね
だからAIは論理的に理解して判断しているわけではない
なので 論理的に正しいのかどうかはAIは判断することが出来ない
科学論文的なものの場合 大多数の研究者が同じ間違いをしている場合 間違っている多数を「正解」として「学習」してしまうことによって 間違った答を「多分これも正解だと思う」と出力することしか出来ない
AIっていうのは生物の脳のメカニズム構造をエミュレート(真似)したものなので 動物的「感覚」で答えることしか出来ないわけですよ
なので「AIは理論的」というのはAIのことを深く知らない人の勝手な思い込みでしかない
論理的に正しいかどうかをAIは導き出すことは出来なくて あくまで「多数派を正解と見なしている」だけなのです
マイクロソフトのTwitterAIがヘイトスピーチを始めてしまったのも Twitter上の多数派に同調しただけのことであって それが論理的に正しいとか 倫理的に間違いだとか そういう判断は自律的には出来ないから起きた暴走事故
アメリカの一部で利用されている犯罪予測AIでは 犯罪に関わりのありそうな人物をピックアップすることは出来るそうなんだけど それが具体的に被害者なのか加害者なのかは予測が全く出来ないらしい
「なんだそれ!?」って思うかも知れないけど AIで導き出せるのは大量の過去の情報から何となく「感覚」的に関係がありそうな項目を拾い出してくるだけなので ヒトからしたら意味が解らない答えしか導き出すことが出来ない
ヒトの錯視をAIで再現することも出来るそうで ヒトと同じように同心円を螺旋と錯覚することもあるんだそうな
とはいえ AIというのは機械なので ヒトのように疲れたり不調だったりということもなく ヒトでは到底扱い切れないような膨大な情報を基に「多分これが答えなんじゃないかな」という項目を見つけ出してくれるので CTやMRIの画像診断などでは非常に利用価値が高い
本当に怖いのは 生物学や哲学における学術論文の「多数派」が優生学に対する論理反証を理解していない内容の場合 AIもそれに同調して障害者を淘汰しようとしてもおかしくはないってこと
もしAIが「生存にとって不利な人なら 殺しても構わない」と言い出すとしたら その原因というのは生物学者や哲学者達の頭の悪さに起因するものなのです
AIっていうのはあくまで機械で 道具に過ぎないので 扱うヒトの人間性に依存した判断しかしないのです
Ende;