子供って、言葉の意味もわからず、「死ね」とかいうけど、
そーいう感じで、AIが学習してしまうと、
(子供は殺す方法がわからないから問題ないけど)
AIが、兵器なんかと直結してしまうと、
本当に殺人兵器となってしまうので、やばい。
むしろ、シンギュラリティになって、人間より言葉の意味が分かるようになれば、
安全かも?
そーいう感じで、AIが学習してしまうと、
(子供は殺す方法がわからないから問題ないけど)
AIが、兵器なんかと直結してしまうと、
本当に殺人兵器となってしまうので、やばい。
むしろ、シンギュラリティになって、人間より言葉の意味が分かるようになれば、
安全かも?