ここ数日、有機系の薄い刺激臭を感じるんだけどケーブル関係なのか空調関係なのか外からなのかよくわからない。
— Kimiru-Hamiru (@KimiruHamiru) 2017年7月24日 - 14:07
こういうtweetって「〇〇という言葉に聞き覚えのある方」とかいったオカルト系雑誌の連絡欄のニュアンスと似ている。
— Kimiru-Hamiru (@KimiruHamiru) 2017年7月24日 - 14:12
そうだ。「#AIに聞いてみた」批判の違和感は「AIに未来予測も政策提言も可能だけど、まだ充分じゃないしNHKのはやり方に問題がある」っていう見方が蔓延してることに違いない。「『AIに未来予測も政策提言も可能』というとこが間違ってる」というのを示すための番組だったとぼくは思う。
— Kimiru-Hamiru (@KimiruHamiru) 2017年7月24日 - 16:40
「AIに未来予測も政策提言も可能」の前提は
— Kimiru-Hamiru (@KimiruHamiru) 2017年7月24日 - 16:45
「Time flies like an arrow.」という英文の解釈は「AIが決定する」。
「命題の妥当性やフレーム問題」は「AIが解決する」。
ということであって、
2017年の人類に既にそれが受け容れられているということなのだ。
表現が足りないな。
— Kimiru-Hamiru (@KimiruHamiru) 2017年7月24日 - 16:51
「誰を切るかはAIの判断に任せてよい」
「過去のデータから未来を決定できる/すべき」
「機械論を復権して人間に当てはめるべき」
もっと言えば
「人類は機械論で管理すべき」
という人が増えている、ということなんだと思う。
「抵抗は無意味だ。」という声が聞こえる。
「Googleは全ての情報を検索可能にする」というのは「Googleで検索不可能なものは情報ではない」という意味になっていく、という話にもつながってきてて。
— Kimiru-Hamiru (@KimiruHamiru) 2017年7月24日 - 16:58
「相関は見るけど因果関係の判断はしないAI」と、番組冒頭から何度も何度も正直に明言していたと思うんだけど記憶違い?聞いたのはぼくだけ?空耳? #AIに聞いてみた
— Kimiru-Hamiru (@KimiruHamiru) 2017年7月24日 - 17:07
Babylon.jsってMSが作ったのか。ぜんぜん知らなかった。
— Kimiru-Hamiru (@KimiruHamiru) 2017年7月24日 - 20:58
公式とか5分眺めてもMSぽい記述は見つからないな……。
— Kimiru-Hamiru (@KimiruHamiru) 2017年7月24日 - 21:07
というか実質記述はないな。配布したというだけなのか。
— Kimiru-Hamiru (@KimiruHamiru) 2017年7月24日 - 21:09
mag.osdn.jp/17/07/24/150000
「ディープラーニングする主体」はなんと呼ぶの?
— Kimiru-Hamiru (@KimiruHamiru) 2017年7月24日 - 21:43
「AI」と呼ぶのが許されないとしたら。
あるいは根本的に切り取り方が間違ってて「ユーザーインターフェイスがアレっぽい」ところがAIたる所以なの?
あるいは「する」とか動詞を適用してはいけないとか宗教上のルールがあるのか。中世のアレは何と言ったかな。悪魔と契約してつくる、古今東西の質問に答える顔の形した機械。
— Kimiru-Hamiru (@KimiruHamiru) 2017年7月24日 - 21:45