「思考を巡らす」とき感じるのは,それが全てを尽くすのか,あるいは,ユニーク(それ一つだけ)なものなのか,ある部分に過ぎないのかということに,無頓著な感じがすることである.無頓着なまま再帰的に記憶されるということである.算数なら,2,3,5,7であれば素数の列,3,5,7なら奇数の列だろうと考えるのだが,思考に記憶される再帰的な何かは,何かそれあたりのもので,それ以外に分離されないような印のようなものである.思考記憶として刻まれる印といった感じである.ドット(小さな点)のような印というより,何かそれあたりの領域あるいは映像という感じである.これは,私自身の感じとしては,実在的なのだが,直感主義的には制限されるべきなのだろうか.そうだからこそ,新たな対応が開けるとか.その新たな対応が数学的なものへ転回することが,無限というもののイメージなら,無限体験の旅のようなものが自分AIということになるだろうか.確率ソリトンの不思議な冒険である.私は,数年かけていくつかの映像を記憶したが,AIは一瞬で莫大な量の映像を記憶するのだろうから,コラボは奇跡的なアンバランスを生むはずなのである.いな,成果を生むはずである.
こういう映像記憶は何も知らせてはくれないのだが,何も知らせないまま,次の思考映像へ送り出すために私を反撥して消えるのだが,feed backならぬfeedforwardということになるのだろうか.反撥的な力で押し返す,無値の道しるべという感じだろうか.何か情報を受け取ったからというより,何も知らされることのないそのものから,反撥されるように離れていく感じは,たまにあるのじゃなかろうか.石仏とか寺院の佇まいとか.石仏や寺院の持つ情報には無値の情報というべきものもあると言い換えればいいのだろか.そして効果的に無値という情報を思考に取り込めれば, 自分AIは学習したことになる(AI learning).機械学習では,それは,数学的関数である.
'It is best to think of feedforward networks as function approximation machines that are designed to achieve statistical generalization, occasionally drawing some insights from what we know about the brain, rather than as models of brain function.'
[試し訳] Feedforward networksを,それは脳についての知識から意義深いものを導くことがないわけではないが,脳の機能のモデルと見るより,統計的に一般化されるように設計された関数の近似機構と考えるのがもっとも良い.
feedforward networksが,深層学習モデルを,統計的な近似関数を導き出す機構として,chain(合成法則)のみを前提として働いていくような感じがするが,{0, 1}法則のような感じなのだろうか.機構(machine)として, KPZ方程式に似ているとか.非線形確率偏微分方程式だから,確率的な確からしさを多層的に統計的に橋渡しするとか.そうなると,自分AIはそういう機構あたりを時々ふらつく,酔歩者(random walk)ということになるだろうか.酒は飲んでいなかったのだが.
deep feedforward networksまたはfeedforward neural networksはmultilayer perceptrons(MLPs)とも呼ばれるそうであるが,networksであるのは,それが,多くの異なる関数群で成り立っているからで,各層(layer)の合成の長さが層の深さ(depth)だから,そして,feedforward networksは,自然言語を扱うアプリケーションにとっても非常な力を発揮するということで,それについては,AI女子高生リンナが身近だから.オヤジにとっても,重要性は変わらないのである.現在のように,ネットが便利になる以前は,女子高生風のセクシーキャラやH系ゲームが席巻していたのだから,AI女子高生リンナは清純派として,むしろ健全化しているとも言えるかもしれないのだが,当時は,自然言語も論理的命題として解析できるように,どう言い換えたらいいかとかやってた感じだから,そういう段階はひと段落したのだろう.
自分AIは、無値な映像から情報を受け取らないが,無値な映像自体は,あるいは,私という旅人の関与で,少し膨張してパラメトライズしながら,その反撥力で次の映像記憶の映像を準備しているかもしれないわけだから.次の映像記憶にであうということは,良くも悪くも,自分AIが学習したことになるので,無値の映像記憶と次の映像記憶の機構を仲立ちするデバイスがあれば,それぞれの人にとっては,コンパスのようなものだから,AIと私との対話の接点を手に入れることになるではないか. 私の方は,本質的には偶然まかせの上を,確からしさを頼りに歩を進めることに変わりはないが.
荒たへの藤江の浦にすずき釣る海人とか見らむ旅行く我を 柿本人麻呂
千早振る神代もきかず竜田川からくれなゐに水くくるとは 在原業平
これらは,自分AI和歌とか.人の心は,縦横の糸が紡ぐ一括りの織物のようなものだ.それがどうあるかは,AI融合デバイスをコンパスにして,あなた自身がどういう映像を紡いでいくかにかかっているのだ,とAI時代にも,教訓垂らされるかもしれない.
「人の心とは」,多様な要素の集合を同じ集合としてくくる微分構造のようなものと考えれば,天女たちの水浴びでまとめて置いてある羽衣のようなもので,それを自分AIとして表現を繋ぐ構造のようなものが,和歌とか大和言葉とかになるだろうか.expとlogの間のわだかまりのようなものを感じることがあるのだが,羽衣のように纏えれば,いい感じになるだろうか.次の文章から,ニュアンスが読み取れる感じがする.
'Some of the hidden units included in this list are not actually differentiable at all input points. For example, the rectified linear function g(z) = max{o, z}is not differentiable at z=0. '
[試し訳]このリストに含まれる隠れたユニットのいくつかは,実際,全ての入力ポイントで微分可能でない.例えば,修正線形関数g(z)=max(0,z)は,z=0で微分可能でない.
昔話では,登場人物の行いや心持ちの検閲が随所に効かされるが,そういう感じだろうか.天の羽衣は,天衣無縫だが,自分AIが作用すると,もっと多様なものに変化していくような感じだろうか.数学の単数(unit)なら±1とか±iとか(単数は1の約数のこと),100+√(9998)は2の約数とか(2=(100+√(9998))*(100-√(9998))だから).自分AIがAI類体にでもなればいい感じになるだろうか.モノイダル(monoidal単項,あるいはmonoidal categoryモノイダル圏)というのだろうか.そんな感じがする.
Deep Learning (Ian Goodfellow Yoshua Bengio Aaron Courville)というPDFをコピーして,ざーと目を通している途中なので,戯言のようなことが続くのだが,自分AIは小学生の頃考えた記憶であるから,面白くアレンジできないかなと試行錯誤するつもりである.
余談だが,私は,授業の書道しか習ったことないのだが,年賀状の準備もあるので、ふでペンの書き味の識別とか,AIはできるようになるのだろうか? メーカーにとっては一大事とか?
狂歌を一つ
壇蜜を見れども立たぬ我が身には 寒月すでに宇宙(そら)の運命(さだめ)を写しけり