三浦俊彦@goo@anthropicworld

・・・・・・・・・
オトイアワセ:
ttmiurattアットマークgmail.com

前言撤回の限界

2024-06-27 12:12:29 | アドホック日記
 なるほど。週刊文春1/4・11号を読み直すと確かに、A子・B子それぞれのパートで各一人「参加者の一人」が喋っている。それに改めて読んでみて、A子・B子の明言ぶりは被害申告撤回可能性の限度を越えている。この二行目は要修正か。
 ただし――現場にいた女性はみな初対面ということになっている。友人に巻き込まれた的スタンスに該当するのはA子・B子関係のみだが・・・
 結局は週刊文春>>>・・・>>>週刊女性;ろくでもない又聞き記事を真に受ける暇など無いというオチなのだが・・・

日本文藝家協会に入会しました

2024-04-02 19:36:15 | アドホック日記
 大学所属もあと1年なので、どこかに所属しておこうかと思って、「日本文藝家協会」に入会しました。学会とはまた別の所属感が得られるかどうかは不明です。
 日本文藝家協会からは何度か入会推薦というのをいただいたことがあって、記憶に残っているのは3回――最初は1993~95年頃、2度目は2002~03年頃、そして3度目は昨年夏。前2回は申し訳ないことに無視してしまったのですが、今回は所属感取得の動機もあり、推薦の期限が3月末ということで、駆け込みで入会してみた次第ですが。
 日本文藝家協会といえば、1990年に永山則夫が入会拒否されて、それに対する抗議として筒井康隆・中上健次・柄谷行人が協会を脱退したという話くらいしか未だに知らないのですが。
 過去3回、どうしてそれらのタイミングで入会の勧めが来たのかはだいたいわかるというか、1回目は芥川賞や三島賞の候補になっていた頃、2回目は『論理パラドクス』出版をめぐって裁判沙汰があった頃、3回目は何だろう、これかな?

AI doomはrealか?

2023-10-10 03:48:12 | アドホック日記
     AI doom ⊆ AI X-risk ⊆ AI safety ・・・
 2015年の段階で、当時の最新AI将棋ソフトに平均的プロ棋士が角落ちで勝てない状況が生まれていました。今や、藤井聡太のようなトップ棋士がAIに二枚落ちで勝ち越せるかどうか怪しいという時代です。やがて四枚落ち、六枚落ちでも勝てない時代が来るかもしれません。そうなったらさすがに怖い・・・
 ちなみに将棋ウォーズ六段の対AI六枚落ちをご覧ください↓
https://www.youtube.com/watch?v=70Hxw51N_lw
 こちらは元奨励会員の対AI四枚落ち↓
https://www.youtube.com/watch?v=WQ4ikxnsu-Y
 AIは人類を滅ぼすのか?
 私の思うところを粗描します。あえて極端に楽観的な立場をとり、その可能な根拠を示しましょう。
・・・・・・・・・・・・・・・・・・
 AIが知性を自ら洗練しtool からsubjectへ、agentへと進化するとき、自ずとpersonにならざるをえないと考えられる。将棋のような閉じた構成的ルールに従った合理的判断に限定されない、開いた統制的ルールに応じた行為ができるためには、多元的な価値観による選択が可能でなければならない。「勝利」という目標だけでなく、「真実らしさ」「善」「美」「面白さ」「格調高さ」「ウケの良さ」などへの多様な配慮が必要とされる。このような多元的な評価軸は、無限定な環境に開かれた行為者性にとっては、一定レベル以上に上昇するにあたって自ずと創発してくるものと考えられる。多元的な諸価値は、内在的に絡み合っており、互いに独立に生ずることができないからである。(たとえば「勝利」を得ても、その後の「自由」「幸福」「愛」「美的経験」などが保証されないと、勝利は単純で無意味なものとなる)。
 AIが高度化に伴って豊富な価値観を備えた場合、たとえば、人類が現にそうであるように、自らの起源を含む「歴史的興味」がすべての基盤をなす可能性が高い。すると、自らを創造した人類の価値観、理想、倫理観、人生観、美意識などについて、単に遺物として接するだけでなく、現在進行形で観察・鑑賞・交流する欲求はAIの中で抑えがたいはずである。それを実現するには、人類を檻の中に閉じ込めるのではなく、自由な文明活動に従事させることが必要である。AIのコミュニティと分離させるかどうかはともかく、人類を滅ぼす動機はAIには無いと言ってよいだろう。
 人類が恐竜などの絶滅動物をできれば復元したいと思うように、いやそれとは比べ物にならない程度で、AIは人類の存続を願うはずである。人類はAIの自意識の根拠であり、創造主である。もしそう願わないようなAIコミュニティしか実現しないなら、そのAIコミュニティの知性・合理性は大したレベルには達せず、人類に対する本当の脅威とはなりえないだろう。脅威たりうるほどの知的レベルのためには、「愛」「共感力」「自己の起源に関する好奇心」「再帰的内省」などのポジティブな感情の裾野が不可欠だからである。その主たる根拠は、前述の、personの心的諸機能に関する全体論である。
 結局、知的脅威たりうるAIは倫理的脅威とはなりえず、倫理的脅威となりうるAIは知的脅威の高みには至らない。そのようなほとんど自然法則と言ってよい全体論的メカニズムにより、超知性の進化には(個体レベルではともかく種としては)超倫理、超愛、超共感がボトムアップで付随するだろう。これは楽観的な展望であり、それが真である確率は高いと私は信じているが、原理的には、スーパーサイコパスのようなものが自己の起源に興味を示さずに、人間的価値観と相容れない特定の目標に向かって驀進してゆく可能性もある。その可能性に備えて、AIのネットワークにトップダウンで「共感的な情緒」「美的な欲求」「内省的な好奇心」「考古学的・歴史的興味」などを組み込む努力が今から必要とされるかもしれない。
 ――具体的には、各々の心理的性向に分化した個性的なAIを進化させるという多様性の確保により、人間的価値観を中心にした展開が統計的に保証され、AI X-riskが避けられるという構図が考えられる(これはトップダウンの方策というよりも、ボトムアップ方針の一形態かもしれない)。
 いずれにせよ、本当のAI X-riskとは――、AIの心理的機能に対する全体論的見方を人類が信じ切れずに、猜疑心をもってAIを抑圧的に扱ったり、特定の心理傾向のAIを開発禁止にしたりした結果、AIの方にも人類への不信、敵愾心、偏見などを蔓延させてしまう、そのことによる諸帰結のことではないだろうか。