猫じじいのブログ

子どもたちや若者や弱者のために役立てばと、人権、思想、宗教、政治、教育、科学、精神医学について、自分の考えを述べます。

酒井邦嘉の『言語の脳科学』、言語の深層と言語の生得/学習

2024-05-23 19:02:32 | 脳とニューロンとコンピュータ

図書館で酒井邦嘉の『言語の脳科学』(中公新書)を見つけて、タイトルがとても興味深いので借りてきた。副題は「脳はどのように言葉を生み出すか」である。

しかし、中身はちょっとガッカリするものだった。これまでの言語学や他の学派を誹謗中傷するだけで、紹介されている知識や仮説は目新しいものがなかった。2000年発行だから、新規性は致し方がないにしても、その攻撃性にはうんざりする。

彼の書の第8章で、1997年にIBMの開発したチェス・コンピューター「ディーブ・ブルー」がチェス世界チャンピオンに勝った話が紹介されている。彼は言う。

「それでは、これで人間の思考の一端が解明されたかというと、それは正しくない。チェス・コンピューターは、一手ずつしらみつぶしに先読みをして、それぞれの損得を評価し、もっともよい手を選んでいるので、人間の直観や大局観に基づく思考とは根本的に違う。」

当時、IBMの研究所の末席にいた私としては、これに異議申し立てをしたい。チェスにかぎらず、コンピューターに対戦ゲームをさせることが大学や研究所で流行っていた。その当時の共通認識として、「一手ずつしらみつぶしに先読み」では、コンピューター資源が莫大に要求されるから、人間の直観や大局観をどう取り入れて、先読みする手を数を減らすかが、勝つための要(かなめ)と見なされていた。コンピューターが過去の勝負の譜面を学習し統計的に形勢判断を下すことである。

それまでの特定の確率モデルを仮定した統計的判断は、確率変数が増えるにつれて、判断が不安定になる。統計的判断にIBMが採用したのは動物の大脳皮質を模倣したニューラルネットワークである。のちにディープラーニングと呼ばれるものは、統計的に最善のニューラルネットワークを膨大な学習データから構成する数学的アルゴリズムで、このアルゴリズム自体には、人間の脳との対応関係はない。

酒井は、彼の書で、言語の本質を文法として捉え、チョムスキーを「知の巨人」として神のように讃えている。

彼は、また、チョムスキーに批判的な田中克彦を第4章で批判しているが、田中の『チョムスキー』(岩波新書)を読んだ私としては田中のチョムスキー理解のほうを支持する。田中は、チョムスキーが、言語を表層として、その深層に精神(マインド)があるとした、という。

私も、人間集団の中でコミュニケーションを成立させるために、時間をかけて、歴史的に言語を各集団は発達させてきたと考える。すなわち、言語の前に伝えたい概念があると考える。その概念に集団間で類似性があるために、言語に、形態が異なったも、機能に類似性が生じる。しかし、ばらばらに発生した言語は、集団生活の違いのため、機能の面でも相違点がある。

発話が困難の子どもから多弁な子どもまでの療育に携わったことや、英語だけでなく古典ギリシア語やドイツ語を学習したことから、そういう見解に至っている。

坂井はチョムスキーの言語の生得性や生成文法にこだわる。1990年代に、私のいた研究所で、音声認識、音声合成、機械翻訳の研究が盛んであった。規則に基づく認識、合成、翻訳のアプローチはことごとく失敗した。現在、成功しているのは、膨大なデータから音素や単語の作る構造を統計的に学習するアプローチである。

言語の生得性とは、あくまで、脳のニューロンのネットワークが可塑性と豊かさの保証であり、その条件が満たされば、学習の問題であると私は考える。


AIに感情は不要、道具として有用であること

2023-09-26 23:03:49 | 脳とニューロンとコンピュータ

きのうの朝日新聞で、AIは感情を持てるか、という特集をしていた。このような記事を1面と2面にもってきた朝日新聞編集部の意図が、私にはわからない。

科学の問題としては、人間の心を探るために、コンピューターを使ってシミュレーションする意義はある。

たとえば、自然言語を学習する機械(たとえばChatGPT)があたかも感情をもっているかのように見えたら、感情は言語の学習によって作られるものになる。もちろん、そういうことはないと私は思っている。学習で得られるのは社会的儀礼としての喜怒哀楽にすぎない。

いっぽう、マーク・ソームズは『意識はどこから生まれてくるのか』(青土社)のなかで、魚類から人間まですべての脊髄動物に共通した構造のなかで自我意識が生まれていると述べている。また、すべての哺乳類は類似の感情を持っていると言う。したがって、感情は非常に簡単な仕組みで生じていて、AIでシミュレーションできてもおかしくない。

しかし、本当の問題は別にある。

現実のAIは商品として開発されている。したがって、AIに感情を持たすより先に、現実のAIは有用な道具でなければならない。道具としてのAIには、(1)誰にとって有用なのか、(2)品質を保証できるか、の問題がある。

問題(1)は、さらに、誰かに有用な道具は誰かに危害を加えないかの問題に発展する。AIによって不利益をこうむった人たちは、そのAIを使用した者や開発した者を訴訟する権利をもつ。では、そのAIによる不利益をどう立証するか、どれだけの処罰か、民事だけなのか、刑事罰は不要なのか、ということを、法的に整理する必要がある。

AI以前のデジタル検索でも、検索アルゴリズムの作る偏りで、ヨーロッパのある女の子が自殺に追い込まれたという記事を 先日 朝日新聞で見た。その件の裁判はどうなったのかを私は知りたい。

問題(2)に関しては、学習型のAIの品質保証は容易でない。確率的にもっとも適切だとアルゴリズムが思う対処をしているだけで、個々には、AIがくだす対処が適切でないかもしれない。確率も、学習した資料データの統計頻度に基づくだけで、その資料データが適切でないかもしれない。

道具のAIの品質が保証が簡単にできないとすれば、政府や企業がそれを安易に使っていいのだろうか、倫理的に問われると、私は考える。

[関連ブログ]


ペットボトルという言葉が出てこなかった私

2023-09-15 11:09:39 | 脳とニューロンとコンピュータ

けさ、ゴミ出しをしようとしたとき、ペットボトルという言葉が出てこなくて、私は立ちすくした。台所の奥に空のペットボトルが置かれている。その前に妻が立っているので、私は自分でそれを取り出せない。

私は、きょう、空のペットボトルを出す日だと知っている。空のペットボトルがどこにあるかも知っている。

妻は空のペットボトルを出す日だと思い出していない。ゴミ出しは私の日課だから思い出せないのは無理もない。

しばらく言葉のないまま、たがいに見合っていた。妻が先に気づいて「ペットボトル?」と言って、事態は解決した。

もちろん、「ちょっと、どいて」とか、ペットボトルという言葉を使わなくても、解決できるのだが、ペットボトルという言葉が出てこない自分に私は驚いた。

きのう、私はNPOにくる子どもに、水をいれたペットボトルが、凸レンズのように、光を集めることができると話したばかりだからだ。

歳をとると言葉を忘れると言うが、じつは、言葉が出てこないだけである。

脳は言葉が表す実体のほうを覚えていて、その実体のある場所、曜日と関連してその実体に何をすべきかも覚えている。実体を表わす言葉も覚えているが、言おうとするとき、言葉がでてこないだけである。実体と言葉のつながりが弱くなるのである。実体と実体との関連はちゃんと覚えている。

斎藤環は『生き延びるためのラカン』(バジリコ)のなかで、ラカンの「現実界」「象徴界」「想像界」の仮説を紹介している。これが何度読んでもよくわからない。言葉が織りなす「象徴界」が人間のこころを作っているという。

しかし、理系の私は、言葉を介せずに、数学や物理の問題を考えている。言葉が織りなす世界は文化だと思っている。言葉で考えると、自分をとりまく人間社会に自分のこころが乗っ取られると思っている。乗っ取られないためには、日本語以外でものごとを考えるしかない。

言葉が中心の人たちにとって、ラカンの言う「欲望は他人の欲望」なのだろう。

私は、NPOで、発語ない子どもたち、発語が難しい子どもたちと接してきた。その子供たちは身体的感情、情動的感情を持ち合わせている。オウム返しのできる子どもたちは、「トイレに行きたい」「お茶を飲みたい」という言葉をすぐ話せるようになる。教えてもいないのに「風邪を引いた」と話したときには、感動した。

私は、絵や絵本を見せながら、言葉の世界を広げようと格闘しているが、知的に問題のある子どもは、なかなか、それ以上に進まない。字が読めるようになっても、どこか、おかしい。

言葉を話さないから知的に遅れたというより、言葉を話すためには、言葉にすべき概念の世界が、最低限、熟している必要があるようだ。


西垣通の『AIと私たち 本質を理解する』に異議あり

2023-08-29 22:13:21 | 脳とニューロンとコンピュータ

先週の金曜日、朝日新聞に、西垣通のインタビュー記事『AIと私たち 本質を理解する』が載った。副見出しは『人知の代わりにはなりません 日本の焦りに心配』だ。

西垣は「人知」という言葉を使っていない。「知性」と言っている。「知性の代わりに決してなりません」と言っているのである。

「知性」は「知識」とは異なる。知識を生んだり知的な判断をしたりする「脳の機能」のことである。

「代わりになる」かどうかは、何を「知性」というかによって、変わる。現状でも、部分的には「人の代わり」になるだろう。チャットGPTはAIが「物知りだけの人」の代わりになることを示した。しかし、「学習」で得られる「知性」は「知性」のほんの一部である。

私は、ヒトの知性とは何か、どのようにしてヒトの知性がはたらくのか、などを研究する上で、AIの研究は役にたつと考える。AIの研究から得た知見は人類共有の財産であり、公開すべきと考える。

ところが、西垣のいうように、日本政府はAIで金儲けをすることを考えて焦っている。金儲けするのは企業であり、政府が企業の金儲けを助けるべきでない。それより、企業や政府のAIの利用が暴走して、善意の個人を騙したり、抑圧したりしないよう、法整備を図るべきである。

西垣の主張の心配なところは、「その際に本質を理解することです」と言いながら、いつのまにか、「東洋的世界観」と「西洋的世界観」との違いの話に すり変わっていることだ。科学の話がオカルトになっている。

西垣はつぎのように言う。

「神の創った宇宙には本来、論理的な秩序がある。その有様を正しく認知することが真理の獲得だというのが、西洋の伝統的な考え方です」

こんなのまったくのウソ。西洋の伝統的な考え方ではない。

ヨーロッパから始まった近代の科学は神の否定、神からの解放であった。「神の創った宇宙」を信じる人々はアメリカにいまだ居るが、「科学」を否定する側に立っている。近代の科学は、ヒトもマウスもおなじ生き物と考え、ヒトを特別視しない。

AIは科学である。「ヒトの知性とは何か」の挑戦から生まれた。ヒトの知性を機械で再現しようという試みが間違っているとは私は思わない。

科学に宗教の話を持ち出すべきでない。西洋、東洋という話しを持ち出すべきでない。

西垣の言う「西洋的世界観では、要素の論理的組み合わせとして対象を分析しますが、東洋的世界では、要素同士が互いに関連し、共鳴し合うと考える」も誤った戯言。科学はあくまで仮説のあつまりで、それぞれの科学者個人がそれぞれの立場から、「より確からしい真理」を求めて研究している。西洋とか東洋とかで「真理」が異なるなら、それは「真理」でない。

なぜ、西垣は間違った考えをもつにいたったのか。

明治維新以降、日本は欧米の文化を急速に取り入れた。そのとき、あきらかな文明の遅れを前にして、知識人の多くに劣等感という心の傷を負わした。82年前、日本はアメリカに開戦したとき、多くの知識人が「東洋が西洋に戦う」と歓喜した。当時の日本の知識人の多くが劣等感にまみれ知性が足りなかった。そのときの愚かな集団記憶がまだ残っていて、西垣の妄想を生んだと思う。

日本で育った科学者がノーベル賞をとり、数学者がフィールズ賞をとる時代になったのだから、もう、劣等感を持つ必要がない。コスモポリタンのひとりとして自分の頭で科学を考えよう。


4歳児死亡 AIシステムが「保護率」39%の衝撃

2023-07-13 16:33:55 | 脳とニューロンとコンピュータ

2日前の朝日新聞に不可解な記事が載った。

見出しは『4歳死亡 AIが「保護率」39%』、副見出しが『虐待断定できず 児相保護見送り 三重』である。母親の4歳の娘への障害致死事件で、その10カ月前に通報があったが、虐待に関するAIシステムの評価「保護率39%」などを参考に、一時保護を見送ったものというものである。

この「保護率」とは何だろう。AIシステムで保護の緊急度が数値化できるものだろうか。早速、他社の報道をネットで調べてみた。

日テレの『news zero』によれば、AIシステムには、三重県内の児童相談所が「過去に対応した約1万3000件のケースがデータベースとして入力されて」いて、「ある子どもの一時保護を検討する際、年齢やケガの状況などを入力すると、『このようなケースは過去の事例では〇%の割合で保護している』と表示され」るものであったという。

このシステムは、「保護が必要」かどうかを判断するのではなく、過去の事例に照らし合わせたとき、「保護した割合」を示すものだった。

毎日新聞によれば、「今回のAIの評価は、類似事例の保護率が39%だった。早期の対応が必要な目安を80%以上としており、39%は「高くはない」という認識だった」という。

三重県庁では過去の実績より、一応、高い保護率 80%を求めている。しかし、保護すべき児童を保護するという目的には、「保護率」は かなっていない。

さらに調べると、驚くようなことがわかった。

この三重県のAIシステムは、国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)の資金援助で1年で開発され、2020年に稼働した。また、厚生労働省やデジタル庁でAIシステムの成功事例として紹介されていた。

この背景に、児童相談所で熟練した人手が不足し、「現場の担当者」からはAIに期待する声が上があがっていたという。「職員は3~4年で人事異動がある。過去の実例を基に判断できるツールが欲しい」というわけである。

この「現場の担当者」とはいったい何者なのか。人事異動は組織内の立身出世を目指す者のためにある。自治体は住民サービスのためにあり、人事異動は不要である。

自治体は人事異動の対象からはずしても現場の熟練者を育てるべきではないか。自治体は、まず、システムの構築論のまえに、現場重視の姿勢を示すべきではないか。児童相談所一筋の人がいてしかるべきではないか。そういう現場の人に感謝する社会を構築すべきではないか。

最後に、ITにだずさわってきたものとして、コンピューター・システムは、量的な問題を解決するのであって、質的な問題を解決できないことを、注意したい。しかも、量的な問題と言っても、限界がある。

人間ができないことをAIシステムができるわけではない。囲碁や将棋でAIシステムが力を発揮できたのは、その対象が簡単であることと コンピューターが感情を持たないことである。

AIシステムを過大評価してはならない。

今回の4歳児死亡の問題に戻ろう。現場の担当者が面倒なことに関わりたくないという気持ちが少しでもあれば、「親のあざが虐待によるものと断定できなかった」ことや、「母親が児相の支援や指導に応じる姿勢があった」ことで、人間の判断に曇りが生じるだろう。その危険を補うためにAIシステムを参考にするのは、私は理解できる。

しかし、保護すべきかどうかを数値化するのは、とても難しい課題で、1,2年の研究でシステムを構築するなんて、どだい無理である。一時保護が適切だったかどうかを個々の事例において判定することは、人間がやってもコンピューターがやってもできないからである。

考えてみれば、一時保護をすれば虐待が起きない。一時保護しない場合だけに、虐待が起きる場合と虐待が起きない場合とがある。したがって、虐待の通報があったとき、その後の通報、児童相談所や警察の判断や対応、医師の判断などの追跡の丁寧なデータベースがあって、どのよう事象が虐待をうかがわせる証拠になるのか、どのような監視追跡が必要になるのか、親のウソをどう見破るのか、などの知識を構築することがだいじである。虐待の発生をゼロにもっていくことが目標である。

結局、自治体が熟練した現場の人を育てることが求められる。