goo

脳の存在理由

 私たちは、自分が何者であるかを知るためにAIを必要としています。AI( Artificial Intelligence=人工知能)は、人間の脳の神経回路の働きを、計算機モデルに変換したニューラル・ネットワーク・モデルから発展してきました。
 AI研究の究極の目標は、人間と同じ知能、知性、感情を持ち、“意識”をもった存在を人工的につくりだすことにある、といっていいでしょう。現在の最新のAIは、スーパーコンピュータの力をつかって「学習」「推論」する能力を獲得しており、すでにチューリングテスト(知能をもった機械かどうか判定するテスト)に合格*01し、「情報が不足した状況で適切に処理する能力」を獲得しているという点で「知能」を持っている02といわれています。
 人間の知能は、地球に根差した生き物たち-特に動物たち-の多くが、46億年の地球の歴史をかけて進化し、獲得してきたものの集大成といっていいでしょう。ロボット工学の立場から、AI研究に重要な視点を提供してきたロドニー・ブルックスさんは、真の知能の発展にとって必要不可欠な基盤とは何かを探るうえで、生物的進化が時とともにどのように推移してきたか、ということを顧みることが重要だ03と指摘します。
 最初の単細胞生物が原始の海に出現したのはおおよそ35億年前といわれています。その後、最初の魚類と脊椎動物が登場するのは、今から5億5000万年前のことです。つまり「生存と生殖を最低限保持するのに十分なほど周囲を知覚し、動的な環境世界を動き回ることのできる能力」03を生命が獲得するまで、実に30億年もかかっている、とブルックスさんはいいます。知能にとってこの段階は、進化がその時間を最も多く費やしたところでした。そのことは、それが他の部分よりもはるかに厄介な問題だったことを示してる、とブルックスさんはいうのです。
 ところが、こうした「世界で存在し反応することの本質」03がいったん獲得されると、その後の知能の進化は加速度的に進行します。昆虫の発生が4億5000万年前。爬虫類3億7000万年前、恐竜3億3000万年前と続き、哺乳類が2億5000万年前に誕生します。そして最初の霊長類は1億2000万年前、類人猿の直系の祖先は1800万年前、我々人類は250万年前に登場しました。その後人類が農耕を始めたのが1万9000年前、文字を書くようになったのは5000年前、「自然科学」的知識の急激な発展はここ数百年のことなのです。
 こうした生物的進化の過程を見ると「可動性と、正確な視覚と、動的な環境世界のなかで生存に関連する作業をやってのける能力」03の獲得こそが、真の知能の発展にとっての不可欠の基盤を提供してきたことがよくわかる、とブルックスさんは指摘します。そしてケンブリッジ大学のダニエル・ウォルパートさんも主張するように、人間をはじめ多くの生き物が脳を持つ理由、それは柔軟で複雑な動きを可能にするためで、脳は動きを制御するために進化04してきたのです。

*01:Scott, Cameron. "Study finds ChatGPT's latest bot behaves like humans, only better | Stanford School of Humanities and Sciences".2024.02.22
*02:知能の物語/中島秀之/公立はこだて未来大学出版会 2015-05-31

*03:表象なしの知能/ロッドニイ・A・ブルックス/柴田正良訳 現代思想 1990.03 青土社


04:Filmed July 2011 at TEDGlobal 2011/ダニエル・ウォルパート: 脳の存在理由

 

 

コメント ( 1 ) | Trackback ( 0 )

AIを必要とする理由

 人間の知能・知性と似て非なるもの、それが、AIが獲得しつつある知能・知性なのかもしれません。
 そもそも知能・知性とは何かを考えるうえで、生命科学の発展やAIの研究・開発は大きな役割を果たしてきました。
 ところが、顔認証システム、囲碁・将棋のAIソフト、自動車の自動運転等々、それらを達成することができるのが超知的なAIのみだ、とかつては主張されてきたのですが、この数年、AIがそれらを成し遂げるたびに、私たちはそれが単なる機械であって真の知性とは言えない、と考えるようになっている*01とケヴィン・ケリーさんは指摘します。AI(人工知能)に「機械学習(マシン・ラーニング)」というラベルを貼ったのがその例です。AIが何かを成し遂げるごとに、それを非AIとして再定義しているのです。
 ケリーさんは、過去60年以上にわたり、人間に固有だ、と考えてきた振る舞いや才能を、機械的プロセスがそっくり再現してきたことで、私たちをそれらと分かつものは何か、と絶えず考えてこなくてはならなかった、と振り返ります。そしてより多くの種類のAIが発明されれば、人間に固有だと思われていたものをさらに放棄せざるを得なくなるだろう*01というのです。
 これからの30年、もしくは次の世紀まで、人間は一体何に秀でているのか、と絶えずアイデンティティの危機に哂されることになるだろう、とケリーさんはいいます。もし自分が唯一無二の道具職人でないなら、あるいはアーティストや倫理学者でないなら、人間を人間たらしめるものはいったい何だろうか?と問い続けることになるだろう、というのです。
 日々の生活で役立つAIのもたらす最大の恩恵は、効率性の増大や潤沢さに根ざした経済、あるいは科学の新しい手法といったものではなく(もちろんそうしたことはすべて起こりますが)、それが人間性を定義することを手助けしてくれることだ、とケリーさんはいうのです。
 私たちは、自分が何者であるかを知るためにAIを必要としているのです。

*01:〈インターネット〉の次に来るもの-未来を決める12の法則/ケヴィン・ケリー/服部桂訳 NHK出版 2016-07-25

コメント ( 0 ) | Trackback ( 0 )

不気味の谷

 最新のAIは「学習」と「推論」という能力を持ち、すでにチューリングテスト(知能をもった機械かどうか判定するテスト)に合格*01し、さらに「情報が不足した状況で適切に処理する能力」を獲得しているという点で「知能」を持っている02ともいわれています。しかしながら、完成したニューラル・ネットワークの思考の仕組みはブラックボックス化していて、人間が読み解くのは難しく、現時点では、ほぼ不可能に近いのです。
 こうして出現したAIのもつ知能とは、果たして私たちが知っている、あるいは理解できる「知能」なのでしょうか。
 コットレルさんの顔認識ネットワークの共同研究者であるジャネット・メトカルフェさん03が再現したホロンHolonと名付けられた画像04は、シナプス結合の最適な重みづけ配置の正確な値を把握し、私たちが容易に理解できるように画像化したものでした。それは元の訓練セットに含まれていたどの顔とも一致しない、顔の全体論的な特徴を表わしたものでしたが、出力された画像を見ると、それははたして人の顔なのだろうか、と思われるものも含まれていました。画像の粗さ(解像度の低さ)を別にしても、目が窪み黒ベタされたもの、逆に飛び出して見えるもの、鼻や口がつぶれているもの、頬の半分がケロイド状になったもの等々、それはまるでゾンビを見るようでもありました。
 このように数値的にすべてのシナプス結合の正確な値がわかっているネットワークでさえ、その意味するところ(再現された画像)は、既知のものとは似て非なるものとなっているのです。それがいまは数億倍のパラメータ数をもつAIへと発展し、しかもその思考プロセスはブラックボックス化しているのです。
 こうしたAI発展にともなう様々な脅威については、AI兵器や様々な職種を人々から奪い取るのではないか05といった問題を多くの人々が論じ、危惧しているところですが、人知を超えるAIへの不安、不気味さについて、あらためてメトカルフェさんの再現したホロン画像をみるとき、「不気味の谷06を感じてしまうのは私だけでしょうか。
 AIのこの不可解さ、不気味さは、まさにArtificial Alien(人工異星人)と呼ぶべきではないか08といったケヴィン・ケリーさんの主張通りなのかもしれません。


ホロンの六つの例04

*01:Scott, Cameron. "Study finds ChatGPT's latest bot behaves like humans, only better | Stanford School of Humanities and Sciences".2024.02.22

02知能の物語/中島秀之/公立はこだて未来大学出版会 2015-05-31

03:EMPATH: Face, Emotion, and Gender Recognition Using Holons. /Garrison W. Cottrell, Janet Metcalfe:/1990

04認知哲学-脳科学から心の哲学へ/ポール・M・チャーチランド/信原幸弘・宮島昭二訳/産業図書 1997.09.04

05ホモ・デウス-テクノロジーとサピエンスの未来/ユヴァル・ノア・ハラリ/柴田裕之訳/河出書房新社 2018.09.06

06:「不気味の谷」とは、工学者の森正弘さん07が見出した、人形やロボットなどのひとがたリアル(現実=ヒト)に近づけば近づくほど、それまでの親和性から突然畏怖や怯え、あるいは恐怖さえ感じてしまうという現象のことです。動物学者のコンラート・ローレンツさんが見出した動物種に共通する「攻撃」を説明する種の近さと攻撃性のグラフに出現するくさび型カーブの相似形や、それを非線形系に出現する不連続変化として、数学者のルネ・トムさんがまとめたカタストロフィ理論につながるものでもあります。
07:不気味の谷/森正弘Energy (エナジー)Vol.7 No.4 1970.10 /エッソ・スタンダード
*08:〈インターネット〉の次に来るもの-未来を決める12の法則/ケヴィン・ケリー/服部桂訳 NHK出版 2016-07-25

 

コメント ( 0 ) | Trackback ( 0 )

ブラックボックス

 AI( Artificial Intelligence=人工知能)の最大の特徴は、自ら「学習」する能力と、その学習成果を利用して、情報が欠損したり、不足した状態でも適切に処理する「推論」という能力を持っていることです。そしてGPT-4などの最新の大規模言語モデルは、非常に高い性能を有していて、ほぼ「知能」を持っていると見做してもよいのではないか、とも言われています。
 そこで問題となるのが、このような高い性能を誇るAIモデルが、実は、どのような思考を経て応答を出力しているのかが、開発者ですら把握できていない、という問題です。
 AIは、人間の脳の神経回路の働きを、計算機モデルに変換したニューラル・ネットワーク・モデルを根幹とするもので、シナプス結合の最適な重みづけ配置が「学習」によって獲得されたものです。
 カリフォルニア大学サン・ディエゴ校のガリソン・コットレルさんが1990年に発表した顔認識ネットワークでは、最適な重みづけ配置がなされた中間層がわずか一層であったことから、ネットワーク内のどのふたつの細胞についても、それらをつなぐシナプス結合の正確な値を知ることができました(ちなみに、このモデルで最適化する必要のある変数(シナプス結合)の数(パラメータ数)は、32万8320個でした)。しかし現在のAIネットワークは、中間層が多層なうえに、膨大な入力資源をもとに、スーパーコンピュータの能力をつかって、いわば力づくで、自動的に実行されていったものなのです(OpenAI社のGPT-3.5のパラメータ数は1750億個、最新のGPT-4はその500倍の100兆個ともいわれています)。それは、莫大な数のニューロンをつなぐ莫大な数のシナプスの「重みづけ」の複雑な関係を表現したネットワークであり、この「重みづけ」すなわち計算根拠をひとつずつ解明するのは、現時点では、ほぼ不可能に近いことなのです。
 これをAIのブラックボックス問題と呼んでいます。
 完成したニューラル・ネットワークの思考の仕組みはブラックボックス化していて、人間が読み解くのは難しく、したがって修正や評価も困難ということになります。それはたとえばAIを使った車の自動運転のように、人の命を左右するようなシステムの場合、万が一AIの判断ミスで事故が起こってしまっても、その原因を突き止めることが困難になることを示唆しています。このような問題のあるAIシステムの利用は当然懸念材料となります。
 そこで、AIの開発者たちはニューラル・ネットワークの思考を理解する手法の開発に取り組んでいます。昨年の10月にはニューラル・ネットワークをニューロン単位ではなく「features (特徴)」という単位にまとめる手法が発表01されました。ニューラル・ネットワークを特徴ごとに分類することで、たとえば「法律文章に反応する特徴」「DNA列に反応する特徴」といった解釈可能なパターンを見つけ出すことが可能となる、というのです。さらに今年の6月には、OpenAI社が大規模言語モデルの思考を読み取る手法を開発し、GPT-4の思考を1600万個の解釈可能なパターンに分解できたことを発表02しています。しかしながら、それでも同社はGPT-4の動作全体を分析することはできておらず、また、特徴の検出はニューラル・ネットワークを理解する1つのステップに過ぎない、といいます。同社は、さらなる理解のためには多くの作業が必要と述べていて、未解決の課題を解決するべく研究を続ける姿勢を示しています。


Black box systems

01ニューラル・ネットワークの中身を分割してAIの動作を分析・制御 する試みが成功、ニューロン単位ではなく「特徴」単位にまとめるのがポイント/2023-10-10/ GIGAZINE

02OpenAIがGPT-4の思考を1600万個の解釈可能なパターンに分解できたと発表/2024-06-07/GIGAZINE

 

 

 

 

 

コメント ( 0 ) | Trackback ( 0 )

情報が不足した状況で適切に処理する能力

 コットレルさんの顔認識ネットワークは、人間の脳の神経回路の働きを、計算機モデルに変換したニューラル・ネットワーク・モデルで、訓練セットの写真に対して、顔性、性別、誰の顔か、についての正解率が100%になるようにシナプス結合の最適な重みづけ配置01がなされていました。
 こうして調整されたネットワークを「学習(training)」済みネットワークと呼んでいますが、この“学習済み”モデルを使うと、まったく新しい対象や人物、部分的に欠損した「既知の」人の顔なども判断することができたのです。 
 これは入力画像の情報が、第二層の全細胞に分散されたことによって、各細胞には入力層全体に関する重要な情報が(密度の濃淡はあれ)含まれていること。それによって、細胞やシナプスが散在的に失われても、その失われた部分を他の細胞のもつ情報によって補うことが可能となっていること。さらに、ネットワークの訓練中に次第に出現し安定化した第二層の細胞の活性化空間の分割という「カテゴリー」の出現によって、あらたに入力された情報もそのカテゴリー上のどこかに位置づけられ、それによって、顔性や性別の判断が可能になること、などによって、ネットワークは多少の機能低下を起こすだけで、なお非損傷状態に十分近い機能水準を維持するだけではなく、全く新しい情報にもそれなりに対処することができたのです。このプロセスと結果は、「推論(inference)」と呼んでも差し支えないものといえるでしょう。
 コットレルさんのこの顔認識ネットワークは1990年に発表されたものですが、その後、様々なアルゴリズム的課題、問題に対し、数多くの数学的・計算機的改良が施されます。そしてその処理範囲は画像認識から自然言語処理へと拡張され、加えてコンピュータ・テクノロジーの飛躍的進歩と、インターネットの普及による膨大な計算資源の獲得によって、現在の、多層パーセプトロンである深層学習(ディープ・ラーニング)と生成AIという成果に繋がっているのです。しかも、それらは人の神経細胞の情報伝達の仕組みを模したニューラル・ネットワークを基盤としています。AIの大きな特徴である「学習」と「推論」という特性は、基本的には前述してきたような仕組みに基づいている、といっていいでしょう。
 特にこの「推論」という特性は、情報が欠損したり、不足した状態でも正解に近い成果を導き出すことのできるAIの能力として知られています。
 人工知能研究の中島秀之さんは、知能の定義を「情報が不足した状況で適切に処理する能力」02としています。この定義に従えば、「推論」という特性を示す最新のGPT-4oなどは、その人間に対する対応能力の高さからも、十分知能があるといっていいのかもしれません。

01認知哲学-脳科学から心の哲学へ/ポール・M・チャーチランド/信原幸弘・宮島昭二訳/産業図書 1997.09.04


02知能の物語/中島秀之/公立はこだて未来大学出版会 2015-05-31

 

コメント ( 0 ) | Trackback ( 0 )