恐山あれこれ日記

院代(住職代理)が書いてます。

この先を考えるために

2023年06月01日 | 日記
 前々回の記事で、「 chat.gpt」などの所謂生成AIについて愚考しました。するとその後、この件で質問されたり意見を求められることが何度かあり、専門外の者が感想を述べただけなのに、妙な風の吹き回しになってきました。

 そこで、今後に鑑み、先々この件を考えるネタとして、メモのようなものを作っておこうと思います。

 生成AIについて考えるとき、事を二つに分けて考えたらどうでしょう。一つはその能力の評価、もう一つは社会的影響です。

 前者に関して言いうと、たとえば「 chat.gpt」相手に議論していると、時にこんなことを言い出します。

「私はあくまでも自然言語処理のAIであり、自分自身の考えや意志を持っていません。人工知能の技術的限界の範囲内で、正確な情報や適切な回答を提供することを目指しています。ただし、過去のデータから得られる情報に基づいて回答するため、時に正確でない情報を提供してしまうことがあります。ご迷惑をおかけして申し訳ありません。」

 ここからわかることは、

一、AIは「問い」を発見し、「問題」として構成することができない。自分自身に対して自ら「テーマ」を設定できない(少なくとも、今のところ)。
 ということは、最終的に人間に残される能力は、問いを発見することになる可能性がある。

一、AIは、「答える」機能しか持たない(少なくとも、今のところ)。
 ただし、過去の膨大な情報を収集して答えるため、「答える」能力は最早人間の及ぶべき域をはるかに超えているだろう。

一、「答える」能力は、どこまでも「過去のデータから得られる情報」を前提にしているから、AIに与えられた「問題」に関する専門家が「答え」を見ると、大抵は「どこかで見たことのある」「もう知っている」、即ち凡庸な「答え」しか出て来ない。

 だとすると、今後「凡庸な答え」を量産することはAIの独壇場になるでしょう。すなわち、あらゆる分野の多くの事務処理、あらゆる学校の学生が書く「レポート」の大半などは、AIの能力に及ばなくなるのは必定です。

 仮に、大学が学生の実力を知りたいなら、提出されたレポートではなく、レポートをネタに対面の口頭試問をして、書かれたことに匹敵する能力があるかどうか、評価しなければならないでしょう。

 では、社会的影響の方はどうでしょう。これには三つの側面があると思います。一つは「オリジナリティ」の問題=経済的な対価の問題、そして「フェイク」問題、さらに労働・雇用問題です。

 まず「オリジナリティ」の問題。これは要するに、文章なり画像なりの「作品」の作者が誰で、AIを道具として使って創作したなら、どこまでが「作者」の寄与なのかということです。

 この「オリジナリティ」が問題になるのは、「作品」が市場で売買される近代以降のことです。売買されないなら、誰がどう作ろうと何の不都合もありません。「作品」の対価を誰が受け取るのかを確定しない限り、売買する市場が成立しないから、「オリジナリティ」が問題なのです。

 ならば結局、現在の状況と同じです。「作品」の「盗作」問題に対処するように、この問題に対処するしかありません。ある「作品」について、誰がどのように貢献し、どうAIを使ったのか、それを鑑定する技術を開発し、専門の鑑定家を育成するわけです。その場合、「作者」は、「引用先」を明らかにするように、自分の使ったAIが、誰のどのような「過去のデータ」を使ったのか、明示しなければならないでしょう。

 次に「フェイク」問題。画像にしろ音声にしろ文章にしろ、驚くべき精度で「偽情報」を大量生産できる時代に突入しました。

 これは真偽問題をめぐる状況が次元の違う局面に入ったことを意味します。となると、真偽の判断のためには、最終的に情報の発信元を「身体的個人」として特定する方法を確立しなければならず、そのためには、現在のネット環境における匿名性のレベルを、かなりの程度引き下げることが、まず必要でしょう。

 匿名性がネットにおける大きな「強味」であることは理解できますが、局面が変わった以上、この「強味」は根底から再検討すべきでしょう。

 その上で、情報の真偽を判定する公的な独立機関を、分野別に複数設立する必要です。そうでないと、言論の自由が大きく毀損されることになりかねません。

 最後に労働・雇用問題。AIが現在の「ホワイトカラー」の仕事の大半を代替することは、近い将来避けられないでしょう。つまり、「失業者」が大量に出現するわけです。

 そういうと、必ず出て来る話が、「AIができることはAIに任せて、人はもっと『創造的な』仕事をすればよい」というものです。

 こういうことを気楽に言う御仁に私が訊いてみたいのが、「創造的な仕事がそれほど多くの人に可能で、それほど多くの人を必要とするのか」ということです。すなわち、大量に生じる「失業者」を吸収できるほどの「創造的な仕事」があるのか、大いに疑問なのです。

 もし無いなら、結局は「多くの人が働かなくても生きていける社会」を許容し、編成するしかありません(その場合、「働く人」と「働かない人」の関係をどう設定するかは大問題でしょう)。

 これはさらに根源的な問題を提起します。それはそのような「働かない社会」における、「アイデンティティー」の問題です。

 大雑把に言えば、近代以前、「そのヒトが何者であるか」は「身分」が規定したでしょう。それが近代以降は「職業」になりました。現代において「無職」であることが、時に「正体不明」の「危険人物」視を招くのは、そのためです。
 
 では、「働かない社会」で、ヒトは自らの「アイデンティティー」を何に基づいて構成するのでしょうか。「職業」ではなく「遊び」か? 何をしてどう遊ぶかが、人間の在り方を決めるのか? あるいは「アイデンティティー」を放棄して生きるか? それは可能なのか? ひょっとすると、最大の問題はこのことかもしれません。

「最大の問題」の彼方には、根源的な問題があります。

「今のところ」、我々は人間とAIを厳然と区別して考えています。どんなに有能でも、「AIには心がない」、と。

 しかし、AIはいつまでも「心がない」、即ち「自意識がない」ままでしょうか。DNAがコピーエラーを犯し、それが進化の引き金になったように、プログラムのバグの累積が、思わぬ「超プログラム」を生み出すかもしれません。

 そして、その「超プログラム」が、①何かするための道具を作る道具を作り、②何らかの疑問を持ち、③時に嘘を吐き、④損得の取り引きができるなら、それは「自意識」だと考える以外にありません。なぜなら、「自意識」とは、自己についての意識ではなく、自己と他者(対象)との関係に対する意識、関係に関係することだからです。

 以上の4つは、予めプログラムできません。①と②は、その時その場での、対象と主体の関係を認識できない限り、不可能です。③と④はさらに面倒で、他者と自己の意志と欲望を想像し認識できない限り、あり得ません。

「超プログラム」の出現がお伽噺なら、それで構いません。ですが、人間の脳にチップを埋め込み、ネットに直に接続する実験が始まったらしい現在(「フォーブス・ジャパン」5月27日配信)、人類は自らネットに「超プログラム」を流し込もうとしているようにも見えるのです。