生成AI(チャットGPT)万能か?(2)
―思考の深化と責任に関する哲学的課題―
前回も書いたように、「チャットGPT」のような生成AIは、使い方によっては
便利な道具で、特に定型的な文章作成には大きな助けになるかもしれません。
そこでは、すでにインターネット上に登場し蓄積された代表的かつ多数派の文書を
選んで質問の対応しそうな文章を作成することになります。
したがって、生成AIは決して「無」から「有」を生み出してくれるわけではあり
ませんし、本来の意味での「個性」は発揮できません。
それでも、さまざまな試みが行われています。例えば埼玉県白岡市では、生成AI
の有効性を試す実験をNTT東日本の協力の下で行いました。
その結果、「1週間の給食の献立を作って、と頼んだらカロリー表示までされてす
ごいと思ったが、どこまで正しいか専門家に検討してもらう必要がありそうだ」と
いった感想が出されたそうだ。
この場合、一応のたたき台はできたが、はたしてそれがそのまま実際に使えるかど
うかは、専門家にいちいち検討してもらう必要があります(注1)。
また、教育現場で、生成AIを導入すべきか、あるいはもし導入する場合どのよう
に使うかも、まだ検討と実験の段階です(注2)。
私は、現段階では、学校教育に生成AIを通常の教育課程の中に取り入れることに
は賛成ではありません。
それは、AIを通じて得られた文章なり情報の真偽や、AIに常に多数派の見解が
反映されがちなAIが生徒の個性や自分で考えること(思索すること)を抑制して
しまうのではないか、という根本的な問題があるからです。
また、米マイクロソフト社はチャットGPTの技本技術をデジタル庁に提供するこ
とになり、政府は国会での答弁書などの下書きや議事録の作成に活用することを考
えているようです(注3)。
しかし、これも、従来の答弁を形式的な答弁書にしてしまい、その時々の状況に応
じた適切な答弁は減ってしまう可能性があります。議事録に至っては、AIの助け
を借りることは全く筋が違います。
以上は、どちらかと言えば、公的な場面での生成AIの利用に関する問題ですが、
前回触れたように、もっと根本的な問題として哲学の立場から生成AIはどのよう
に評価されているのかを、三人の哲学者の見解を紹介する中で考えてみましょう。
一人目はプラトン研究の第一人者、納富信留東京大学教授(58)で、前回の記事
で紹介したように、チャットGPTを「対話型AI」と日本語に訳したのが間違い
だと言います。
欧米ではたんなる言葉のやり取りは「会話」(conversation カンバセーション)と
言い、「対話」は(dialogue ダイアローグ)と言い、チャットGPTのような生
成AIにたいしてこの言葉は使わないそうです。
彼によれば会話と対話は似て非なるもの。対話とは「完全に対等な者同士が、言葉
と言葉で自分の意見をぶつけ合う。人と人、あるいは心と心、魂と魂で交わすもの」
と定義する。
納富教授は、「国会での党首討論や質疑は形式的で、首相や大臣はカンペを読んで
同じことを繰り返し、対話に見えたことは一度もない」ことを憂慮します。
「民主主義は対話と同じ。辛抱が必要でつらいし、時間もかかる」。しかし、「それ
を諦めたら独裁者が誕生し、自由がない社会になることもあり得る」と警鐘を鳴らす。
また最近のSNSに書かれた記事は相手に対する尊敬や深い思慮が見られず、言葉の
重みが軽んじられていることは深刻だ、とも述べています。
「民主主義を維持していくためには、自立した主権者として意見を持たなくてはいけ
ない。でも、すぐには理想的な姿になれない。日々、人と議論してこそ、自分の考え
や立場が決まる」。そして、彼は、念を押した。対話がないと民主主義は成り立たな
い、そして、真の対話は、AIへの問い掛けからは生まれない、というのが彼の生成AI
への評価です(注4)。
つぎに、関西外国語大学の戸谷洋志准教授(哲学)の生成AI(チャトGPT)に対して一
番疑念していることは、人間の意思や主体性が強く問われていた分野で生成AIが活用さ
れる時、私たちが前提とする社会のあり方そのものが形を変えてしまう可能性が大いに
ある、という点です。
たとえば政治の場は、政治家が自分の責任や意思で発言することが求められます。私た
ちが生きている社会で、最も強く責任が問われる空間といえるでしょう。そういう場で
今年3月、野党議員がチャットGPTを使って首相に質問する一幕がありました。
また今年の5月には東京大学で、チャットGPTを裁判官役とする模擬裁判のイベントが
ありました。
これらはいずれも問題提起を含んだ思考実験としてなされたと思われますが、政治や司
法といった、人間の責任が強く求められている分野でAIの使用が考えられ始めているこ
とは事実です。
戸谷氏は、人間の代わりにAIに意思決定をさせたいという欲望が、少なくともこの国
には強くあるように感じたと言います。
もし、AIが意思決定に関わると、社会はどうなるのかを、戸谷氏は司法を例に問題を
提起しています。
現状のシステムでは、罪を犯した本人が何を理解し、どういう動機で行動したのかが重
要視されています。ところがAIが人間に代わって裁判をすれば、こういう罪を犯した場
合はこういう動機である可能性が高いから、これくらいの量刑にする、といった統計的
な情報によって決定すると思います。
問題は、こうして到達した決定は、無数の1次資料の集積に過ぎないのに、そういった形
で、裁く側も裁かれる側も責任が問われなくなっていく。あたかも害虫が駆除されるかの
ように、人間が裁かれてしまうのです。
それ自体の何が問題かを倫理学的に答えるのは難しいことですが、それでも考えなければ
ならないのは、司法や政治をAIが代替するようになれば、人間を「自由な意思の主体」と
みなせるかということです。つまり、ある種の人間観を変化させてしまうかもしれないの
です。
こうなると、人間は自分で考え、自分の意志で判断し、その代わり自分でその決断に責任
を負うこともなく、誰がどのように責任を取るかが問われなくなります。
ここで、さらに重要なことは、AIが出してくる答えは、すでに蓄積されている多数派の
見解から導き出されてくるので、同じような結論がずっと繰り返し続くことです。
最後に、ドイツの哲学者、マルクス・ガブリエルの見解を見てみましょう。
彼は、AIは人間の頭脳を超えることはできないが、恐ろしいのは、チャットGPTを使っ
たり、インターネットに接続したりする時間が増えることだ、と言います。
限られた世の中の捉え方しかできないデジタルの枠組みに、私たち自身が絡め取られてし
まう危うさを訴えます。
AIは人間を模倣しているが、そのAIから逆に影響を受けることで、「私たち自身の思考が
『モデルのモデル』になろうとしている」と、指摘しています。
ガブリエル氏はこれまでも、SNSがもたらす言論のゆがみや、個人データを利用した巨大
IT企業のビジネスモデルの弊害、国家によるデジタル監視の強化などに苦言を呈してきま
した。
そうした主張の根底には、物質的、数学的な思考のみを正しいとする「科学主義」への強
い懐疑があるからです。
科学への過信が、本来は数学的には解明できない人間性への問いを矮小(わいしょう)化
し、倫理なきテクノロジーの進歩をもたらしたとする考えだ。
ガブリエル氏は「数学的、科学的な説明こそが社会や人間の行動を構造的に解き明かす最
善の方法だという考えは歴史上最悪のものだ」と強調した。
また彼は、デジタルテクノロジーと「社会全体を(組織化、効率化し)数学的にコントロ
ールしようとする官僚主義的な悪」との関連性についても言及しています。
最終的に彼は、「私たちは文書や写真などの情報をデジタル化するだけでなく、社会をデ
ジタル化し始め」、デジタル化された「第二の現実」が、これまで私たちが生きてきた現
実を侵食することにより、「社会の構造が根本的に変わりつつある」ことに強い懸念を示
しました(注7)。
こうした問題も懸念抱えつつ、私たちはすでにSNSやさまざまな検索アプリから必要な
情報を得ることに慣れてしまっていますが、一度立ち止まって考える必要がありそうです。
私個人としては、今のところチャットGPTのような生成AIを利用する考えはありませ
んが、その行く末はしっかりと見つめてゆこうと思います。
(注1)毎日新聞 2023/7/8
https://mainichi.jp/articles/20230708/ddl/k11/010/034000c
(注2)NHK解説委員室(電子版) 2023年07月13日 (木)
https://www.nhk.or.jp/kaisetsu-blog/100/485699.html
(注3)『日経新聞』(デジタル版 2023年2023年7月27日 2:00)
https://www.nikkei.com/article/DGXZQOUA25DE00V20C23A7000000/
(注4)『毎日新聞』(電子版 2023/7/13)
https://mainichi.jp/articles/20230713/dde/012/040/013000c
(注5)『毎日新聞』(電子版 2023/6/4 07:00(最終更新 6/4 08:50)
https://mainichi.jp/articles/20230602/k00/00m/040/342000c?utm_source=article&utm_medium
=email&utm_campaign=mailyu&utm_content=20230604
(注6)『毎日新聞』(電子版 2023/6/4 07:00(最終更新 6/4 08:50)
https://mainichi.jp/articles/20230602/k00/00m/040/342000c?utm_source=article&utm_
medium=email&utm_campaign=mailyu&utm_content=20230604
(注7)『毎日新聞』(電子版 2023/7/10 17:00 最終更新 7/11 11:05)
https://mainichi.jp/articles/20230708/k00/00m/300/052000c
―思考の深化と責任に関する哲学的課題―
前回も書いたように、「チャットGPT」のような生成AIは、使い方によっては
便利な道具で、特に定型的な文章作成には大きな助けになるかもしれません。
そこでは、すでにインターネット上に登場し蓄積された代表的かつ多数派の文書を
選んで質問の対応しそうな文章を作成することになります。
したがって、生成AIは決して「無」から「有」を生み出してくれるわけではあり
ませんし、本来の意味での「個性」は発揮できません。
それでも、さまざまな試みが行われています。例えば埼玉県白岡市では、生成AI
の有効性を試す実験をNTT東日本の協力の下で行いました。
その結果、「1週間の給食の献立を作って、と頼んだらカロリー表示までされてす
ごいと思ったが、どこまで正しいか専門家に検討してもらう必要がありそうだ」と
いった感想が出されたそうだ。
この場合、一応のたたき台はできたが、はたしてそれがそのまま実際に使えるかど
うかは、専門家にいちいち検討してもらう必要があります(注1)。
また、教育現場で、生成AIを導入すべきか、あるいはもし導入する場合どのよう
に使うかも、まだ検討と実験の段階です(注2)。
私は、現段階では、学校教育に生成AIを通常の教育課程の中に取り入れることに
は賛成ではありません。
それは、AIを通じて得られた文章なり情報の真偽や、AIに常に多数派の見解が
反映されがちなAIが生徒の個性や自分で考えること(思索すること)を抑制して
しまうのではないか、という根本的な問題があるからです。
また、米マイクロソフト社はチャットGPTの技本技術をデジタル庁に提供するこ
とになり、政府は国会での答弁書などの下書きや議事録の作成に活用することを考
えているようです(注3)。
しかし、これも、従来の答弁を形式的な答弁書にしてしまい、その時々の状況に応
じた適切な答弁は減ってしまう可能性があります。議事録に至っては、AIの助け
を借りることは全く筋が違います。
以上は、どちらかと言えば、公的な場面での生成AIの利用に関する問題ですが、
前回触れたように、もっと根本的な問題として哲学の立場から生成AIはどのよう
に評価されているのかを、三人の哲学者の見解を紹介する中で考えてみましょう。
一人目はプラトン研究の第一人者、納富信留東京大学教授(58)で、前回の記事
で紹介したように、チャットGPTを「対話型AI」と日本語に訳したのが間違い
だと言います。
欧米ではたんなる言葉のやり取りは「会話」(conversation カンバセーション)と
言い、「対話」は(dialogue ダイアローグ)と言い、チャットGPTのような生
成AIにたいしてこの言葉は使わないそうです。
彼によれば会話と対話は似て非なるもの。対話とは「完全に対等な者同士が、言葉
と言葉で自分の意見をぶつけ合う。人と人、あるいは心と心、魂と魂で交わすもの」
と定義する。
納富教授は、「国会での党首討論や質疑は形式的で、首相や大臣はカンペを読んで
同じことを繰り返し、対話に見えたことは一度もない」ことを憂慮します。
「民主主義は対話と同じ。辛抱が必要でつらいし、時間もかかる」。しかし、「それ
を諦めたら独裁者が誕生し、自由がない社会になることもあり得る」と警鐘を鳴らす。
また最近のSNSに書かれた記事は相手に対する尊敬や深い思慮が見られず、言葉の
重みが軽んじられていることは深刻だ、とも述べています。
「民主主義を維持していくためには、自立した主権者として意見を持たなくてはいけ
ない。でも、すぐには理想的な姿になれない。日々、人と議論してこそ、自分の考え
や立場が決まる」。そして、彼は、念を押した。対話がないと民主主義は成り立たな
い、そして、真の対話は、AIへの問い掛けからは生まれない、というのが彼の生成AI
への評価です(注4)。
つぎに、関西外国語大学の戸谷洋志准教授(哲学)の生成AI(チャトGPT)に対して一
番疑念していることは、人間の意思や主体性が強く問われていた分野で生成AIが活用さ
れる時、私たちが前提とする社会のあり方そのものが形を変えてしまう可能性が大いに
ある、という点です。
たとえば政治の場は、政治家が自分の責任や意思で発言することが求められます。私た
ちが生きている社会で、最も強く責任が問われる空間といえるでしょう。そういう場で
今年3月、野党議員がチャットGPTを使って首相に質問する一幕がありました。
また今年の5月には東京大学で、チャットGPTを裁判官役とする模擬裁判のイベントが
ありました。
これらはいずれも問題提起を含んだ思考実験としてなされたと思われますが、政治や司
法といった、人間の責任が強く求められている分野でAIの使用が考えられ始めているこ
とは事実です。
戸谷氏は、人間の代わりにAIに意思決定をさせたいという欲望が、少なくともこの国
には強くあるように感じたと言います。
もし、AIが意思決定に関わると、社会はどうなるのかを、戸谷氏は司法を例に問題を
提起しています。
現状のシステムでは、罪を犯した本人が何を理解し、どういう動機で行動したのかが重
要視されています。ところがAIが人間に代わって裁判をすれば、こういう罪を犯した場
合はこういう動機である可能性が高いから、これくらいの量刑にする、といった統計的
な情報によって決定すると思います。
問題は、こうして到達した決定は、無数の1次資料の集積に過ぎないのに、そういった形
で、裁く側も裁かれる側も責任が問われなくなっていく。あたかも害虫が駆除されるかの
ように、人間が裁かれてしまうのです。
それ自体の何が問題かを倫理学的に答えるのは難しいことですが、それでも考えなければ
ならないのは、司法や政治をAIが代替するようになれば、人間を「自由な意思の主体」と
みなせるかということです。つまり、ある種の人間観を変化させてしまうかもしれないの
です。
こうなると、人間は自分で考え、自分の意志で判断し、その代わり自分でその決断に責任
を負うこともなく、誰がどのように責任を取るかが問われなくなります。
ここで、さらに重要なことは、AIが出してくる答えは、すでに蓄積されている多数派の
見解から導き出されてくるので、同じような結論がずっと繰り返し続くことです。
最後に、ドイツの哲学者、マルクス・ガブリエルの見解を見てみましょう。
彼は、AIは人間の頭脳を超えることはできないが、恐ろしいのは、チャットGPTを使っ
たり、インターネットに接続したりする時間が増えることだ、と言います。
限られた世の中の捉え方しかできないデジタルの枠組みに、私たち自身が絡め取られてし
まう危うさを訴えます。
AIは人間を模倣しているが、そのAIから逆に影響を受けることで、「私たち自身の思考が
『モデルのモデル』になろうとしている」と、指摘しています。
ガブリエル氏はこれまでも、SNSがもたらす言論のゆがみや、個人データを利用した巨大
IT企業のビジネスモデルの弊害、国家によるデジタル監視の強化などに苦言を呈してきま
した。
そうした主張の根底には、物質的、数学的な思考のみを正しいとする「科学主義」への強
い懐疑があるからです。
科学への過信が、本来は数学的には解明できない人間性への問いを矮小(わいしょう)化
し、倫理なきテクノロジーの進歩をもたらしたとする考えだ。
ガブリエル氏は「数学的、科学的な説明こそが社会や人間の行動を構造的に解き明かす最
善の方法だという考えは歴史上最悪のものだ」と強調した。
また彼は、デジタルテクノロジーと「社会全体を(組織化、効率化し)数学的にコントロ
ールしようとする官僚主義的な悪」との関連性についても言及しています。
最終的に彼は、「私たちは文書や写真などの情報をデジタル化するだけでなく、社会をデ
ジタル化し始め」、デジタル化された「第二の現実」が、これまで私たちが生きてきた現
実を侵食することにより、「社会の構造が根本的に変わりつつある」ことに強い懸念を示
しました(注7)。
こうした問題も懸念抱えつつ、私たちはすでにSNSやさまざまな検索アプリから必要な
情報を得ることに慣れてしまっていますが、一度立ち止まって考える必要がありそうです。
私個人としては、今のところチャットGPTのような生成AIを利用する考えはありませ
んが、その行く末はしっかりと見つめてゆこうと思います。
(注1)毎日新聞 2023/7/8
https://mainichi.jp/articles/20230708/ddl/k11/010/034000c
(注2)NHK解説委員室(電子版) 2023年07月13日 (木)
https://www.nhk.or.jp/kaisetsu-blog/100/485699.html
(注3)『日経新聞』(デジタル版 2023年2023年7月27日 2:00)
https://www.nikkei.com/article/DGXZQOUA25DE00V20C23A7000000/
(注4)『毎日新聞』(電子版 2023/7/13)
https://mainichi.jp/articles/20230713/dde/012/040/013000c
(注5)『毎日新聞』(電子版 2023/6/4 07:00(最終更新 6/4 08:50)
https://mainichi.jp/articles/20230602/k00/00m/040/342000c?utm_source=article&utm_medium
=email&utm_campaign=mailyu&utm_content=20230604
(注6)『毎日新聞』(電子版 2023/6/4 07:00(最終更新 6/4 08:50)
https://mainichi.jp/articles/20230602/k00/00m/040/342000c?utm_source=article&utm_
medium=email&utm_campaign=mailyu&utm_content=20230604
(注7)『毎日新聞』(電子版 2023/7/10 17:00 最終更新 7/11 11:05)
https://mainichi.jp/articles/20230708/k00/00m/300/052000c