チャットGPTに象徴される急速な「生成AI」の進歩については、ヨーロッパ中心にその社会に与える混乱のリスクを懸念し、規制の必要を重視する考え方から日本やアメリカの様にその活用によるメリットを重視し更なる進歩を重視する立場まで広がりがあるようです。
群馬県高崎市で開かれていたG7のデジタル・技術相会合では、先月30日「生成ATのリスクを共有して、G7に議論の場を置くことを決め、基本原則やガイドラインを示すことを目指すという閣僚宣言をまとめたとのことです。
オセロでは人間はAIには勝てない、将棋でも碁でも、余程上達しないとAIに勝てないなどと言われるようですが、世のなかのあらゆる問題についてAIが普通の人間より良い答えを出すようになると色々問題が起きてきそうです。
ヨーロッパが一番心配しているのは恐らく人間の仕事の中で、AIに置き換わる部分が大きく、雇用問題に大きな影響が出るという、かつてのラダイト運動、近くはME化と雇用問題という系譜の意識の様に感じられます。
しかし、活用やメリットを重視する日本やアメリカでも、従来のコンピュータではなかった問題が出て来る可能性もあるという意識が、共有されているとの認識も矢張りあるのではないでしょうか。
それは、AIが「人間と区別がつかない様な言葉」で、その持つ「知識(人間がインプットした知識)のすべてを使って」、「与えられた命令に従い」「質問の趣旨に最も適切」と思われる内容を「瞬間的に」作りだすという事になったからです。
「質問の趣旨に最も適切」というのは、プーチンの意向の沿った内容の文章を作る」ことも、「NATOの意向に沿った文章を作る」ことも即座にできるという事でしょう。
勿論、その両者とも全く違った趣旨の意見も、誰かが命令さえすれば、即座に生成されるでしょう。そして、それを見た人間は、それを作ったのは人間かAIか判別できないといった状況、誰が責任者かという問題にきちんと対処する必要があります。
上記の閣僚宣言には「民主主義の価値を損ない、人権の享受を脅かすAIの誤用・乱用に反対する」と盛り込まれたとのことですが、これを如何に実現するかは容易ではないでしょう。
現状の論議は、まず、AIにどこまでの情報をインプットするかという事にあるようですが、今地球上のインターネットには、ありとあらゆる情報が蓄積され(放り込まれ]ています。
例えば、AIが、自分で、インターネット上のあらゆる情報を検索し選択して、あらゆる質問に答えるようになれば、インプット制限は対策にならないでしょう。
それは、今の人間がそれぞれにやっている事ですが、AIが、それを極限までの検索とスピードでこなすことになり、一方、多様な目的を持った人間が、AIに勝手な命令をし、AIが回答や意見を出し、その情報が、更なる情報のデータになると何が起きるのでしょうか。
人間には、自分の知らない事をまことしやかに説明を受けると結構信じてしまうというところが多分にあるようです。
生身の人間は今でも情報の洪水の中で、選択の判断を迷っているのですが、それでも「人間」については表現の自由、言論の自由は認められるべきものでしょう。しかしAIの発言はどうなのでしょうか。だれが責任を持つのでしょうか。
SFの世界の事と思っていた人間とロボットの関係を、G7が本気で議論する時代が来てしまったとすれば、やはりこれは大変なことだと考えざるを得ないのではないでしょうか。
ロボットには考え付かない良い知恵を、G7が出してくれることを願うところです。
群馬県高崎市で開かれていたG7のデジタル・技術相会合では、先月30日「生成ATのリスクを共有して、G7に議論の場を置くことを決め、基本原則やガイドラインを示すことを目指すという閣僚宣言をまとめたとのことです。
オセロでは人間はAIには勝てない、将棋でも碁でも、余程上達しないとAIに勝てないなどと言われるようですが、世のなかのあらゆる問題についてAIが普通の人間より良い答えを出すようになると色々問題が起きてきそうです。
ヨーロッパが一番心配しているのは恐らく人間の仕事の中で、AIに置き換わる部分が大きく、雇用問題に大きな影響が出るという、かつてのラダイト運動、近くはME化と雇用問題という系譜の意識の様に感じられます。
しかし、活用やメリットを重視する日本やアメリカでも、従来のコンピュータではなかった問題が出て来る可能性もあるという意識が、共有されているとの認識も矢張りあるのではないでしょうか。
それは、AIが「人間と区別がつかない様な言葉」で、その持つ「知識(人間がインプットした知識)のすべてを使って」、「与えられた命令に従い」「質問の趣旨に最も適切」と思われる内容を「瞬間的に」作りだすという事になったからです。
「質問の趣旨に最も適切」というのは、プーチンの意向の沿った内容の文章を作る」ことも、「NATOの意向に沿った文章を作る」ことも即座にできるという事でしょう。
勿論、その両者とも全く違った趣旨の意見も、誰かが命令さえすれば、即座に生成されるでしょう。そして、それを見た人間は、それを作ったのは人間かAIか判別できないといった状況、誰が責任者かという問題にきちんと対処する必要があります。
上記の閣僚宣言には「民主主義の価値を損ない、人権の享受を脅かすAIの誤用・乱用に反対する」と盛り込まれたとのことですが、これを如何に実現するかは容易ではないでしょう。
現状の論議は、まず、AIにどこまでの情報をインプットするかという事にあるようですが、今地球上のインターネットには、ありとあらゆる情報が蓄積され(放り込まれ]ています。
例えば、AIが、自分で、インターネット上のあらゆる情報を検索し選択して、あらゆる質問に答えるようになれば、インプット制限は対策にならないでしょう。
それは、今の人間がそれぞれにやっている事ですが、AIが、それを極限までの検索とスピードでこなすことになり、一方、多様な目的を持った人間が、AIに勝手な命令をし、AIが回答や意見を出し、その情報が、更なる情報のデータになると何が起きるのでしょうか。
人間には、自分の知らない事をまことしやかに説明を受けると結構信じてしまうというところが多分にあるようです。
生身の人間は今でも情報の洪水の中で、選択の判断を迷っているのですが、それでも「人間」については表現の自由、言論の自由は認められるべきものでしょう。しかしAIの発言はどうなのでしょうか。だれが責任を持つのでしょうか。
SFの世界の事と思っていた人間とロボットの関係を、G7が本気で議論する時代が来てしまったとすれば、やはりこれは大変なことだと考えざるを得ないのではないでしょうか。
ロボットには考え付かない良い知恵を、G7が出してくれることを願うところです。