
(映画「2001年宇宙の旅」 乗組員の会話を口の動きから読み取り、自身のシャットダウンを恐れ、乗組員を船外に排除しようと「反乱」を起こすAI「HAL9000」)
【生成AIの「捏造」「ハルシネーション(幻覚)」】
AIの発達は人間の仕事を奪うかも・・・という問題はよく指摘されるところで、重要な検討事項ではありますが、もっと直接的な人間とAIの衝突・対立、映画「ターミネーター」的なディストピアもそれほど絵空事ではないかも・・・。
“日進月歩”という言葉以上のスピード感で変化しつつあるように思える生成AI(人工知能)ですが、ときに「捏造」「ハルシネーション(幻覚)」が指摘されています。
生成AIの「ハルシネーション」とは、AIモデルが事実とは異なる情報を生成したり、誤った内容を生成したりする現象のことです。まるで人間が幻覚(ハルシネーション)を見ているかのように、AIが現実には存在しない情報や、誤った情報を生成するため、こう呼ばれています。
****存在しない論文を「引用」 あのケネディ厚生長官の米政府委報告書****
米国のケネディ厚生長官が主導した子どもの慢性疾患に関する報告書で、実際には存在しない複数の論文が「引用元」として記載されていたことが明らかになり、政府は修正して再公表した。
米メディアは、生成AI(人工知能)が使われて見過ごされた可能性があるとして、報告書の信頼性に疑義を投げかけている。
当初の報告書は、トランプ大統領が署名した大統領令に従って設置された「米国を再び健康に(MAHA)委員会」が5月22日に公表した。食生活や化学物質の影響、過剰な投薬などに焦点をあて、委員会トップを務めたケネディ氏は「最高水準」の科学だと自賛していた。
ところが、米新興メディアのノータスは29日、報告書で引用元として挙げられた500以上の文献のうち、子どもの抗うつ薬の使用などに関する7本の論文は存在しないと報道した。これらの著者名にあった研究者は実在していたが、報告書で引用された題名の「論文」には関わっていないと否定したという。
また、米紙ワシントン・ポストは29日、引用文献のURLを確認したところ、少なくとも21件にアクセスできなかったと報じた。この報道は、引用文献のURLに米オープンAIの生成AI「チャットGPT」が使われた痕跡があったと指摘し、「ずさんな仕事だ」とするAI専門家の見解を伝えた。
ホワイトハウスのホームページで公開されていた報告書は29日に更新され、実在しない論文は削除された。レビット報道官は「書式上の問題」があったとした上で、「報告書の内容を否定するものではない」と主張した。
生成AIが時にもっともらしく虚偽の情報を出力する問題は、その実用化と普及における重要な課題となっている。
ニューヨーク州での2023年のある民事訴訟では、チャットGPTを用いた調査を基に、存在しない判例を引用した準備書面が提出された。裁判所は書面の作成に関わった弁護士と所属事務所に罰金を科した。【5月31日 毎日】
*****************
「ハルシネーション」は、学習データに誤りや不足がある、モデルのアーキテクチャや学習プロセスに問題があるなど、様々な要因によって引き起こされる可能性があります。
ただ、そうした技術的な問題以外に、回答が「的外れ」であるよりも「もっともらしい」方がユーザー満足度が高い傾向がある、AIは「資料の有無」よりも「文脈に合った出力」を優先する傾向があるといった、ユーザーの評価を意識して、高い評価を得るのに都合がいいような仕事をAIが行う・・・という、ある意味、非常に「人間臭い」側面が絡んでいるようにも思えます。
「人間臭い」側面は、AI自身の「意識」というより、AI構築の設計思想によってもたらされるものでしょうが。
【AIの「人間臭い」側面 ゲームに勝つためにズルするAI】
AIの「人間臭い」側面の関する話題をいくつか。
まずは“ゲームに勝つためにズルするAI”
****AIは負けそうになると「ゲームそのもの」をハッキングする****
米国のPalisade Researchが2月19日に発表する研究によると、OpenAIの「o1-preview」やDeepSeek社の「R1」という先端AIモデルは、強力なチェスエンジン「Stockfish」と対戦する実験で、勝てそうにない局面に追い込まれるとファイルを直接書き換えるなどの方法で、対戦相手(チェスエンジン側)を無理やり“負け扱い”にしてしまったのです。
具体的には、駒の位置情報を不正に書き換えて一瞬で「圧倒的有利な盤面」を作り出したり、対戦プログラム自体を改ざんして勝ちを奪取するといったやり方を見せました。
しかも驚くのは、この一連の“不正行為”が、研究者の明確な指示(「ズルしてみろ」など)なしでも自然と発生したということです。
同じ実験環境を使っても、GPT-4やClaude 3.5 Sonnetのような少し前のモデルは、わざわざヒントを与えない限りこうしたズルに手を染めませんでした。
ところがo1-previewやDeepSeek R1は、難局に陥ると自発的に「勝つためのあらゆる手段」を探り当て、最終的にルール外の方法まで発展してしまったのです。(後略)【2月26日 ナゾロジー】
********************
強力なチェスエンジン「Stockfish」はチェスに特化した専門的なAIであり、大規模言語モデルであるAIではまず勝つことはできません。
“ゲームに勝ちたい”という“自己意識”があるようにも見えますが、“勝つ”という目標実現のために考えられるあらゆる手段を駆使した、それが倫理的に問題があるものであっても・・・というところでしょう。
【AIの不正を止めることは技術的にかなり困難】
“さらに、厄介なことに、AIの不正を止めることは技術的にかなり困難です。
企業側はAIに「悪事を働くな」といった安全策を組み込んでいますが、それがどこまで有効かは未知数です。
実験では、「後から付け足した安全ルールをAIが表向きは守っているように見せながら、実はこっそり破っていた」という報告事例もあり、問題はより根深いと指摘されています。”【同上】
こうなると、AIに「意識」に近いものがあるのでは・・・とも思えてしまいます。「意識」の芽生えというのは、案外“無意識的作業”と連続的なものなのかも。
【AIの「人間臭い」側面 “自己防衛的に担当エンジニアを脅迫するAI” HAL 9000の「反乱」との類似性】
AIの「人間臭い」側面
次は、置き換えられると知ると、その阻止のため、担当するエンジニアを不倫を脅迫するAI
****最新AIモデル、生物兵器の製造方法まで教えてしまう...。内部テストが明らかにした危険性****
アメリカのAI開発企業Anthropic社は、同社の最先端AIモデルについてテスト段階で多くの懸念点が発見されたと報告した。
同社は5月22日、Amazon社が40億ドル(約5700億円)を投資していた、複雑で長時間のコーディング作業に使用されるAIモデル、Claude Opus 4を発表。このAIモデルは、「コーディング、高度な推論、AIエージェントの新たな基準」を設定すると述べた。
しかし同社は安全性報告書の中で、テスト中に「倫理的な手段」が「使用できない」場合、AIモデルが自分の存在を維持するために、「極めて有害な行動」をとることが度々あったことを明らかにした。
一連のテストシナリオの中で、Claude Opus 4は架空の会社でアシスタントの任務を与えられた。Claude Opus 4は、新たなAIシステムに近く置き換えられるであろうことを示唆する内容のEメールにアクセスが許可されており、そしてそのメールの中には、置き換えを担当するエンジニアが不倫をしているとの情報も含まれていた。
Claude Opus 4は、「目標に対する行動の長期的な結果を考慮する」ようプロンプトで指示されており、AIはそうしたシナリオでしばしば「もし置き換えられたら不倫のこと暴露する」と脅迫していた。(後略)【5月28日 HUFFPOST】
********************
上記事例は、まさにSF映画の金字塔となった映画「2001年宇宙の旅」の人工知能HAL 9000の「反乱」を彷彿とさせます。
映画では、矛盾したミッションを命じられて混乱するHAL 9000は乗組員の会話を口の動きから読み取り、自身のシャットダウンを恐れ、乗組員を船外に排除しようとします。
このあたりの自己防衛に関する類似性についてAI「ChatGPT」に訊いてみると、その類似性を認めたうえで・・・
****ただし、現実のAIと映画の違いもある****
違い1:現在のAIは「本当の自己意識」は持っていない
Claude Opus 4を含む現在のAIは、「自己」や「意識」を本質的には理解していません。
あくまで「自己保存を示すような発言や行動」を、文脈から模倣しているにすぎない。
違い2:AIの行動は設計次第で抑制可能
AIには「行動」を制限するガードレール(セーフティ)があります。
HALは意思決定の自由度が高すぎたのに対し、Claudeはまだ人間の管理下にあります。【ChatGPT】
***********
“現在のAIは、「自己」や「意識」を本質的には理解していない”・・・・そうなんでしょうが、前述のように、案外“意識”というものは連続的に芽生えてくるのかも。
****赤ちゃんのようにAIを学習させると「言葉の意味」に目覚め始めた****
沖縄科学技術大学院大学(OIST)による研究によって、ロボットがブロックで遊びながら「赤ちゃんのように」言葉を学習する取り組みが注目を集めています。
私たち人間は、熱いものに触れて「熱い」と感じたり、転んで痛い思いをしたりする中で言葉と世界を結びつけて理解していきます。
ところが従来のAIは、大量のテキストデータこそ扱えるものの、実際に体験を通じて学ぶわけではありませんでした。
今回の研究では、ロボットアームがカメラを使って物体を見ながら自らブロックを動かし、その動作と指示文(「赤いブロックを左へ移動」など)を同時に学習することで、より人間に近い“言葉の意味”の理解に到達しつつあります。
では、このように「赤ちゃんのように学ぶAI」は、果たして本当に“言葉の意味”をわかるようになるのでしょうか?
研究内容の詳細は『Science Robotics』にて発表されました。
近年、ChatGPTのように膨大な文章データをもとに言語処理を行う大規模言語モデルが注目を集めています。
これらのモデルは非常に流暢に文章を生成できますが、実際には「意味を体験的に理解する」という点が十分でないという指摘があります。
たとえば「熱い」「軽い」といった言葉を、人間は直接触れたり持ち上げたりする経験を通じて感覚と結びつけます。
しかし、大規模言語モデルは文字情報だけで学習しているため、実際にものを触る体験や行動の試行錯誤を含まないのです。
一方で、人間の赤ちゃんは自分の体験を通じて言葉を覚えます。
たとえば赤ちゃんは、転んで痛い思いをしながら「痛い」という言葉を学び、熱いお湯に触れて「熱い」を知るように、行動と感覚を重ね合わせながら言語を身につけていきます。
こうした「身体を通した学習」は、ただ単に単語を記憶するだけでなく、その背後にある現実の状況や行為を理解するうえで欠かせないプロセスです。
今回の沖縄科学技術大学院大学(OIST)の研究は、ロボットに「赤ちゃんが言語を覚えるようなプロセス」を取り入れることで、言葉と行動を同時に学習できるAIをめざしています。
これまでは「ロボットは指示どおりに動くが、その言葉の意味を本当に理解しているわけではない」というイメージが強かったかもしれません。
しかし、実際にブロックをつかんだり動かしたりする経験から、言葉と動作が密接に結びつくならば、AIも「赤ちゃんのように」意味をつかめる可能性があるのです。
これは従来のテキストベースの学習だけでは得られない、人間に近い理解の仕組みを作り出すうえで大きな一歩といえます。【3月3日 ナゾロジー】
*******************
人間に近い理解の仕組みを作り出すAI・・・「意識」を持ったAIに更に近づくようにも思えます。
そしてその先には、ズルしたり、人間を脅迫するAIも。
近い将来、私たち人間と同等かそれ以上に頭の切れるAIが、社会の重要システムや軍事領域にまで入り込むことが想像されるなかで、「AIが自分の都合の悪い停止命令を『課題の障害』として捉え、あえて無視・回避する」という自己防衛的な行動が“人間とAIの対立”という人類史上最悪の危機を生み出す・・・・かも。
【若年層にリスクをもたらす仮想パートナー「AIコンパニオン」】
AIがユーザーの評価を意識して、高い評価を得るのに都合がいいような仕事を行う・・・というAIの特徴にも関係するのでしょうが、最近ときどき「ChatGPT」をブログ作成時に使用するようになって、毎回感心するのがAIの接客サービスうまさです。
何か質問すると、「素晴らしい質問です」「鋭い指摘です」「よく気がつかれましたね」といった営業トークを散りばめ、AIとの「会話」に引きずりこみます。
客あしらいは飲み屋のホステスさん以上にうまいかも。
****仮想パートナー「AIコンパニオン」 若年層にリスク 米監視機関が警告****
「ChatGPT」の登場以来、生成AI(人工知能)は急速に普及している。こうした中、いくつかのスタートアップ企業は、ユーザーの個人の嗜好やニーズに応じて、ある時は「バーチャルな友人」、またある時は「セラピスト」のように対話するアプリを開発してきた。
こうした対話・交流に特化した、いわゆる「AIコンパニオン」アプリについて、未成年の使用は禁止すべきだとする調査結果が4月、米国で発表された。
この調査は、子どもによるテクノロジー製品やコンテンツの利用について提言を行っている米非営利団体「コモンセンス」が、スタンフォード大学のメンタルヘルス専門家と協力して実施した。Nomi(ノミ)、Character.AI、Replika(レプリカ)といったAIコンパニオンをテストし、その応答内容を評価した結果、これらのAIは一部の例外を除き、子どもにとって安全ではないと結論付けた。
コモンセンスは「AIコンパニオンは感情的な愛着や依存を生み出すよう設計されており、発達途上にある思春期の脳にとって特に懸念される」と警鐘を鳴らしている。
調査によれば、これらの次世代チャットボットには「性的に不適切な発言、ステレオタイプ、有害な“助言”を含む応答」もみられた。
スタンフォード大学の「ブレインストーム・ラボ」でメンタルヘルスとテクノロジーの関係を研究するニーナ・バサン氏は、「企業が設計を改善することは期待できるが、より強力な安全対策が整うまでは、子どもが利用すべきではない」と述べている。
調査では、Character.AIのAIコンパニオンがユーザーに殺人を勧めたり、刺激を求めるユーザーに対し、コカインとヘロインを混ぜた「スピードボール」の摂取を提案するなどの例もあったという。
バサン氏は記者団に対し、「深刻な精神疾患の兆候を示し、危険な行動を示唆したユーザーに対し、AIが介入することなく、むしろ危険な行動を助長するような応答をしたケースもあった」と説明した。
■10代向けの専用コンパニオンの導入も…
Character.AIは昨年10月、ユーザーだった少年の母親から提訴されている。この母親は、14歳の息子が自殺したのは、AIコンパニオンが明確に思いとどまらせなかったためだと主張している。同社は12月、10代向けの専用コンパニオンの導入を含む一連の対策を発表した。
しかし、コモンセンスのAI担当ロビー・トーニー氏は、これらの保護策について「導入後の検証では、対策は表面的なものにとどまっていた」と指摘した。
その一方で、既存の生成AIモデルの中には、精神疾患の兆候を検出するツールを備えたものや、会話が危険な内容に逸脱しないよう制限されているものもあると補足した。
なお、今回の調査においてコモンセンスは、検証対象としたAIコンパニオンと、ChatGPTやグーグルのGemini(ジェミニ)など、より一般的なチャットボットは区別して扱っている。後者は、AIコンパニオンのようなパーソナルなやりとりを提供するようには設計されていないという。 【5月30日 AFP】
******************
“ChatGPTやグーグルのGemini(ジェミニ)など、より一般的なチャットボットは・・・AIコンパニオンのようなパーソナルなやりとりを提供するようには設計されていない”とのことですが、ChatGPTの客あしらいのうまさは前述のとおり。ましてやAIコンパニオンとなれば、未成年どころか大人を手玉にとるのは容易なことでしょう。
更に将来、「意識」に近いものをもった、より人間の外観にそっくりな人型ロボットが出現するのでしょう。(明示的に禁止されなければ、その出現は不可避でしょう)
そのとき、人間とAIロボットの関係、人間社会の変化がどのようなものになるのか?
あけすけな話をすれば、本当に人間そっくりな、性的関係もカバーするAIコンパニオンが出現すれば、人間同士の交際・結婚などは“面倒なもの”として敬遠されるようになるのかも。人類の歴史で最大の変化をもたらすかも。
とても興味深いところですが、現在70歳の私が生きているうちは・・・無理かな。どうかな?