夢をかなえるキャッシュフロー表

キャッシュフロー表はあなたの人生を変えることが出来ます。あなたの人生をさらに豊かにします。

安全性に投資する余裕がOpenAIにもない

2024-05-19 10:44:38 | FP
OpenAIがその製品の安全性よりも、競争を意識し始めていることは明白なようだ。人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームが事実上解体されたのだ。このチームの共同トップだったヤン・ライケ氏とチーフサイエンティストのイリヤ・サツケバー氏がともに退職したのだ。OpenAIのグレッグ・ブロックマン社長は5月18日、ヤン・ライケ氏が退社報告の中で同社がAIの安全性を軽視していると警鐘を鳴らしたことについて説明する長文ポストを、サム・アルトマンCEOとの共同署名付きでXで公開した。ただ、ブロックマン氏は長文ポストでOpenAIによるAGI対策として、「拡張性のある監視ソリューション」や「密接なフィードバックループ」「厳格なテスト」などという言葉を使っているが、具体的な詳細はない。つまり、世界中の関連企業がAIに参入している今、安全性に投資する余裕がOpenAIにもないということだろう。(くちなし亭、2024.05.19)

Y-FP Office Japan(http://www.y-fp-office-japan.jp)
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする