きんちゃんのぷらっとドライブ&写真撮影

「しんぶん赤旗」の記事を中心に、政治・経済・労働問題などを個人的に発信。
日本共産党兵庫県委員会で働いています。

AIとルール① アルトマン氏“騒動”

2023-12-23 07:23:04 | 経済・産業・中小企業対策など
AIとルール① アルトマン氏“騒動”

人工知能(AI)の国際的なルール作りが始まりました。これをどうみるか、経済研究者の友寄英隆さんに寄稿してもらいました。
経済研究者友寄英隆さん(寄稿)

2023年の夏から冬へかけて注目すべき四つの動きがありました。一つは米国のAI開発企業の最高経営責任者(CEO)の解任騒動。二つは主要7力国(G7)のAI規制の合意声明。三つは欧州連合(EU)のAI包括規制法案。四つは国連のAI兵器禁止交渉の逆流です。これらは今後のAIをめぐる開発と規制のルール作りの方向を展望するうえで、たいへん重要な動きでした。その意味を考えてみましょう。



オープンAI社のロゴマーク(ロイター)

解任すぐ復帰
チャットGPTを開発した米国のオープンAI社の共同創業者として知られるアルトマン氏の同社CEO解任のニュースは、「青天の霹靂(へきれき)」でした。しかも、その解任発表の4日後に、アルトマン氏がCEOに復帰するというニュースが続き、二度びっくりしました。
アルトマン氏は、1年前にチャットGPTを公開して以来、世界中で生成Aーブームを巻き起こしたオープンAI社のCEOとして世界各国を駆け巡ってきました。日本にも4月に来訪して岸田首相と会談しています。NHKの単独インタビューでは「日本のすぐれたエンジニアや研究者と協力し、日本を主要な市場の一つにしたい」と語りました。
今回のアルトマン氏の解任騒動について日本経済新聞は「オープンAI騒動の真相示せ」という社説(3日付)までかかげました。その中では「開発を加速した同氏と安全性を重視してブレーキを踏むことを求めた一部の理事が対立したとの見方が浮上している」と指摘しています。
オープンAI社の内部抗争の詳細は分かりませんが、最先端のAI技術の開発企業の内部にもAI技術のリスクを懸念する経営者がいることは確かなようです。
世界的に著名な経営学修士(MBA)で知られる米国ハーバード大学の経営大学院のもとで編集される『ハーバード・ビジネス・レビュー(HBR)』をみると、生成AIに関する論文が毎号のように掲載されています。それらの論文をもとにした同誌の日本語版(ダイヤモンド社)は、今年11月号で「AIリスクにどう対処するか」という大型特集を掲載しています。そのなかで、AIの開発技術者が潜在的に陥りがちな三つのリスクを指摘しています。
第一に、「スピード重視という業界の文化があること」。第二に、「技術者が自社製品を取り巻く環境を大局的に見られないこと」。第三に、「安全確保のためのガードレールが必要という常識が後回しになりがちなこと」。

経営者の倫理
AIの技術者が陥りやすいリスクを管理し、開発竸争の暴走にブレーキをかけるのは企業経営者の責任です。先のHBR誌の論文のなかで、リード・ブラックマン(デジタルリスク倫理コンサルタントCEO)は、次のように強調しています。
「ビジネスリーダーは『倫理』を語ることを恐れてはならない」「企業は全社的なデジタル倫理リスクプログラムを策定する必要がある」
しかし、技術者が陥りがちなリスクを避けるには、企業経営者の倫理に頼るだけでは不十分です。AIの開発・利用にともなうリスクを規制する国家的なルールが必要です。
(つづく)(4回連載です)

「しんぶん赤旗」日刊紙 2023年12月19日付掲載


2023年の夏から冬へかけて注目すべき四つの動き。一つは米国のAI開発企業の最高経営責任者(CEO)の解任騒動。二つは主要7力国(G7)のAI規制の合意声明。三つは欧州連合(EU)のAI包括規制法案。四つは国連のAI兵器禁止交渉の逆流。これらは今後のAIをめぐる開発と規制のルール作りの方向を展望するうえで、たいへん重要な動き。
AIの開発技術者が潜在的に陥りがちな三つのリスクを指摘しています。
第一に、「スピード重視という業界の文化があること」。第二に、「技術者が自社製品を取り巻く環境を大局的に見られないこと」。第三に、「安全確保のためのガードレールが必要という常識が後回しになりがちなこと」。

コメント    この記事についてブログを書く
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする
« 締約国会議機に 政治家を決... | トップ | AIとルール② 「風呂敷」作... »
最新の画像もっと見る

コメントを投稿

経済・産業・中小企業対策など」カテゴリの最新記事