熟年の文化徒然雑記帳

徒然なるままに、クラシックや歌舞伎・文楽鑑賞、海外生活と旅、読書、生活随想、経済、経営、政治等々万の随想を書こうと思う。

PS:ジョセフ・ナイ「AI と国家安全保障 AI and National Security」

2024年08月08日 | 政治・経済・社会時事評論
   プロジェクト・シンジケートのジョセフ・ナイ名誉教授の「AI と国家安全保障 AI and National Security」

   テクノロジーは政策や外交よりも速く進むというのは自明の理であり、特に民間部門の激しい市場競争によって推進されている場合はなおさらである。しかし、今日の AI に関連する潜在的なセキュリティ リスクに対処するには、政策立案者がペースを上げる必要がある。というのである。
   
   ナイ名誉教授の論旨を抄訳する。
   人間は道具を作る種であるが、作った道具を制御できるであろうか、と核兵器の制御から問題を提起して、
   現在、多くの科学者は人工知能 を同様に変革的なツールと見なしている。以前の汎用テクノロジーと同様に、AI には善にも悪にも大きな可能性がある。がん研究では、AI は数分間で、人間のチームが数か月かけて行うよりも多くの研究を整理して要約することができる。同様に、人間の研究者が解明するのに何年もかかるタンパク質の折り畳みのパターンを、AI は確実に予測することができる。
   しかし、AI は、害を及ぼそうとする不適合者、テロリスト、その他の悪意のある行為者にとって、コストと参入障壁を下げる。最近の RAND の調査が警告しているように、「天然痘に似た危険なウイルスを復活させる限界費用はわずか 10 万ドルだが、複雑なワクチンの開発には 10 億ドル以上かかる場合がある。」
   さらに、一部の専門家は、高度な AI が人間よりもはるかに賢くなり、人間が AI を制御するのではなく、AI が人間を制御するようになるのではないかと懸念している。このような超知能マシン (人工汎用知能と呼ばれる) の開発にかかる時間の見積もりは、数年から数十年までさまざまであるが、いずれにせよ、今日の狭義の AI によるリスクの増大は、すでにより大きな注意を必要としている。

   アスペン戦略グループ(元政府関係者、学者、実業家、ジャーナリストで構成)は、40年にわたり毎年夏に会合を開き、国家安全保障上の大きな問題に焦点を当ててきた。過去のセッションでは、核兵器、サイバー攻撃、中国の台頭などのテーマを取り上げてきており、今年は、AIが国家安全保障に与える影響に焦点を当て、メリットとリスクを検討した。
   メリットには、膨大な量の諜報データを整理する能力の向上、早期警戒システムの強化、複雑なロジスティクス システムの改善、サイバー セキュリティを向上させるためのコンピュータ コードの検査などがある。しかし、自律型兵器の進歩、プログラミング アルゴリズムの偶発的なエラー、サイバー セキュリティを弱める敵対的 AI など、大きなリスクもある。
   AI は軍拡競争を繰り広げているが、構造的な利点もいくつかある。AI の 3 つの主要なリソースは、モデルをトレーニングするためのデータ、アルゴリズムを開発する優秀なエンジニア、およびそれらを実行するコンピューティング パワーである。中国はデータへのアクセスに関して法律やプライバシーの制限がほとんどなく(ただし、一部のデータセットはイデオロギーによって制限されている)、優秀な若手エンジニアが豊富にいる。中国が米国に最も遅れをとっているのは、AIの計算能力を生み出す先進的なマイクロチップの分野である。
   米国の輸出規制により、中国はこれらの最先端のチップだけでなく、それらを製造する高価なオランダのリソグラフィー装置にもアクセスできない。アスペンの専門家の間では、中国は米国より1、2年遅れているという意見で一致しているが、状況は依然として不安定である。バイデン大統領と習近平主席は昨年秋に会談した際にAIに関する二国間協議を行うことで合意したが、アスペンではAI軍備管理の見通しについて楽観的な見方はほとんどなかった。
   自律型兵器は特に深刻な脅威となっている。国連での10年以上の外交を経ても、各国は自律型致死兵器の禁止に合意できていない。国際人道法では、軍隊は武装した戦闘員と民間人を区別して行動することが義務付けられており、国防総省は以前から、兵器を発射する前に人間が意思決定に参加することを義務付けてきた。しかし、飛来するミサイルを防御するといった状況では、人間が介入する時間はない。

   状況が重要なので、人間は(コード内で)兵器のできることとできないことを厳密に定義する必要がある。言い換えれば、人間は「ループ内」ではなく「ループ上」にいる必要がある。これは単なる推測の問題ではない。ウクライナ戦争では、ロシアがウクライナ軍の信号を妨害し、ウクライナ軍に、いつ発砲するかについての最終的な意思決定を自律的に行うようにデバイスをプログラムするよう強いている。
   AI の最も恐ろしい危険性の 1 つは、生物兵器やテロリズムへの応用である。1972 年に各国が生物兵器の禁止に同意したとき、自国側への「ブローバック」のリスクがあるため、そのようなデバイスは役に立たないというのが一般的な考えであった。しかし、合成生物学では、あるグループを破壊し、別のグループを破壊しない兵器を開発できる可能性がある。あるいは、実験室にアクセスできるテロリストは、1995年に日本でオウム真理教が行ったように、できるだけ多くの人を殺したいだけなのかもしれない。(彼らは伝染しないサリンを使ったが、現代の同等の組織はAIを使って伝染性ウイルスを開発する可能性がある。)
   核技術の場合、各国は1968年に核拡散防止条約に合意し、現在191か国が加盟している。国際原子力機関は、国内のエネルギー計画が平和目的のみに使用されていることを確認するため、定期的に検査を行っている。また、冷戦時代の激しい競争にもかかわらず、核技術の主要国は1978年に、最も機密性の高い施設と技術知識の輸出を控えることに合意した。このような前例は、AIにいくつかの道筋を示唆しているが、2つの技術には明らかな違いがある。

   以上の論点から、ナイ名誉教授は、次のように結論付けている。
   特に民間部門の激しい市場競争によって推進されている場合、技術は政策や外交よりも速く進むというのは自明の理である。今年のアスペン戦略グループの会議で大きな結論が一つあったとすれば、それは政府がスピードを上げる必要があるということである。
   科学テクノロジーの分野、特にAI分野においては、国家安全保障のみならず政治経済社会の秩序安寧の維持のためには、政府公共部門が、はるかに先を走って指針を示してコントロールしなければならないと言うことであろうか。
   このことは、社会が進歩発展すればするほど、人知を超えた領域に突入してコントロールが効かなくなり秩序を破壊するので、高度に知的武装した公権力による制御が必須だということでもあろうか。
コメント    この記事についてブログを書く
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする
« NHK BS:ウィーン国立歌劇場「... | トップ |   
最新の画像もっと見る

コメントを投稿

ブログ作成者から承認されるまでコメントは反映されません。

政治・経済・社会時事評論」カテゴリの最新記事