デンマンのブログ

デンマンが徒然につづったブログ

AIは危険か?

2023-08-25 01:30:02 | 戦争反対 世界平和

 

AIは危険か?

 


(megan13.jpg)


(sylvie500.jpg)




ケイトー。。。 どういうわけで AI(人工知能)は危険か? と思うのォ~?


(kato3.gif)

実は、バンクーバー市立図書館でDVDを借りて次の映画を観たのですよ。。。

 


(lib23-07-17.jpg)


『拡大する』

『実際のページ』


 



 



M3GAN ミーガン

 


(megan12.jpg)

 

『M3GAN/ミーガン』(原題:M3GAN)は、2023年公開のアメリカ合衆国のSFホラー映画
AI人形が引き起こす惨劇を描く。

ジェイソン・ブラム、ジェームズ・ワン製作。
2人は『インシディアス』シリーズ以来のタッグとなる。

当初、日本での劇場公開日は2023年1月27日の予定であったが、同年6月9日に変更となった。

 

あらすじ

玩具メーカーで研究者として働くジェマは、子どもにとっては最高の友達、親にとっては最大の協力者となるようプログラムされた「M3GAN(ミーガン)」という人間のようなAI人形の開発に携わっている。

ある日、ジェマは交通事故で両親を亡くした姪のケイディを引き取ることになり、テストも兼ねて「M3GAN」に対し「あらゆる出来事からケイディを守るように」と指示するが、隣人の飼い犬にケイディが襲われたことで「M3GAN」はやがて暴走を始める

 


(megan15.jpg)




出典:「M3GAN ミーガン」
フリー百科事典『ウィキペディア(Wikipedia)』


 



「ミーガン」というAI人形は、ジェマが開発したのだけれど、両親を交通事故で亡くした姪のケイディを「あらゆる出来事からケイディを守るように」と叔母のジェマが指令を出したのです。。。

 


(megan11.jpg)

 



つまり、ミーガンはケイディを守るベビーシッター兼ガードウーマンねぇ~。。。。



そういうことですよ。。。ところが、隣人の飼い犬がケイディに襲いかかることがきっかけでミーガンはやがて怖い事件を起こすのです。。。

それでSFホラー映画というわけねぇ~。。。

そうです。。。このミーガンは、AIを埋め込んだロボットですよ。。。つまり、AI(人工知能)が暴走して恐ろしい事件を引き起こすのです。。。

AIを組み込んだロボットが悪意を持って人間に襲いかかるようなことが起きるのかしら?

この映画を観ると、その事を考えさせられるのですよ。。。例えば、盲導犬であれば、訓練士が犬を盲人を守るように充分に訓練するのですよ。。。

 


(trainer3.jpg)



 



もちろん、盲導犬に適した従順で人間の言うことをよく聞くラブラドール・リトリーバーという犬種が選ばれる。。。しかも、その中でも特に従順でおとなしい犬が選ばれて盲導犬として訓練される。。。そういうわけで、犬が悪意を持って主人である盲人に襲いかかるというようなことは、これまでに起こったことがない。。。



犬には、もともと人間に襲いかかるという遺伝子が無いわけねぇ~。。。でも、時には、ピットブルが人間に噛み付いて子供に大怪我させたというニュースが報道されることがあるわ。。。

ピットブルというのは、もともと喧嘩するように、戦うように、ブリーダーが作り出した犬種ですよ。。。だから、普通の犬とは違います。。。盲導犬には、そういう犬は成れないのですよ。。。そもそも、犬には人間ほどの知恵も知能もないから、人間に対して恐れを持つことはあるだろうけれど、人間を殺そうと考える能力はないです。

でも、狼ならば人間を殺そうとするじゃない。。。

だから、人間を殺そうとする能力を失った狼が、すなわち犬ですよ。。。

つまり、AI(人工知能)は自分で考えて人間を殺そうとする能力もあるということなのォ~?

ウィキペディアには人口知能の危険性について次のような説明が書いてあります。。。

 



人類存亡のリスク

 


(aisoldier2.jpg)

 

AIは人類が制御不能なほどに自らの性能を向上させる可能性があるとされる

著名なコンピューター科学者であるスチュアート・ラッセルとピーター・ノーヴィグによる大学レベルの標準的な教科書である『エージェントアプローチ人工知能』では、AIの危険性について、以下のように評価している。

AIの成功は人類の終わりを意味するかもしれない。
ほとんどどんな技術でも、使い方を誤れば害になる可能性がある。

しかしAIとロボティクスについては、技術自体が間違いを含んでいるかもしれないという新しい問題がある

物理学者のスティーブン・ホーキングも「人類の終わりを告げる」可能性を指摘した。
哲学者のニック・ボストロムは、十分に知的なAIが、ある目標の達成に基づいて行動を選択する場合、資源の獲得や停止されることから自身を守るなどの収束的行動を示すと論じている。

このAIの目標が人類の目標を完全に反映していない場合、より多くの資源を獲得したり、停止されるのを防いだりするために、最終的には人類に危害を加える可能性を指摘し、AIがどんなに謙虚で「友好的」な目標を掲げていたとしても、AIは人類にリスクをもたらすと結論付けている。

政治学者のチャールズ・T・ルービンは、「十分に高度な博愛主義は悪意と見分けがつかないかもしれない」とし、機械やロボットが人類の道徳システムを共有すると信じるアプリオリな理由がないため、機械やロボットが人類を好意的に扱うと仮定すべきではないと論じた。

AI関連の専門家や業界関係者の意見は千差万別で、かなりの割合が最終的に人間主体の管理が困難な性質を持つ高度に発展したAIの危険性を懸念する一方で、具体的な言及を控えて経済合理性などの商業的な観点から楽観的な立場を取る者も少なくない。

スティーブン・ホーキング、マイクロソフト創業者のビル・ゲイツ、歴史学者のユヴァル・ノア・ハラリ、スペースX創業者のイーロン・マスクらは、いずれも将来の高度に発展したAIの取り扱いについて深刻な懸念を表明している。

スティーブン・ホーキング「人工知能の発明は、人類史上最大の出来事だった。
だが同時に『最後』の出来事になってしまう可能性もある」

ビル・ゲイツ「これは確かに不安を招く問題だ。よく制御できれば、ロボットは人間に幸福をもたらせる。しかし、数年後、ロボットの知能は充分に発展すれば、必ず人間の心配事になる

イーロン・マスク「人工知能についてはかなり慎重にならないといけないと思います。おそらく人類の一番大きな脅威となりうるものですね。ですので、本当に慎重さが求められます。規制や監視が国レベル、あるいは国際レベルで必要だと思いますね。私たちが何か分別に欠けるようなことをしないためにね。人工知能は悪魔を呼び出すようなものですから」

この他にも、イーロン・マスクはAIについての深刻な懸念を繰り返し表明しており、「悪魔のような独裁者は、少なくともいつかは死ぬ。だが、AIに死が訪れることはない。永遠に生きる。つまり、絶対に逃れることのできない不死身の独裁者が現れるようなものだ」として、永遠に破壊されることのない危険なAIを作り出す危険性を警告したほか、「AIが核兵器よりも危険なものとなる可能性がある」と表明している。

また、AI開発を巡る国家間の競争を「第三次世界大戦の原因」になりうると指摘、AIは文明が直面する最大のリスクであると述べている。

ピーター・ティールとマスクを含む著名なハイテク企業は、OpenAIやFLIなどの責任あるAI開発を支持する非営利企業に10億ドル以上を出資している。

一方で、Facebookのマーク・ザッカーバーグは、人工知能は現在の形で役に立っており、今後も人類の助けになり続けると述べている。

リスクは研究する価値がないほど遠い将来である、あるいは超高知能AIから人類は便益を受けることになると主張する専門家もいる。
特にロドニー・ブルックスは「悪意ある」AIはまだ数世紀先だと述べている。

AI開発の権威であるヤン・ルカンは、AIが人類にとって深刻な脅威となる懸念に否定的な見解を示している。

人工知能学会の松尾豊は、著書『人工知能は人間を超えるか』内に於いて、人間に対して反乱を起こす可能性を否定している。
人工知能学会会長の野田五十樹は、「シンギュラリティ(技術的特異点)」や「2045年にAIが人間の知能を超える」という予測に対して「SFめいた話だ」と批判し、「そもそも“知能”が何を示すのか、定義をせずに語っても意味が無い。仮に知能が計算力を指しているのであれば、80年代からとっくに人間の能力を超えていることになる」と述べている。

2012年以前、社会学者ロバート・M・ゲラチは、AIとロボット工学(ロボティクス)を専攻しているカーネギーメロン大学の研究所を現地調査した結果、実際の研究はシンギュラリティ論とかけ離れた「世俗的現実」("the mundane reality")であると結論した。

同氏はカーツワイルやハンス・モラベックらのシンギュラリティ論を「終末論的AI」("Apocalyptic AI")と呼び、そのような論自体に対しては支持も反論もしないと前提した。
その上で、「終末論的AI」を大衆主義的な性質の強い通俗科学(pop science)の一種と見なしている。

つまりそれは宗教・エンターテインメント・フィクション等と同じような、分かりやすくて興味を刺激する説明を使い、大勢の興味を引いて研究費を獲得しているとし、「終末論的AIは、実際のところ、金銭の要求である。("Apocalyptic AI is, indeed, a request for money.")」と述べている。

2023年3月29日、OpenAI、マイクロソフト、Alphabetなどが対話型の人工知能を相次いでリリースしていることを受け、非営利団体のフューチャー・オブ・ライフ・インスティチュートはChatGPTが開発したGPT-4を超える性能の大規模言語モデルを応用した人工知能技術はAI倫理の専門家が安全性に関する規範を策定するまで開発を停止すべきという公開書簡を発表した。

書簡にはイーロン・マスク、DeepMindの研究者、Stable Diffusionを開発するStability AIとCEOのエマード・モスターク、ヨシュア・ベンジオ、スティーブ・ウォズニアックなど業界関係者ら1000人以上が署名している。
なおOpenAI、マイクロソフト、Alphabetの幹部は署名していない。

Future of Life Instituteの書簡については、サイエンス・フィクション的であり、むしろ現時点での人工知能のデメリットに注目すべきであるという批判がなされている。

プリンストン大学の研究者であるアーヴィンド・ナラヤナンとサヤシュ・カプールは、人工知能の現実的なリスクとして、不正確なツールへの依存による誤情報、中央集権的な権力と労働搾取による雇用への悪影響、セキュリティ上のリスクといった3点を重視すべきであると指摘し、元Googleの研究者であるティムニット・ゲブルはAIの現実的な害を軽減するために、透明性を強制する法規制の必要性を指摘した。

2023年5月、人工知能研究の第一人者として知られるジェフリー・ヒントンは、想定より遥かに速くAIが進歩する危険性について自由に話すためとして、Googleを退社したことを公表した。

ヒントンは、AIが偽の画像や文章を作成する能力を持ち「何が真実なのか分からなくなる」世界を作り出すことを懸念しており、「悪用をどのように防げばいいのか見当がつかない」と述べた。

ヒントンはGoogleは「責任を持って行動した」としており、Googleを批判する意図はないとしている。
ヒントンの退社を受け、オックスフォード大学AI倫理研究所のカリッサ・ベリズは、「今こそAIを規制する時期だ」と述べた。




出典:「人工知能」
フリー百科事典『ウィキペディア(Wikipedia)』


 



僕が一番恐れているのは、AIを組み込んだロボットを軍事兵器として研究していることですよ。。。



あらっ。。。そんな軍事兵器をアメリカが作っているのォ~?

当然でしょう! 今やドローンを飛ばして、アメリカのペンタゴンにいるオペレーターが操作してウクライナで攻撃しているロシアの戦車に爆弾を落とすことも可能です。。。実際、アフガニスタンやイラクでは、そうやって軍事目標に爆弾を落として戦った実績がある。。。

 


(drone101.jpg)



 



次は、当然AIを埋め込んだロボットを兵隊代わりに作る段階に来ている。。。



あらっ。。。ケイトーは見てきたような事を言うじゃない?

そういう情報は、とっくに漏れてますよ。。。もし、そういうAI兵隊が作られたとすれば、AIロボット兵隊が人間に向ってくるのも時間の問題です。。。

 


(aisoldier2.jpg)



 



じゃあ、どうすればいいのよ。。。



だから、今こそAIを規制する時期なのですよ。。。でも、アメリカは間違いなく反対します。。。

あらっ。。。そうなのォ~?

とにかく、ケネディ大統領を暗殺した人間はアメリカ政府の黒幕の息のかかった人物ですからねぇ~。。。

あらっ。。。オズワルドが独断でケネディ大統領を暗殺したことになっているけれど、オズワルドは政府に雇われたわけなのォ~?

違いますよ。。。オズワルドは世間の目をくらませるために、わざと犯人に仕立て上げられてしまったのです。。。真相は、アメリカ政府の黒幕が雇った二人の暗殺のプロが大統領を射殺したのです。。。AIロボット兵隊も、政府の中の政府、ペンタゴンが開発しているのですよ。。。だから、もし人類が滅亡するとしたら、その責任はペンタゴンにあるのです。。。

ちょっと飛躍のしすぎじゃないのォ~?

いや。。。10年もしないうちにアメリカがAIロボット兵隊で戦争しますよ。。。そのAIロボット兵隊が人間意向ってくることも十分に考えられます。。。

もしかすると、AIロボット兵隊がペンタゴンの将軍や研究者、黒幕たちに反逆して、血祭りにあげることもあり得るということねぇ~。。。

そういうことですよ。。。




初出: 2023年7月20日



(laugh16.gif)


【ジューンの独り言】


(bare02b.gif)

ですってぇ~。。。

10年もしないうちに マジでアメリカがAIロボット兵隊を生みだすのでしょうか?

ええっ。。。 「そんなことは、どうでもいいから、他に、もっと楽しいことを話せ!」

あなたは、そのように強い口調で私にご命令なさるのですかァ~?

分かりましたわ。

シルヴィーさんが出てくる面白い記事は たくさんあります。。。

次の記事の中から面白そうなものを選んで読んでください。

 


(sylvie500.jpg)



『空飛ぶスパイ』

『愛情はふる星@ベトナム』

『ヒラリーと塩野七生』

『ケネディ夫人@インドネシア』

『究極の大前研一批判本』

『フェルメールの謎』

『女に文句を言う女』

『あなたの祖国』

『宮沢りえ@韓国』

『正しい戦争』

『ゴールデンシャワー』

『死刑廃止』


(mh370a.jpg)

『かまびすしい』

『今、新たな戦前』

『クレオパトラ@アラビア』

『政府は嘘をつく』

『犬と人間と戦争』

『未来予測』

『知られざる悲劇』

『量子活動家』

『アンネの運命』

『10次元の世界』

『ポーランドの犬』


(jump009.jpg)

『熟女ヌード@デンマン』

『ロッキード事件の真相』

『政府と役人と嘘』

『ジュンガル』

『地球温暖化は避けられない』

『国際平和連合』

フェ』


(cleopara2.jpg)

『ネットの主要言語』

『中国人がアメリカを発見した』

『2000年前の光通信』

『習近平皇帝』

『習近平@フランス』

『チャールズとダイアナ』

『マグダラのマリアの真実』


(superm3.jpg)

『ソロモンとキリスト』



とにかく、今日も一日楽しく愉快に

ネットサーフィンしましょう。

じゃあね。 バーィ。


(hand.gif)



(surfin2.gif)

ィ~ハァ~♪~!

メチャ面白い、

ためになる関連記事



平成の紫式部、橘卑弥子でござ~ます
(himiko92.jpg)

■ めれんげさんの『即興の詩』

■ めれんげさんの『極私的詩集』

Jagel - Soft Japanese Bagel
(bagel702.jpg)

■ "JAGEL - Soft Japanese Bagel"


(linger65.gif)

『センスあるランジェリー』

■ 『ちょっと変わった 新しい古代日本史』

■ 『面白くて楽しいレンゲ物語』


(beach02.jpg)

■ 『軽井沢タリアセン夫人 - 小百合物語』

■ 『今すぐに役立つホットな情報』



(rengfire.jpg)


(byebye.gif)



コメント    この記事についてブログを書く
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする
« Meet Beaver | トップ | グーグルレンズ2 »

コメントを投稿

戦争反対 世界平和」カテゴリの最新記事