公開メモ DXM 1977 ヒストリエ

切り取りダイジェストは再掲。新記事はたまに再開。裏表紙書きは過去記事の余白リサイクル。

そのかわり 人工知能の脅威を警告しよう

2022-04-06 21:35:00 | ビックテック

人工知能3行要約 イーロンマスクは、

AIは規制に対して反応的ではなく、積極的である必要がある稀なケースだとイーロン。AIに関するあらゆるものを監督し、公共の安全のリスクをもたらさないことを確認する必要がある。AIは、人類文明の存続に関わる根本的なリスクだという。

40%要約

まず、人工知能についてですが、私は最先端のAIに触れてきましたので、人々は本当に心配すべきだと思います。 私は警鐘を鳴らし続けていますが、人々がロボットが通りを行き交い、人を殺すのを見るまでは、どう反応していいかわからないでしょう。 私たちはAIについて本当に心配しなければならないと思います。 デジタル超知能の到来を特異点と呼びますが、それが良いとか悪いとかいうことではなく、その時点以降に何が起こるかを予測するのは非常に困難で、ある確率で悪くなり、ある確率でおそらく良くなり、明らかにその確率に影響を与えて、悪いよりも良い方向に持っていきたい、ということです。 AIは、規制に対して反応的ではなく、積極的である必要がある稀なケースだと思います。 国民の反発や入札があり、何年も経ってから、その業界を規制するために設立された規制機関が、規制当局に指図されることを好まない企業から多くの反対を受けることになるのです。 私が本当にあり得ると思うのは、デジタル・インテリジェンスがあらゆる面で私たちのことを考えるようになり、私たちが意識と考えるものをシミュレートできるようになることです。 AIは、交通事故や飛行機事故、欠陥薬やまずい食べ物が、社会内の個人の代わりに、もちろん社会全体に害を与えるものではなかったように、人類文明の存続に関わる根本的なリスクなのです。 私は、AIに関連するあらゆるものを監督し、それが公共の安全のリスクをもたらさないことを確認する企業機関を設けるべきだと考えています。 ですから、界面には弾力性があり、それは起こりうることだと私たちは考えています。


まず、人工知能についてですが、私は最先端のAIに触れてきましたので、人々は本当に心配すべきだと思います。私は警鐘を鳴らし続けていますが、人々がロボットが通りを行き交い、人を殺すのを見るまでは、どう反応していいかわからないでしょう。私たちはAIについて本当に心配しなければならないと思います。AIコミュニティーの人々は、このように言っています。デジタル超知能の到来を特異点と呼びますが、それが良いとか悪いとかいうことではなく、その時点以降に何が起こるかを予測するのは非常に困難で、ある確率で悪くなり、ある確率でおそらく良くなり、明らかにその確率に影響を与えて、悪いよりも良い方向に持っていきたい、ということです。AIは、規制に対して反応的ではなく、積極的である必要がある稀なケースだと思います。なぜなら、AIや規制に対して反応的になったときには、もう手遅れだと思うからです。そして、通常、規制が設定される方法は、悪いことが一杯起こるということではありません。国民の反発や入札があり、何年も経ってから、その業界を規制するために設立された規制機関が、規制当局に指図されることを好まない企業から多くの反対を受けることになるのです。過去に悪いことがあっても、文明の存続に関わるような根本的なリスクにはならないのに、いつまで経ってもならない。私が本当にあり得ると思うのは、デジタル・インテリジェンスがあらゆる面で私たちのことを考えるようになり、私たちが意識と考えるものをシミュレートできるようになることです。だから、あなたがその違いを見分けることができなくなることです。AIは、交通事故や飛行機事故、欠陥薬やまずい食べ物が、社会内の個人の代わりに、もちろん社会全体に害を与えるものではなかったように、人類文明の存続に関わる根本的なリスクなのです。AIは人類の文明にとって根本的な存亡の危機なのです。そのことを、人々は十分に理解していないように思います。AIには多くの投資が行われていますが、その一方で、AIの安全性については投資が不足しています。私は、AIに関連するあらゆるものを監督し、それが公共の安全のリスクをもたらさないことを確認する企業機関を設けるべきだと考えています。規制されるのは楽しいことではありません。規制されるのは楽しくないし、すごいことなんです。しかし、自動車ビジネスでは、EPAやコントローラーによって、公共交通機関の規制を受けますよね。この宇宙には、あらゆる国に規制当局があります。一般的にFAの規制を受けるのは、公衆に危険が及ぶ可能性があるときに、物事の安全性を確保するために公益に資するコンプライアンスに則った審判やレフェリーが重要であるという結論に達するからです。私は、AIは紛れもなく一般大衆にとって危険な可能性を持つものであり、したがって、一般大衆にとって危険な他のものに規制機関があるのと同様に、規制機関を持つべきだと主張します。もし人類があなたの科学、デジタルスーパー知能を作ることが正しい動きであるとまとめて言うならば、我々は非常に、非常に慎重にそうすべきなのです。これは、私たちができる最も重要なことなのです。私は、AIの危険性は核弾頭の危険性よりもはるかに大きいと思っています。そして、誰もが望むなら、ただ核弾頭を製造することを許可しろとは言いません。それは正気の沙汰ではないでしょう。そしてMark my words、AIは核兵器よりはるかに危険です。私は、機械は生物学的側面よりもはるかに柔軟性があると思いますが、その差は非常に大きいです。だから、脳に適応するのは機械になる。脳が機械に適応することはありえません。ニューロンはパルスを好むので、電極を別のニューロンとして記録し始めることはできません。ですから、界面には弾力性があり、それは起こりうることだと私たちは考えています。可鍛性の大部分は、機械が担っているはずです。そのため、多くの仕事が中断されることは間違いないでしょう。なぜなら、ロバストが私たちよりも何でもうまくできるようになるからです。つまり、私たち全員がそうなのです。この問題についてどうすればいいのかがはっきりしないのが、私にとって最も恐ろしい問題のようです。水力発電への挑戦は、もっと熱い挑戦で、人々はどのように意味を持つのでしょうか?多くの人が雇用から意味を得ています。もしあなたが必要とされていないのなら、あなたの労働に対するニーズがないのなら、どんな意味があるのでしょう?あなたには意味があるのですか?役立たずと感じるのか、これらは対処するのがずっと難しい問題です。そして、未来が私たちの望む、私たちが好きな未来になるためにはどうしたらいいのでしょうか。つまり、競争している企業は、AIを作るために競争しなければならず、そうでなければ競争力を失ってしまうのです。そうすると、リフレッシュはいらないから、あの、あまりに早く引っ張る必要があるという感じでしょうか。規制当局が来て、「君たちは本当に一時停止して、これが安全であることを確認する必要がある」と言う必要があるのです。そして、冷静になり、規制当局と協力して、安全に進める代わりに、それ以外はスピードを落として進めるという感じです。長くなりますが、ゲームに参加しているすべてのチームのために、規制当局がそれを行う必要があります。そうしないと、株主から「なぜもっと早くAIを開発しないんだ」と言われかねません。競合他社は、「よし、それをやらなきゃ」と思っているわけですから。とにかく、トップセンターの仕事とか、輸送とかがそうですね。輸送は、完全に自律化される最初のものの1つになるでしょう。でも、全部というと、ロボットが全部やってくれるようになるか、何もやらなくなるか、ですね。それらを解析して、AIがあらゆる面で私たちを凌駕するようになる、と言えば、答えは無条件に人工知能の発達に注目することです。というのも、科学者は自分の研究に没頭するあまり、その影響力の大きさに気づかないことがあるからです。なぜなら、科学者は自分の研究に没頭するあまり、自分がしていることの影響に必ずしも気づいていないからです。文明と人類の存続を当然のことと思ってしまうのです。私はそうしてはいけないと思います。

 
Well first of all, I think on the artificial intelligence front you know I have exposure to the most cutting edge AI and I think people should be really concerned about it. I keep started sounding the alarm bell but you know until people see like robots going down the street killing people like they don't know how to react you know, because it seems so ethereal. And I think we should be really concerned about AI. People in the AI community refer to the.

Unknown 0:54
to the advent of digital super intelligence as the singularity, that that is not to say that it is good or bad, but that it is very difficult to predict what will happen after that point, and then there's some probability it will be bad some probably will be will be good for obviously want you to affect that probability and have it be more good than bad. AI is a rare case where I think we need to be proactive in regulation instead of reactive. Because I think by the time we are reactive in AI, regulation, it's too late. And don't normally the way regulations are set up is that a whole bunch of bad things happen. There's public outcry, the bid and then after many years regulatory agencies set up to regulate that industry was a bunch of opposition from companies that who don't like being told what to do by regulators. And it takes forever that they that in the past has been bad but not something which represented a you know, a fundamental risk to the existence of civilization. The things that I think are really quite quite likely is that digital intelligence will be able to think us in every way and it will still be able to simulate what we consider consciousness. So to be that you would not be able to tell the difference. AI is a fundamental risk to the existence of human civilization in a way that car accidents, airplane crashes, faulty drugs, or bad food were not they were not they were harmful to to, instead of individuals within society, of course, but they were not harmful to society as a whole. AI is a fundamental existential risk for human civilization. And I don't think people fully appreciate that. I think there's a lot of investment going on in AI, where there's a lack of investment is in AI safety. And there should be in my view, a company agency that oversees anything related to AI to confirm that it is does not represent a public safety risk. You know, it's not it's not fun being regulated. It's not, you know, pretty, pretty awesome. But, you know, in the car business, we get regulated by public transport by EPA and controllers. And there's regulatory agencies in every every country in the space. Get regulated by FA are generally come to the conclusion that it is important to have a compliant referee or referee that is serving the public interest in ensuring that things are safe when when there's potential danger to the public. I would argue that AI is unequivocally something that has potential to be dangerous to the public, and therefore should have a regulatory agency just as other things that are dangerous to the public have regulatory agency if humanity collectively your science, that creating digital super intelligence is the right move, then we should do so very, very carefully. This is the most important thing that we could possibly do. I think the danger of AI is much greater than the danger of nuclear warheads by a lot. And nobody would suggest that we allow anyone to just build nuclear warheads if they want. That would be insane. And Mark my words, AI is far more dangerous than nukes. I think the machine side is far more malleable than the biological side, but by a huge amount. So it will be the machine that adapts to the brain. It has that's the only thing that's possible the brain can't adapt that well to to the machine. You can't have neurons start to record an electrode as like another neuron because neurons just like the pulse, and so something else was pulsing. So there's there is that there is that that elasticity in the interface, which we believe is something that can can happen. The vast majority of malleability will have to be on machines. So they'll certainly be a lot of job disruption. Because what's gonna happen is robust will be able to do everything better than us. I mean, I'm putting, I mean, all of us. Not sure exactly what to do about this really like the scariest problem to me. The hydro challenge much hotter challenge is, how do people then have meaning? A lot of people derive the meaning from their employment.

Unknown 5:51
If you're not needed if there's not a need for your labor, what's the meaning? You have meaning? Do you feel useless these are much that's a much harder problem to deal with. And then how do we ensure that the future is going to be the future that we want that we still like? And yeah, so I really think we need to go regulation here just to this is, you know, ensuring the public good as you go to companies that are racing, that they kind of have to race to build AI or they're going to be made uncompetitive, you know, like, essentially, if your competitor is racing to build AI and you don't, they will crush you. So then you're like, we don't want refreshed so you know, I guess we need to pull it too fast. We need the regulator's to come in and say hey guys, you will need to really, you know, just pause and make sure this is safe. And like when when it's cool and working with regulators, instead of safe proceed, then you can go but otherwise, slow down. And it's long, but you need to need regulators to do that for all the teams in the game. You know, otherwise, the shareholders will be saying like, Hey, why aren't you developing AI faster? Because your competitor is like, Okay, we've got to do that. Anyway, so it's like there's like some of the top center jobs or transport. Transport will be one of the first things to go fully autonomous. But when I say everything, like the robots will be able to do everything for him or nothing. If we parse them out and say, an AI will be able to outthink us in every way, then the answer is unequivocally close attention to the development of artificial intelligence. I think this is we need to just be very careful in how we adopt artificial intelligence and to make sure that researchers don't get carried away because sometimes what happens is a scientist can get so engrossed in their work. They don't necessarily realize the ramifications of what they're doing. They take civilization and our continued existence for granted. I shouldn't do that.


 
追補2022/04/11
米テスラCEOのイーロン・マスク氏がツイッターの取締役会への参加を辞退したと明らかにした
 
 
現代社会は偽情報に溢れているので、真実として伝えられた明白な最初の嘘ほど後からの否定(真実性の検証)が難しい。つまり最強の抑止力はよく出来た嘘(プロパガンダとマーケティングの応用)ということになる。
イーロン・マスクに期待するな。(プーチンも同じ思いらしい)
 

ビッグテックによる検閲に反対する億万長者のイーロン・マスク氏が、ツイッターの公開株の10%を購入し、物議を醸すソーシ

ャルメディアプラットフォームの取締役に就任すると、保守派の専門家は月曜日、万雷の喝采を浴びせた。

彼らは、マスクの買収は、前CEOでディープステートの手先であるジャック・ドーシーが2021年1月9日に永久に禁止したトランプ大統領のツイッターアカウントを復活させる前兆であると主張している。ドーシーとツイッターのリベラル派指導部は、ドナルド・J・トランプが「暴力を扇動」し、支持者に議事堂の転覆とマイケル・ペンス前副大統領のリンチを奨励したと、嘘の網を紡いだのである。

自らを「半分民主党、半分共和党」と表現するマスク氏は、トランプ氏の代理として擁護するかどうかについてまだ公言していないが、トランプ氏のTwitter復帰を早めるよう求めるツイートやメール、電話が殺到しているという。

しかし、少なくとも1人の強力な世界の有力者が、「羊のような格好をした狼」からの助けを受け入れることをトランプ氏に警告しており、その人物とは、ウクライナ危機が始まって以来トランプ大統領が頻繁に接触しているロシアのウラジーミル・プーチン大統領にほかならない。

トランプ大統領と日常的に接触し、トランプとプーチンの会話に通じているマー・ア・ラゴの関係者は、火曜日にリアル・ロー・ニュースに対し、プーチンがトランプにスペースXのCEOと連絡係を作ることを暗黙のうちに思いとどまらせてきたと語った。

"要するに、プーチンはマスクのことを、忠誠心が不明確でモラルに疑問のある男で、フェンスの両側を演じているように見えると呼んだのです。プーチンは、マスクはトランプを陥れようとする "トロイの木馬 "だと言った。その一因は、ムスクが、バイデン一家、生物兵器研究所、ウクライナ全土でほぼ平然と活動していた児童売買組織との関係を知らされた後でも、ヴォロディミル・ゼレンスキーを公然と支持しているからだ」と、我々の情報筋は述べている。

プーチンは、マスクが慈悲深い人道主義者を装って、秘密裏にゼレンスキーに軍事機材を与え、それが彼の「特別軍事作戦」を妨げ、多くの勇敢なロシア兵士の不必要な死を引き起こしたことを証明する揺るぎない事実を持っていると言った。3月中旬、マスクのスペースXは、ウクライナにスターリンク衛星インターネットキットを飛行機一台分寄贈した。表向きは、ウラジーミル・プーチンがウクライナの主要ISPであるUkrtelecomを破壊しても、その地域の民間人がインターネットアクセスを失わないようにするためだ。プーチンによると、SpaceXはこれらの出荷品に高度な通信妨害装置を同梱し、Zelenskyyの「武装への呼びかけ」に応じたウクライナ軍と外国の準軍事組織の両方に広く配布されたとのことです。

"トランプ大統領、この欺瞞を知り、現場で機器を見つけた時、我々はイーロン・マスクに、ウクライナ全土の汚物小児性愛者と生物兵器工場についてあなたに渡したのと同じ証拠を送りました。すると彼はどうしたか?私に殴り合いを挑んできたのです。面白いけど、私は彼をつぶしてしまうだろう」とプーチンはトランプに言った。

プーチンの発言は、3月16日のマスクのツイートについて言及したものだ。

 

さらにプーチンは、ロシアのアルマズ・アンテイ防衛企業の技術者が、捕獲した電子機器を解剖し、その回路がスペースX社の独自技術であることを突き止めたと述べている。

"彼らは衛星やロケット船以上のものを作っているようだ "と、プーチンはトランプに言った。

プーチンは、このデバイスが、ウクライナから小児性愛者と外国のバイオラボを排除するという彼の任務を妨げてはいるが、止めてはいないと言い切った。しかし彼は、マスクの「不正な兵器」が、ウクライナの都市ウマンの近くにある生物兵器研究所に対するドローンやUAVの攻撃を妨害したと主張した。マスクの装備で武装した「テロリスト」がドローンの周波数を捕捉し、ロシア軍の車列の中で爆発させ、23人のロシア軍兵士の死者を出したのだ。

"トランプ "は会話中、多くを語らなかったが、熱心に耳を傾け、情報を慎重に吟味すると述べた。プーチンの最後の言葉は、ムスクの妨害がなければ、今頃ロシア軍はすべてウクライナから撤退していたかもしれない、というものだった」と情報筋は語った。

 

契約

 


言論の自由が回復するのか?
これが消されるのはいつの日か?
 
ロシア軍は30日に撤退。
4日で死後硬直も死斑もない。
中国外務省:ブチャの非難は事実に基づくべき

中国外務省の趙力建は、ブハの民間人殺害事件に関して自制を求め、キエフとモスクワの間で飛び交う非難は「本当の事実」に基づくべきだとして、水曜日に行われたブリーフィングで主張した。

「調査が行われるまで自制する必要がある」と述べ、北京はウクライナの人道的努力を支援するために「真のステップ」を踏んでいると付け加えた。

ロシア国防省は、ロシア軍は3月30日に町を離れ、その翌日には町長によって確認されたが、「犯罪の証拠」は4日後にしか出てこなかったと強調し、モスクワの責任に関するキエフの主張を否定した。



コメント    この記事についてブログを書く
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする
« 利益率の高い高級車に専念す... | トップ | KININARU 研究 膜透過Pdフィ... »
最新の画像もっと見る

コメントを投稿

ブログ作成者から承認されるまでコメントは反映されません。