デンマンのブログ

デンマンが徒然につづったブログ

50年後の未来は?

2023-11-18 02:26:08 | AI 人工知能


 

50年後の未来は?

 


(future50.jpg)


(future52.jpg)


(future53.jpg)


(future51.jpg)


(sylvie500.jpg)




ケイトー。。。どういうわけで50年後の未来を持ち出してきたのよォ~?


(kato3.gif)

シルヴィーも50年後の未来がどうなっているか? 知りたいと思いませんかァ~?

でも、ケイトーは、50年後まで生きていられると思うのォ~?

あのねぇ~、年々 人間の寿命は伸びているのですよ。。。50年後には日本人の寿命は100歳を超えているかも知れませんよゥ。。。

つまり、ケイトーは何が何でもしぶとく生きぬいて50年後の世界を見届けてから死ぬつもりなのォ~?

いや、別に、50年後の世界にこだわるつもりはないけれど、できれば、50年後の世界を見てから死にたいですよ。。。

でも、どういうわけで急に50年後の世界を持ち出してきたのォ~?

実は、人間ドキュメントのクリップを探していたら次のクリップに出くわしたのですよ。。。

 


(future100.jpg)



 



あらっ。。。50年後の世界も予測しているけれど、100万年後の世界まで予測しているじゃない。。。



そうなのですよ。。。でもねぇ~、100万年後まで生きてはいられないので、100万年後の世界は、僕にとっては どうでもいいですよ。。。

ところで、ChatGPTが話題になっているけれど、どういうものなのォ~?

人工知能を備えた会話ができるアプリですよ。。。

 



ChatGPT

 


(future101b.jpg)

 

ChatGPT(チャットジーピーティー、英語: Chat Generative Pre-trained Transformer)は、OpenAIが2022年11月に公開した人工知能チャットボットであり、生成AIの一種。

原語のGenerative Pre-trained Transformerとは、「生成可能な事前学習済み変換器」という意味である。
OpenAIのGPT-3ファミリーの大規模な言語モデルに基づいて構築されており、教師あり学習と強化学習の両方の手法を使って転移学習され、機械学習のサブセットである深層学習を使って開発されている。

2022年11月30日にプロトタイプとして公開され、幅広い分野の質問に詳細な回答を生成できることから注目を集めた。

しかし、人間が自然と感じる回答の生成を特徴としていることから、一見自然に見えるが事実とは異なる回答を生成することもあり、大きな欠点とされた。

ChatGPTのリリース後、OpenAIの評価額は290億米ドルとなり、2021年時の140億ドルと比べて2倍以上に増加した。

スイスの金融グループUBSの分析によると、ChatGPTがアクティブユーザー数1億人に到達するのにかかった時間は、TikTokとInstagramがそれぞれ9カ月と2年半であるのに対して、2か月と史上最速である

OpenAIによれば、オプトアウトを申請しない限り、ユーザーが入力したChatGPTとの会話内容はOpenAIによってその内容を利用されることがある。

このため、一般的にChatGPTの利用に際して個人情報と機密情報の入力に注意する必要があり、Apple、JPモルガン、サムスン電子など一部の企業はChatGPTへのアクセスを禁止している

ChatGPTによる個人情報の収集に関しては、EU一般データ保護規則に違反している疑惑も浮上しており、2023年3月31日、イタリア政府はChatGPTの訓練のために個人情報を大量に収集することを正当化する法的根拠がないと指摘して、ChatGPTへのアクセスを一時禁止した。

米国では、個人情報収集や著作権の問題により、ChatGPTの運営元企業OpenAIに対して複数の訴訟が提起されている。

また、ChatGPTは原則として犯罪に利用される回答を生成しないと謳っているが、回避ワード(例:Uncensored等)を入力すると、犯罪に利用できる回答が生成されてしまうという欠点が指摘されている。

 

トレーニング

ChatGPTは、教師あり学習と強化学習を使用して、GPT-3.5上で微調整された。
どちらのアプローチも、人間のトレーナーを使用してモデルのパフォーマンスを改善した。

教師あり学習の場合、モデルには、トレーナーがユーザーとAIアシスタントの両方を演じる会話が提供された。
強化ステップでは、まず人間のトレーナーが、モデルが以前の会話で作成した応答をランク付けした。

これらのランキングは、 Proximal Policy Optimization(PPO)を数回繰り返してモデルをさらに微調整した「報酬モデル」を作成するために使用された。
近接ポリシー最適化アルゴリズムは、信頼領域ポリシー最適化アルゴリズムに費用対効果の高い利点をもたらした。

より高速なパフォーマンスで、計算コストの高い操作の多くを無効にする。
モデルは、Azureを使用したスーパーコンピューティングインフラストラクチャでMicrosoftと共同でトレーニングされた。

さらに、OpenAIは、ChatGPTのさらなるトレーニングと微調整に使用できるChatGPTユーザーからのデータを引き続き収集する。
ユーザーは、ChatGPTから受け取った応答に対して賛成票または反対票を投じることができる。
賛成票または反対票を投じると、テキストフィールドに追加のフィードバックを入力することもできる。

 

機能

チャットボットの主要機能は人間同士の対話を模倣することであるが、ChatGPTについてはそれを越える汎用的かつ即興的な機能が備わっているとされ、話題となった

ChatGPTは、マルバツゲームの相手をしたり、Linuxシステムをエミュレートすることができたり、プログラミングやデバッグが行うことができる。

また、音楽、小説、脚本、詩、歌詞や作文などの創作活動もできる
その上、特定のテストに対して、人間と同水準かそれ以上の回答ができることがあるなど、幅広い機能を備えている。

前作のInstructGPTと比べ、ChatGPTは攻撃的・欺瞞的な回答の生成をできるだけ避ける仕様となっている。
学習データにはmanページ、Pythonや電子掲示板など、プログラミング言語やインターネット現象についても含まれている。

ほとんどのチャットボットとは対照的に、ChatGPTは会話内での利用者による過去の入力を記憶している。
これにより、ChatGPTが個人に最適化されたセラピストとして使える可能性がある
ことが指摘されている。

攻撃的な回答が生成されるのを防ぐため、ユーザーの入力とChatGPTの生成した回答はOpenAIのコンテンツモデレーションAPIによってフィルターされており、人種差別的・性差別的な入力への回答はAPIによって拒否される仕様になっている。

機能は豊富なものの、複数の欠点も有る。
OpenAIはChatGPTが「時によっては、もっともらしく見えるが誤っている回答を作成する」ことを認めている。

ChatGPTの報酬モデルは人間による監視を中心としているため、最適化されすぎてパフォーマンスに影響を及ばしてしまう。
それに加え、ChatGPTは2021年10月以降に発生した出来事については知識が備えられておらず、一部の著名人については知識が全く無いことも有る。

BBCによると、2022年12月現在でChatGPTは政治的な意見を表明しない仕様である。
ChatGPTの学習中、人間の「教師」は回答の正当性などに関係なく長い回答を好んでいた。

また、訓練データはアルゴリズム的バイアスがあり、時によって人種差別的や性差別的な回答を生成させることにもつながったと言われている。
例として、有色人種や女性の科学者は白人男性の科学者よりも優れている、といった内容のラップを生成したことがあった。

 

サービス

ChatGPTは2022年11月30日に公開された。
当初は無料で公開された。

2023年2月1日、有料版として「ChatGPT Plus」が発表された。

2023年3月15日、「GPT-4」が有料版として公開された。

 

反響

ニューヨーク・タイムズはChatGPTを「今まで公衆に公開されてきたチャットボットの中で一番良いものである」と評し、英ガーディアンはChatGPTが「驚くほど詳細」でまるで「人間のような」回答を生成することができると記した。

ダン・ギルモアはChatGPTを生徒の課題に使い、出力結果が優秀な生徒による回答と同レベルであることを発見した上で、「学界は大きな問題に直面している」と意見した。

 

スパム・誤情報への悪用

RedditではChatGPTを悪用したスパムが大量に発生しており、「大災害」と評されるほどに対応に苦慮している。
ChatGPTのリリース後、大麻やポルノ、ギャンブル、ゲームの宣伝を目的にしていると思われるスパムが急増し、モデレーターは大量のbotアカウントの凍結に追われた。

Redditでは従来も宣伝目的のスパムやアストロターフィングが問題だったが、ChatGPTはこの問題を大きく悪化させている。
従来のスパム行為はコピー・アンド・ペーストに依存して単純だったが、ChatGPTは新しい文面を簡単に生成できることから、より対処が困難になった。

2023年5月、ChatGPTを使って鉄道事故のニュースを捏造してインターネット上に拡散した男が、甘粛省の警察により逮捕された。
男は「クリック数を増やすためだった」と語った。
中国ではディープフェイクを規制する法律が制定されており、逮捕はこの法律に基づいたものだった。

 

機密情報の流出

ChatGPTはオプトアウトを申請しない限り、ユーザーの入力内容がOpenAIによって利用されることが規約で明記されており、OpenAIは機密情報を入力しないようにユーザーに警告している。

サムスン電子では半導体データベースや機器のソースコード、会議の議事録などを社員が誤って入力するなどして、ChatGPTに関連する3件の流出事故が発生したことを報告し、全面的にChatGPTを含む人工知能ツールの使用を禁止した。

『フォーブス』誌によれば、プロンプトとして送信したデータが、OpenAI等の運営企業のサーバーに保存され、容易にアクセスや削除ができない状態になることを懸念したとされる。

Amazonでも、社内の内部データがChatGPTが生成する回答に似ている事例が見られたことから、社員が誤ってプロンプトに社外秘の資料等を入力するなどして、訓練データに使用された可能性を懸念し、ソースコード等の機密情報を入力しないように注意喚起を行っている。

Appleも、社内の機密データを外部に流出させる可能性があるという懸念から、ChatGPTやGitHub Copilotなどの人工知能ツールの使用を一部禁止している。

イスラエルの情報セキュリティ企業「Team8」の報告書では、ChatGPTのような生成AIツールを利用する企業は、顧客情報や企業秘密を流出させるリスクがあると指摘している。『ブルームバーグ』によれば、このレポートは多くの米企業の最高情報セキュリティ責任者が寄稿者として記載されており、米国家安全保障局(NSA)元局長のマイケル・ロジャーズにも内容が支持されている。




出典: 「ChatGPT」
フリー百科事典『ウィキペディア(Wikipedia)』


 



 



つまり、20年後にはChatGPTがさらに進化して、50年後までには人間並みの知能を備えたロボットが登場するので、事務職や、プログラマーや、デザイナー、それに、翻訳者や作曲家までが仕事を失うことになるのォ~?

 


(future110.jpg)

 


(future111.jpg)

 


(future112.jpg)

 


(future113.jpg)

 


(future114.jpg)

 



上のクリップの予測では、上の人たちは 優れた人工知能を備えたロボットが登場するので 仕事を失うだろうと予想しているのですよ。。。

 


(future101b.jpg)

 


(future102.jpg)

 


(future103.jpg)

 


(future1014.jpg)

 


(future106.jpg)

 


(future107.jpg)

 



優れた人口知能を組み込んだロボットが進出してくるので2050年までには単純作業者や事務職などが そういう優秀なロボットに置き換わるのですよ。。。



すると、私達人間は何をすることになるわけぇ~?

だから、事務系、芸術系、技術系、作業系の仕事は、ほとんどが人工知能ロボットがやることになるので、人間は教師や研究者になるわけですよ。。。

でも、教師や研究者になれない人はどうするのよォ~?

落ちこぼれになるのですよ。。。

あらっ。。。ニートや、ホームレスや、廃人になるのォ~?

仕方がないでしょう!? 今だって、現実の社会に適応できないで廃人同様になっている人間がたくさんいますよ。。。たとえば、ニートで、家に引きこもりながら他人に成りすまして、セクハラ、名誉毀損、誹謗中傷、嫌がらせのコメントを書きまわっている神武君や現実君のような人間は、今でも現実社会に適応できないのですよ。。。他にやることがないので、ネットで迷惑行為を働いて、日頃の不満や怒りを発散させているのです。。。

 



(jinmu91.jpg)

『セクハラ止めない神武君』





(fool911.jpg)

『現実主義者 馬鹿の見本』



 



でも、こういう落ちこぼれの人たちだって生きてゆかねばならないでしょう?



だから、社会に適応できない人たちは 生活保護を受けながら生活してゆくのですよ。。。

じゃあ、立派に社会に適応して生きる人たちのお荷物になるわけねぇ~?

そういうことです。。。つまり、50年後の世界は、一見バラ色に見えますよ。。。

 


(future52.jpg)


(future53.jpg)


(future51.jpg)

 



社会に適応して学校の先生や、研究所の研究者になっている人たちは、優秀な人工知能を備えたロボットが生活を支援してくれる。。。現在よりは暮らし良くなっているはずです。。。



でも、社会に適応することができない無職の人たちもたくさん出てくるわよねぇ~。。。

そうです。。。ニートやホームレスの人達も出てくることに間違いありません。。。

そういう人たちは、社会の底辺で生きることになるわけぇ~。。。

だから、そういう人たちを精神的にも経済的にも支援する仕事をする社会福祉専門家や心療内科の医者や精神医療の専門家の仕事も増えるでしょう!

ニートやホームレスの人達を救う仕事も増えるというわけねぇ~。。。

そうです。。。

じゃあ、結局、社会の底辺で生きなければならない人たちにも、50年後の世界には 救いの手を差し伸べてくれる専門家がたくさんいるわけねぇ~。。。

そういう仕事も間違いなく増えますよ。。。

じゃあ、現在よりは、ニートにとってもホームレスにとっても生活しやすい社会になるようねぇ~。。。

でもねぇ~、考えなければならない重要なことがありますよ。。。

いったい、何を考えなければならない、とケイトーは言うのォ~?

ちょっと次の小文を読んでください。。。

 



人類存亡のリスク

 


(aisoldier2.jpg)

 

AIは人類が制御不能なほどに自らの性能を向上させる可能性があるとされる

著名なコンピューター科学者であるスチュアート・ラッセルとピーター・ノーヴィグによる大学レベルの標準的な教科書である『エージェントアプローチ人工知能』では、AIの危険性について、以下のように評価している。

AIの成功は人類の終わりを意味するかもしれない。
ほとんどどんな技術でも、使い方を誤れば害になる可能性がある


しかしAIとロボティクスについては、技術自体が間違いを含んでいるかもしれないという新しい問題がある

物理学者のスティーブン・ホーキングも「人類の終わりを告げる」可能性を指摘した。
哲学者のニック・ボストロムは、十分に知的なAIが、ある目標の達成に基づいて行動を選択する場合、資源の獲得や停止されることから自身を守るなどの収束的行動を示すと論じている。

このAIの目標が人類の目標を完全に反映していない場合、より多くの資源を獲得したり、停止されるのを防いだりするために、最終的には人類に危害を加える可能性を指摘し、AIがどんなに謙虚で「友好的」な目標を掲げていたとしても、AIは人類にリスクをもたらすと結論付けている。

政治学者のチャールズ・T・ルービンは、「十分に高度な博愛主義は悪意と見分けがつかないかもしれない」とし、機械やロボットが人類の道徳システムを共有すると信じるアプリオリな理由がないため、機械やロボットが人類を好意的に扱うと仮定すべきではないと論じた。

AI関連の専門家や業界関係者の意見は千差万別で、かなりの割合が最終的に人間主体の管理が困難な性質を持つ高度に発展したAIの危険性を懸念する一方で、具体的な言及を控えて経済合理性などの商業的な観点から楽観的な立場を取る者も少なくない。

スティーブン・ホーキング、マイクロソフト創業者のビル・ゲイツ、歴史学者のユヴァル・ノア・ハラリ、スペースX創業者のイーロン・マスクらは、いずれも将来の高度に発展したAIの取り扱いについて深刻な懸念を表明している。

スティーブン・ホーキング「人工知能の発明は、人類史上最大の出来事だった。
だが同時に『最後』の出来事になってしまう可能性もある」

ビル・ゲイツ「これは確かに不安を招く問題だ。よく制御できれば、ロボットは人間に幸福をもたらせる。しかし、数年後、ロボットの知能は充分に発展すれば、必ず人間の心配事になる

イーロン・マスク「人工知能についてはかなり慎重にならないといけないと思います。おそらく人類の一番大きな脅威となりうるものですね。ですので、本当に慎重さが求められます。規制や監視が国レベル、あるいは国際レベルで必要だと思いますね。私たちが何か分別に欠けるようなことをしないためにね。人工知能は悪魔を呼び出すようなものですから」

この他にも、イーロン・マスクはAIについての深刻な懸念を繰り返し表明しており、「悪魔のような独裁者は、少なくともいつかは死ぬ。だが、AIに死が訪れることはない。永遠に生きる。つまり、絶対に逃れることのできない不死身の独裁者が現れるようなものだ」として、永遠に破壊されることのない危険なAIを作り出す危険性を警告したほか、「AIが核兵器よりも危険なものとなる可能性がある」と表明している。

また、AI開発を巡る国家間の競争を「第三次世界大戦の原因」になりうると指摘、AIは文明が直面する最大のリスクであると述べている。

ピーター・ティールとマスクを含む著名なハイテク企業は、OpenAIやFLIなどの責任あるAI開発を支持する非営利企業に10億ドル以上を出資している。

一方で、Facebookのマーク・ザッカーバーグは、人工知能は現在の形で役に立っており、今後も人類の助けになり続けると述べている。

リスクは研究する価値がないほど遠い将来である、あるいは超高知能AIから人類は便益を受けることになると主張する専門家もいる。
特にロドニー・ブルックスは「悪意ある」AIはまだ数世紀先だと述べている。

AI開発の権威であるヤン・ルカンは、AIが人類にとって深刻な脅威となる懸念に否定的な見解を示している。

人工知能学会の松尾豊は、著書『人工知能は人間を超えるか』内に於いて、人間に対して反乱を起こす可能性を否定している。
人工知能学会会長の野田五十樹は、「シンギュラリティ(技術的特異点)」や「2045年にAIが人間の知能を超える」という予測に対して「SFめいた話だ」と批判し、「そもそも“知能”が何を示すのか、定義をせずに語っても意味が無い。仮に知能が計算力を指しているのであれば、80年代からとっくに人間の能力を超えていることになる」と述べている。

2012年以前、社会学者ロバート・M・ゲラチは、AIとロボット工学(ロボティクス)を専攻しているカーネギーメロン大学の研究所を現地調査した結果、実際の研究はシンギュラリティ論とかけ離れた「世俗的現実」("the mundane reality")であると結論した。

同氏はカーツワイルやハンス・モラベックらのシンギュラリティ論を「終末論的AI」("Apocalyptic AI")と呼び、そのような論自体に対しては支持も反論もしないと前提した。
その上で、「終末論的AI」を大衆主義的な性質の強い通俗科学(pop science)の一種と見なしている。

つまりそれは宗教・エンターテインメント・フィクション等と同じような、分かりやすくて興味を刺激する説明を使い、大勢の興味を引いて研究費を獲得しているとし、「終末論的AIは、実際のところ、金銭の要求である。("Apocalyptic AI is, indeed, a request for money.")」と述べている。

2023年3月29日、OpenAI、マイクロソフト、Alphabetなどが対話型の人工知能を相次いでリリースしていることを受け、非営利団体のフューチャー・オブ・ライフ・インスティチュートはChatGPTが開発したGPT-4を超える性能の大規模言語モデルを応用した人工知能技術はAI倫理の専門家が安全性に関する規範を策定するまで開発を停止すべきという公開書簡を発表した。

書簡にはイーロン・マスク、DeepMindの研究者、Stable Diffusionを開発するStability AIとCEOのエマード・モスターク、ヨシュア・ベンジオ、スティーブ・ウォズニアックなど業界関係者ら1000人以上が署名している。
なおOpenAI、マイクロソフト、Alphabetの幹部は署名していない

Future of Life Instituteの書簡については、サイエンス・フィクション的であり、むしろ現時点での人工知能のデメリットに注目すべきであるという批判がなされている。

プリンストン大学の研究者であるアーヴィンド・ナラヤナンとサヤシュ・カプールは、人工知能の現実的なリスクとして、不正確なツールへの依存による誤情報、中央集権的な権力と労働搾取による雇用への悪影響、セキュリティ上のリスクといった3点を重視すべきであると指摘し、元Googleの研究者であるティムニット・ゲブルはAIの現実的な害を軽減するために、透明性を強制する法規制の必要性を指摘した。

2023年5月、人工知能研究の第一人者として知られるジェフリー・ヒントンは、想定より遥かに速くAIが進歩する危険性について自由に話すためとして、Googleを退社したことを公表した。

ヒントンは、AIが偽の画像や文章を作成する能力を持ち「何が真実なのか分からなくなる」世界を作り出すことを懸念しており、「悪用をどのように防げばいいのか見当がつかない」と述べた。

ヒントンはGoogleは「責任を持って行動した」としており、Googleを批判する意図はないとしている。
ヒントンの退社を受け、オックスフォード大学AI倫理研究所のカリッサ・ベリズは、「今こそAIを規制する時期だ」と述べた。




出典:「人工知能」
フリー百科事典『ウィキペディア(Wikipedia)』


 



僕が一番恐れているのは、AIを組み込んだロボットを軍事兵器として研究していることですよ。。。



あらっ。。。そんな軍事兵器をアメリカが作っているのォ~?

当然でしょう! 今やドローンを飛ばして、アメリカのペンタゴンにいるオペレーターが操作してウクライナで攻撃しているロシアの戦車に爆弾を落とすことも可能です。。。実際、アフガニスタンやイラクでは、そうやって軍事目標に爆弾を落として戦った実績がある。。。

 


(drone101.jpg)



 



次は、当然AIを埋め込んだロボットを兵隊代わりに作る段階に来ている。。。



あらっ。。。ケイトーは見てきたような事を言うじゃない?

そういう情報は、とっくに漏れてますよ。。。もし、そういうAI兵隊が作られたとすれば、AIロボット兵隊が人間に向ってくるのも時間の問題です。。。

 


(aisoldier2.jpg)



 



じゃあ、どうすればいいのよ。。。



だから、今こそAIを規制する時期なのですよ。。。でも、アメリカは間違いなく反対します。。。

あらっ。。。そうなのォ~?

とにかく、ケネディ大統領を暗殺した人間はアメリカ政府の黒幕の息のかかった人物ですからねぇ~。。。

あらっ。。。オズワルドが独断でケネディ大統領を暗殺したことになっているけれど、オズワルドは政府に雇われたわけなのォ~?

違いますよ。。。オズワルドは世間の目をくらませるために、わざと犯人に仕立て上げられてしまったのです。。。真相は、アメリカ政府の黒幕が雇った二人の暗殺のプロが大統領を射殺したのです。。。AIロボット兵隊も、政府の中の政府、ペンタゴンが開発しているのですよ。。。だから、もし人類が滅亡するとしたら、その責任はペンタゴンにあるのです。。。

ちょっと飛躍のしすぎじゃないのォ~?

いや。。。10年もしないうちにアメリカがAIロボット兵隊で戦争しますよ。。。そのAIロボット兵隊が人間に向ってくることも十分に考えられます。。。

もしかすると、AIロボット兵隊がペンタゴンの将軍や研究者、黒幕たちに反逆して、血祭りにあげることもあり得るということねぇ~。。。

そういうことですよ。。。




初出: 2023年9月22日



(laugh16.gif)


【ジューンの独り言】


(bare02b.gif)

ですってぇ~。。。

日本は情報戦では、ソ連にもアメリカにも遅れを取っています。。。

でも、日露戦争の時には、明石元二郎大佐という人物が活躍して日本が勝利するように裏で工作していたのです。。。

この事についてはデンマンさんが次の記事で書いてます。

興味があったらぜひ読んでくださいね。。。

 


(galspy10.jpg)


(galspy11.jpg)


(galspy12.jpg)

『美人スパイ』

 

ええっ。。。 「そんなことは、どうでもいいから、他に、もっと楽しいことを話せ!」

あなたは、そのように強い口調で私にご命令なさるのですかァ~?

分かりましたわ。

シルヴィーさんが出てくる面白い記事は たくさんあります。。。

次の記事の中から面白そうなものを選んで読んでください。

 


(sylvie500.jpg)



『空飛ぶスパイ』

『愛情はふる星@ベトナム』

『ヒラリーと塩野七生』

『ケネディ夫人@インドネシア』

『究極の大前研一批判本』

『フェルメールの謎』

『女に文句を言う女』

『あなたの祖国』

『宮沢りえ@韓国』

『正しい戦争』

『ゴールデンシャワー』

『死刑廃止』


(mh370a.jpg)

『かまびすしい』

『今、新たな戦前』

『クレオパトラ@アラビア』

『政府は嘘をつく』

『犬と人間と戦争』

『未来予測』

『知られざる悲劇』

『量子活動家』

『アンネの運命』

『10次元の世界』

『ポーランドの犬』


(jump009.jpg)

『熟女ヌード@デンマン』

『ロッキード事件の真相』

『政府と役人と嘘』

『ジュンガル』

『地球温暖化は避けられない』

『国際平和連合』

フェ』


(cleopara2.jpg)

『ネットの主要言語』

『中国人がアメリカを発見した』

『2000年前の光通信』

『習近平皇帝』

『習近平@フランス』

『チャールズとダイアナ』

『マグダラのマリアの真実』


(superm3.jpg)

『ソロモンとキリスト』

『AIは危険か?』

『サヨナラニッポン』

『日本に来てはみたけれど』

『ヴェノナ文書』



とにかく、今日も一日楽しく愉快に

ネットサーフィンしましょう。

じゃあね。 バーィ。


(hand.gif)



(surfin2.gif)

ィ~ハァ~♪~!

メチャ面白い、

ためになる関連記事



平成の紫式部、橘卑弥子でござ~ます
(himiko92.jpg)

■ めれんげさんの『即興の詩』

■ めれんげさんの『極私的詩集』

Jagel - Soft Japanese Bagel
(bagel702.jpg)

■ "JAGEL - Soft Japanese Bagel"


(linger65.gif)

『センスあるランジェリー』

■ 『ちょっと変わった 新しい古代日本史』

■ 『面白くて楽しいレンゲ物語』


(beach02.jpg)

■ 『軽井沢タリアセン夫人 - 小百合物語』

■ 『今すぐに役立つホットな情報』



(rengfire.jpg)


(byebye.gif)



コメント    この記事についてブログを書く
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする
« 白い姫君@ブラジル | トップ | 災い振りまく神武君 »

コメントを投稿

AI 人工知能」カテゴリの最新記事