電脳くおりあ

Anyone can say anything about anything...by Tim Berners-Lee

●生成AIの限界と可能性について

2024-06-27 07:03:35 | デジタル・インターネット
 2022年の年末に登場したChatGPTは、あっという間にAIについての話題を獲得し、昨年はそれらがものすごい勢いでアップデートされ、いろいろなことができるようになっていった。それを見ていると、もうすぐ、AGIができて、人間の知性を超えるAIが登場しそうに見える。ソフトバンクの孫正義のユーチューブ動画もそんな方向を示していたように思う。(参考:「SoftBank World 2023 孫 正義 特別講演 AGIを中心とした新たな世界へ」)しかし、そう簡単には、AGIは実現できない気がする。孫正義は、ASIのためにソフトバンクはあるのだと言っているが。

 生成AIは、大規模言語モデル(LLM)であり、個々のトークンを大規模なベクトル空間に位置づけ、アテンション(自己注意機構)を使ったトランスフォーマーと次の単語を予測するという「自己教師あり学習」という二つの技術をつかっている。そして、いまのところ詳細は不明ながら、自然言語に対応した文章が生成できるようになっている。そして、知としても、学習した言語の内容に合ったところまで生成可能になっているので、ネット空間にある普通の知は生成できることになっている。もちろん、それは、質問者の問いとその文脈に応じた知的生産ということである。多分、言語の翻訳、文章の要約、言葉の使い方の間違い、言語の文脈から考えられる提案などで力を発揮する。しかし、その生成物が正しいかどうか、また、適切かどうかは、質問者自体が判断するしかない。

 私は、前に、生成AIの活用によって、知の民主化が起こると言うようなことを述べたことがあるが、生成AIの生成物を本当に活用できるためには、知的な訓練が必要であると最近気がついた。本来、ハルシネーションが起きることを知ったときからそれはわかっているべきであった。おそらく、生成AIの進化の影で、そうした知的作業の格差も秘かに進行していると思われる。知とは、知的作業の中でこそ生きるのであり、知的な作業に生きるためには、知的な対応が必要になるのである。だから、おそらく、人が言うほど、知的な作業は、AIに置き換わるわけではないと思われる。もっとも、不十分な知は、役立たなくなる可能性があるというべきかも知れない。

 大切なことは、それぞれのプロは、その場面における知を鍛えることによってのみ、生成AIの本当の活用を実現できることだいうことを理解しておくことだとだと思う。現在のところ、いかなる生成AIも人間による操縦なしには、上手く作業しないのであり、その操縦次第で、とてつもない結果を生み出す可能性を持っているということはできる。それは、将棋の藤井聡太が将棋のAIソフトを活用できて、自分の将棋を向上させることができるのは、まさに藤井聡太だからこそそのソフトを最高に活用できるということになっているのと同じだと考えるべきだ。ただし、藤井聡太がそうであるように、私たちの知的作業も、もうすでに、生成AIの活用なしには更なる向上は難しくなっているということかもしれない。
 
 そして、話は、単純なところに帰着するのだが、私たちは、ネット上の知を収集し、分類し、整理し活用することが甚だ簡単にできるようになったが、それを活用するには、それを活用する能力が必要であるということであり、その情報活用能力を活用することが大事だということだ。ただ、その場合、前より便利になり、参入障壁が低くなったのは、自然言語を使ってそれができるようになったからであり、そういう時代になったということである。ただし、そうはいっても「プロンプトエンジニアリング」という言葉や、「生成AIにおける言語学」ということが言われるようになったように、自然言語に対する本質的な理解も必要になって来たことも確かだ。

 ところで、6月26日のクローズアップ現代で、デジタル赤字について取り上げていた。

<デジタル分野のサービスでの国際収支で、去年は5.3兆円に上った日本の「デジタル赤字」。日本企業がDXを進めれば進めるほど、クラウドサービスの利用料など海外IT大手への支払いが増える。新サービスを生み出すスタートアップも、海外IT大手への支払いがかさみ、米IT企業の“デジタル小作人”と言われるまでに。>

 確かに、昨年のインバウンドでは3.6兆円だったというから、そのインバウンドの利益をはるかに超えている。特に、デジタル分野ので赤字は、円安によって、さらに悪化して行く。現在、生成AIの基盤技術や、それらを活用するクラウドサービスは、圧倒的にアメリカが有利になっている。もちろん、アメリカでのクラウドサービスは、Amazonや、Google、Microsoftなどいくつかの大手があり、いまのところ日本は負け組になっている。クラウドサービス自体が、AIを活用できるようになっていて、それを活用すればするほど、日本は、アメリカに依存していくことになる。

 東大の松尾豊によれば、IT事業でははっきり負け組にいるということを自覚して挑戦して行けば、生成AIの活用の分野では挑戦可能だという。というより、日本の独自の活用方法を開発していくことしか、ここでの突破口がないというべきかもしれない。日本語という特殊な自然言語をどう活用するかや、日本独自なシステムの活用などが、「稼げる小作人」になる道かもしれない。確かなことは、生成AIの分野は、まだ始まったばかりだということだ。
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

●ライターという職業について

2024-06-23 11:38:12 | デジタル・インターネット
 2024年6月13日付けの「デジタル新文化」で次の記事を読んだ。

<「嫌われる勇気」300万部突破/ダイヤモンド社発売10年半で/同社全書籍で歴代1位/世界40の国・地域で翻訳、1000万部超
 ダイヤモンド社が刊行する岸見一郎/古賀史健『嫌われる勇気』の発行部数が67刷目で300万部を突破した。2013年12月に発売して約10年半で大台に乗った。ビジネス書としては異例の記録。売行きは今も好調で、今後も様々な仕掛けで増売していく。>


 これまでダイヤモンド社の書籍のなかで売り上げトップは、岩崎夏海著『もし高校野球の女子マネージャーがドラッカーの「マネジメント」を読んだら』だったそうだが、今回はそれを超え、特に中国では300万冊のベストセラーになっているという。中国でなぜそんなに売れているのかは、いろいろな説があるが、自己肯定感が強く、日本より激しい競争社会を生き抜くには、「嫌われる勇気」は必要な資質なのかもしれない。

 私がこの記事に注目したのは、『嫌われる勇気』が岸見一郎と古賀史健の共著になっていることだ。ある意味では、古賀史健の名前が知れ渡ったのはここからだと思われる。これとよく似た作りの本に、養老孟司著『バカの壁』というベストセラーがある。もちろん、この本は、養老孟司が語ったことを編集者がまとめたものである。『嫌われる勇気』は、いわば岸見一郎と古賀史健の対話をもとにしてできあがった本なので、共著でいいのだとは思うが、ここで初めて「ライター」が表に出たというべきかもしれない。『バカの壁』には、編集者の名前は載っていない。

 同じ「デジタル新文化」の同日の記事に、児童書の購入の仕方の変化についての発言がある。

<また、本の選び方も変化しているようです。以前と比べて親御さんも子どもたちも自分で本を選ぶというより、アニメや映画などのメディア化作品やテレビ番組、SNSで話題になっている作品を購入する方が増えているように感じます。人気作品を手にする傾向が高まっているのは『購入して失敗したくない』という気持ちの裏返しなのかもしれません。>(「児童書で本好きを増やす」座談会のトーハン書籍部の下田祐美発現)

 そして、いつの頃からか、一般書に編集協力者やライター、編集担当者の名前が載るようになった。つまり、最終的には読者に安心して手にとってもらえるようになる。また、忙しい書店員に対するアピールにもなる。もちろん、それだけが本の内容の保証になるわけではないが、読者にも参考になる。実は、SNSなどの普及により、個別の読者が書店で実物を見聞して本を選ぶ際の参考になっている。この間の事情は、永江朗著『私は本屋が好きでした──あふれるヘイト本、つくって売るまでの舞台裏』(太郎次郎社エディタス/2019.11.25)で本の流注の業界(出版社⇔取次⇔書店⇔読者)の寒霞渓の変化について興味深い指摘をしている。

 ここまでは、余分も情報の紹介であるが、私が興味を持ったのは、『嫌われる勇気』の著者の1人の古賀史健についてである。そんな彼は、2021年にはダイヤモンド社から『取材・執筆・推敲──書く人の教科書』を書いた。ある意味では、彼が初めてライターとは何かを定義してみせ、どうすれば優れたライターになれるのかという教科書を提出してみせた。彼が想定していたのは、紙の本だったが、彼のライター論は、紙の本を超えて、ネットの時代になったからこそ余計重要になったのだともいえる。この本の中で定義されている編集者とライターの定義は、とても興味深い。

 古賀史健によれば、ライターというのは、「コンテンツをつくる人」であり、「コンテンツとは、エンターテイン(お客さんをたのしませること)を目的につくられたものである」という。
 それなら編集者は何を「編集」しているのか。原稿を編集するのは、あくまでもライターであり、そして編集者は、原稿の外側にあるものを、つまりコンテンツの「パッケージ」を編集する人間である。「誰が(人)」「なに(テーマ」」「どう語るか(スタイル)」のパッケージを設計していくのが編集者の最も大切な仕事だという。

 いま、「原稿を編集するのは、あくまでもライター」であり、そして編集者は、原稿の外側にあるものを編集(=設計)すのというように書いた。おそらく、このときの編集者とライターの役割を大事にしないといい本はつくれない。もちろん、編集者=ライターという仕事をしている場合は、編集者は、2重の役を果たすことになる。いままでは、ライターは影の存在で編集者が中心だった。それは、出版の歴史とともにあった長い蓄積がある。よき編集者もたくさんいる。だから、ライターはただ、編集者のオファーに応えていればよかった。しかし、いま、時代が変わりつつあるという。

<いま、ライターを名乗る人のほとんどは「ウェブ」を主戦場としている。それ自体はまったく自然の流れだし、ウェブメディアだからこそできることも多い。問題は、オウンドメディアを筆頭に、専業の──あるいはプロと呼べる──編集者をもたないメディアた急増していることだ。一般にウェブディレクターと呼ばれる彼らの多くは、アクセスデータを読むことはできても、編集ができない。進行管理はできても、編集ができない。そのため、つくられるコンテンツの多くは「いま流行っているもの」や「最近数字がとれたもの」の後追いになってしまう。残念ながら世のなかにあふれるコンテンツの質、その平均値は明らかに減退している。>(『取材・執筆・推敲──書く人の教科書』より)

 これを超えるには、ライターは、これまで以上に「編集」に踏み込む以外にないという。そして、人気を集めているライターは、文章力以上に「編集力」の確かさで支持を得ていると主張している。つまり、ラインターも編集力を身につけるほかないが、それでもライターとしての役目の自覚も大事だという。古賀史健は、「ライターとは、空っぽの存在である」という。だからこそ、ライターは取材するのであり、自分と同じ場所に立つ読者に代わって、取材するのだという。

<小説家が小説を書き、詩人が詩を書き、エッセイストがエッセイをかくのだとした場合、ライターは何を書いているのか?
 取材したこと、調べたことをそのまま書くのがライターなのか?
 違う。絶対に違う。僕の答えは、「返事」である。>(同上より)


 古賀によれば、「取材者」であるライターは取材相手への返事を原稿にしているのだという。

<ライターは、取材に協力してくれた人、さまざまな作品や資料を残してくれた作者、あるいは河川や森林などの自然に至るまで、つまり空っぽの自分を満たしてくれたすべての人や物ごとに宛てた、「ありがとうの返事」を書いているのである。>(同上より)


 この本では、「返事としてのコンテンツ」をどのようにつくるのか、「取材・執筆・推敲」の過程を通して、具体的にとてもわかりやすく説明されている。現在「言語化」という言葉が流行っているが、ここに本来の意味での「言語化」の作業の大切さ面白さが、古賀史健の経験を踏まえて書かれている。そして、ライターの奥深さが理解できる。もともと著者として出発した人を別にして、編集者からライターに変身しようとしている人にとってとても大切な基本が書かれていると思った。特に、前の経験に引きずられることなく、常に新たに、自分を空っぽにして取材から始めるということは、とても大切なことだと思った。
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

生成AIの進化についての誤解

2024-06-10 10:29:15 | デジタル・インターネット
 私は、生成AIの活用について誤解していた。生成AIを上手く活用できれば、だれでもプロになれるという時代がきたという誤解である。2022年の年末にChatGPTが登場して以来、瞬く間に普及し、いろいろな文章や画像が簡単に制作できるようになり、その技術は進化している。そして、いろいろな活用の場面が想定され、実際に活用の結果優れた製品もできつつある。しかし、そうした活用ができるのは、実は素人では無理で、プロフェッショナルであることが前提になっているということに気がついた。だから、一般にはなかなか普及しないということでもある。もちろん、単なる、検索や対話で使われているだろうが。

 例えば、ある絵を画像生成AIに書かせても、ちょっとおかしな手の形、あるいはちょっとおかしな構図があっても、それを簡単には直せない経験はないだろうか。イラストレイターであれば、そのおかしな構図や絵を直ぐに修正することができる。つまり、生成AIは、60点ぐらいの作品はできるが、それを80点以上の質に上げることは、その道のプロでないとなかなか難しいということだ。文章で言えば、一般常識的な知識や情報は生成できるが、とんがった個性的な視点や内容を生成するためには、それなりの専門家ないと難しいということである。

 生成AIというのは、中途半端な使い方しかできないと、中途半端な仕事しかできないということでもある。例えば、画像生成AIを使って、こんなような構図でこんなような内容の絵を描いてくださいとイラストレイターに依頼する見本のとして、使うことはできるが、実際に絵を描くのはイラストレイターである。もちろん、大量にしかも簡単に製作するために60%のできでいいということであれば、つまり、単なる下絵でいいので使ってみるというのも一つの仕事である。しかし、その人は、優秀なイラストレイターにはなれない。ある意味では、画家のアシスタントになるだけである。

 現在では、生成AIをめぐって一つの格差が生まれようとしている。つまり、生成AIは誰でもが使えるが、その使い方には明らかに格差があるということだ。プロが使えれば、それは優秀な助手になるのだが、中途半端なひとが使うととても仕事にはならないという格差である。一方では、仕事を拡張してよりいいものをつくる人がいるかと思えば、他方では専門性を持っていないので、売れる仕事にならず、単なるアシスタントになってしまう。実際に、それらがいま起こりつつあるような気がする。そして、後者の場合は、上手く活用できなくて、役に立たないと放り投げてしまうことにもなる。本当に有効に使えるのは実際に仕事をしている優秀なプロだけかもしれない。彼らはAIを使うことによってより優れた作品をつくり出せる。もちろん、生成AIとともに進化している人もいるかもしれないが、素人のままで素晴らしい作品をつくった人はいないと思われる。

 もちろん、ネット上のSNSやブログなどに素人が生成した文章や画像を投稿していて、それらが溢れかえっているのも事実である。しかし、それはそのままでは、優れた作品になっているわけではないということも当然である。優れた作品になるためには、実は、専門家の手を通してしかできないのだ。生成AIは、優れた同伴者であるが、人間ではない。活用する人間が専門家でないと、生成AIのという同伴者は上手く機能してくれないのだ。

 一時期、生成AIの登場によって、いろいろな仕事がAIに代替され、クリエイターの仕事がなくなるということが話題になった。医者や、弁護士、会計士までAIの代替されるというのである。しかし、それは本当ではない。あるのは、優秀な医者や、弁護士、会計士がAIを上手く使って優れた仕事ができるようになり、そうでない人は、つまり、AIと同じようなことしかできない人たちが淘汰されていくだけだ。おそらく、当面のところ、本来の専門家はなくならないし、より必要になるに違いない。逆に、専門家のなかにも格差が生まれる可能性のほうが高いと思われる。

 私は、生成AIの活用される時代になると、仕事が標準化され、誰でもがプロになれる時代がやってくるとある意味で素朴に信じていたところがある。文筆家や画家は生成AIによって必要なくなるとさえ思っていた。確かに、生成AIが進化し、ほとんど要望どおりのものを生成してくれるようになることは間違いない。しかし、それでもなお、そうしたAIは、それを使う人の才能と技量に依存するのであり、生成AIがかってに創造してくれることはあり得ないと思う。

 私は、そんなに優秀な編集者ではないが、自ら編集のプロであることによってのみ、仕事のなかで生成AIの活用ができるのである。またこれからの時代は、生成AIを活用できことが編集者の一つの機能になることは確かだ。例えば、現在、Wordが使えないようでは編集者としてはおそらく失格だろう。もちろんWordだけでなく、InDesignが使えた方がよりいいことは確かだ。しかし、その逆は正しくない。WordやInDesignが使えるからといって編集者であるわけではないのだ。生成AIは、これからはプロであれば使えるようになることは、当たり前の時代になってきているが、生成AIが勝手に文章を作ったり、絵を描いたりしてくれるわけではないのだ。確かに、編集者の生産性は、それによって大きく左右されることになってくると思われるが、忘れてならないのは、優れた編集者になることが、生成AIを上手く使うことができる前提条件でもあるのだということだと思う。
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

ChatGPTの衝撃(2023年のこと)

2024-01-07 13:29:18 | デジタル・インターネット
 昨年、ChatGPTはさまざまな意味で世界に衝撃を与えた。その中で、以下の3つがおそらく最も大きな衝撃であった。

 1つ目は、ChatGPTが普通の文で質問に答え、何でもやってくれそうに見えるため、シンギュラリティが近づいているのではないか、多くの仕事が奪われるのが現実になるのではないかという危機感を抱かせたことである。

 2つ目は、これまで変な回答をするのではないかという恐れから公開を躊躇していたGAFAMが、ChatGPTに衝撃を受けたことだ。特に、Microsoftは早くからOpenAIに投資し、Azureを使って大量データの学習を行っていたため、すぐにBingにAIを搭載したが、Googleは激震を受けたと言われる。その後、GoogleやMetaも新しいAIを公開したが、Bardは最初の登場時に時折変な答えをすることがあり、批判された。

 3つ目は、ChatGPTや新たな大規模言語モデル(LLM)のエンジンを使ってAIサービスを開始しようとする動きがあったことだ。テレビ東京のドキュメント番組では、シリコバレーのエンジニアたちが興奮している様子が取り上げられた。松尾豊氏の言葉を借りれば、第4次AIブームが来たのではないかという状況である。

 イーロンマスクや他のアメリカの開発者たちはChatGPTの開発に対して警告を発し、AIの使い方についてもう少し検討すべきだとし、開発を6か月間停止すべきだと主張した。日本のホリエモンは、6か月という期間を区切ったことから、後発のAI企業などの思惑が絡んでいると指摘した。META、Google、X、Microsoftなども大量の解雇を行ったり、発表したりしており、GAFAMはIT業界の後退局面をどう乗り越えるか模索していた。

ChatGPTは、実際に何ができるのか。どんなAIなのか。GPT-4に質問してみた。

■ChatGPTは、どんなAIで、何ができるか

ChatGPTは、OpenAIによって開発された大規模な言語モデルで、GPT-4アーキテクチャをベースにしている。このAIは、自然言語処理(NLP)タスクにおいて高い性能を発揮し、さまざまな用途で利用できる。主な機能は以下の通りだ。

自然言語の理解:文章や質問を理解し、適切な回答や情報を提供する。
文章生成:与えられたテーマや文脈に基づいて文章を生成する。物語やブログ記事、ニュースなどの作成が可能。
質問応答:質問に対する回答や解決策を提案する。一般的な知識から専門的な内容まで対応可能だが、知識のカットオフは2021年9月までである。
概要作成:長い文章や記事を要約して、短く簡潔な概要を作成する。
翻訳:複数の言語間での翻訳が可能。
コンテンツの改善:文章の文法や表現を修正し、より明確で洗練された文章に編集する。
ただし、ChatGPTは学習データに基づいて生成された回答を提供するため、最新の情報や未知のトピックに対応できない場合がある。また、時折誤った情報を提供することもあるため、利用者はその点に注意して活用する必要がある。

■GPT-4アーキテクチャとはどんなしくみか

GPT-4(Generative Pre-trained Transformer 4)アーキテクチャは、OpenAIが開発した大規模な深層学習モデルで、自然言語処理(NLP)タスクにおいて高い性能を発揮する。GPT-4は、GPT-3の後継モデルとして、性能向上とスケーラビリティの追求が行われている。以下の要素に基づいている。

トランスフォーマーアーキテクチャ:自己注意(self-attention)メカニズムを利用し、入力されたシーケンスの文脈を効果的に捉えることができる。
生成的事前学習:大量のテキストデータを用いて非監視学習で事前学習され、自然言語の文法や構造、一般的な知識を獲得する。特定のタスクに適応するために、監視学習を用いて追加の学習(ファインチューニング)が行われる。
マスクなし言語モデル:入力されたテキストの次に来る単語やフレーズを予測することで、文章生成や質問応答などのタスクを行う。
スケーラビリティ:大規模なデータセットや計算リソースを活用することで、性能が向上する。
逐次的な処理、転移学習、ファインチューニングにより、GPT-4は自然言語理解や生成、質問応答、翻訳、要約など、多様なNLPタスクを効率的にこなすことができる。ただし、GPT-4も完全ではなく、時折誤った情報を提供したり、意図しない文章を生成することがある。また、学習データに含まれていない最新の情報や未知のトピックに関しては対応が難しい場合があるため、利用者はGPT-4の回答や生成物を慎重に評価し、適切な応用や修正が必要である。

ただし、GPT-4も完全ではなく、時折誤った情報を提供することがあるし、意図しない文章を生成することもある。また、学習データに含まれていない最新の情報や未知のトピックに関しては対応が難しい場合もある。そのため、利用者はGPT-4の回答や生成物を慎重に評価し、適切な応用や修正が必要な場合があることを理解しておくことが重要である。
(ここにある「自己注意(self-attention)メカニズム」というのは、トランスフォーマーの面白い点で、OchiaiAIのイリア・サツキバーは、このメカニズムを知り、GPTの開発に取り掛かることができたと、どこかで読んだ記憶がある).

 これを見ると、ChatGPTはいろいろな自然言語処理ができるが、最新の情報を持っていなくて、時おり過ちを犯すと言っている。したがって、現在、ChatGPTを使ったさまざまなサービスが開発されようとしているが、最新の情報を学習させたり、専門的な分野に特化させたり、できるだけ誤りを少なくする工夫をしているようだ。ChatGPT側からも、それらのプラグインのようなものを使って、たとえば旅行などを企画した場合に、専門のサイトと連携して、ぴったりの旅館の予約ができたりする。GPTを使って記事を書くこともできないことはないが、そのまま使うには問題があるようだ。
また、現在開発競争が行われているGoogleのBardやMicrosoftのCopilotなど、さらにAdobeの画像生成システムAdobeFirlyなどもいろいろなことに活用できるだろう。要するに、ChatGPTの登場は自然言語処理の世界に大きな一歩を踏み出させたということを理解することが重要である。これは、MicrosoftやGoogleが途中まで挑戦し、手をつけるのを先延ばししていたことを、「間違った回答もします」と公言することで乗り越えたものだ。ChatGPTでも、悪いことを全くできないというわけではなく、とんでもないことを言わせることも可能である。

 大切なことは、ChatGPTは何かを知っている機械ではないということである。それは、質問という条件の中で最も妥当な言葉を選択し、並べているだけである。つまり、ChatGPTは、微視的には、常に次にどの言葉をつなげるべきかを確率的に計算し、その結果、最も確率の高い言葉を並べているわけである。これは、おそらくベイズ的推定によって行われている。この意味では、脳が言語を生成している場合と微視的には同じかもしれない。ただし、数兆個のコーパスを持っていると言われているので、それは言語的な知識となっている可能性がある。アメリカの現在の大統領は誰かという質問にトランプと答えるのは、そういう知識があるからである。ここには、一種の推論のようなものさえ見える。まるで人間が考えているかのように見える。

 だから、ChatGPTの最も適切な活用法は、いかに言葉の選択をやりやすいような条件を与えることにある。落合陽一が動画で実演し、自分の履歴を渡し、それに基づいて自分になりきって文章を生成させる方法は、最も妥当なやり方であると思われる。つまり、ChatGPTは何かになりきって文章を生成することができ、それが最も適切な文章生成の方法であると言える。今年から、GPT'sというストアがオープンし、特別にカスタマイズされたChatGPTが登場する。ChatGPTとの付き合い方の最終形態は、おそらくそこにあると思われる。また、今年1年、OchiaiAIに翻弄されることになるかもしれない。
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

Web上の安全性ということ

2012-03-04 21:40:57 | デジタル・インターネット

 ある人にFacebookをやらないかと言ったら、情報が漏れそうで怖いと言う。それと同じような言い方を別の人からも聞いた。その人は、ケータイでは、迷惑メールを受け付けないように設定しているから大丈夫だと言っていた。多分、その人は迷惑メールを見ていないので、自分のところには来ていないのだと思っているらしい。私は、受け付けない設定にはしていない。どんなメールがくるのかは、本当はよく見ておくべきだ。勿論自信がない人は、受け付けない設定にしたほうが、安全かもしれないが。

 Facebookは、実名で登録することになっているのでそれが怖いらと思うらしい。そして、アメリカの一私企業がそうしたデータを管理しているというところがさらに怖いという。しかし、それが怖いなら、私たちは、銀行やNTT、ケータイ電話会社などにもっと詳細なデータを渡している。国には、更にもっといろいろなデータを渡している。多分、渡してはいけないデータをもっている人は、怖いのだろうと思う。しかし、実際のところ、Facebookの登録に必要なのは、自分の実名とメールアドレスだけだ。勿論、そこで書き込んだり、アップしたりしたデータは、Facebookに自由に使われるということは覚悟すべきだが。

 本当は、私たちが普段やっているケータイやネットでのメールのやりとりについては、そんなに気を付けていないことのほうが恐ろしいことである。多分、FacebookやGoogleの登録に恐れを抱くような人たちのほうが、最もだまされやすいのではないかと思う。セキュリティーというのは、秘密にしなければならないものが多ければ多いほど難しいのだ。だから、私は、自分のパソコンや、会社のパソコンより、GoogleやFacebookのシステムの方が、安全だと思う。ただ、Web上ではつい無防備になって、自分の秘密をさらすことは止めた方がよい。勿論、FacebookやGoogleの安全性というのは、相対的なものであり、絶対ではないことだけは確かである。

 最近、学校が安全のために、門を閉ざし、了解を得なければ入れなくなった。確かに、不審者は中に簡単には入れなくなった。しかし、本当の不審者対策としては不十分だと思う。父兄や教師や児童の犯罪はそれでは防げないのだし、彼らの関係者も防げない。それに、密室になった空間は、本当は怖い空間なのだ。そこで起こっていることが見えないからだ。もっと学校が地域に開かれていて、自由に出入りできたら、もっと犯罪が起きる危険は減るのではないかと私は思う。むしろ、そうした対策を講じなかったことの責任を回避するために、防備しているのかもしれない。

 オープンであることによって、身の危険を曝すことになる人と、逆に安全になる人とがいる。確かなことは、政治家は、前者であり、名もない庶民は後者だ。おそらく、中国や北朝鮮では、それは、はっきりしている。きっと、中国や北朝鮮のシステムとGoogleやFacebookのシステムとどちらが安全かと問われたら、はっきりしている。勿論、私たちは、サラリーマンであることが多いので、隠さなければならないことも多い。しかし、私たちは、情報がオープンになることによって、身の安全を確保できることもあるということは知っておいたほうがよいと思う。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする