ChatGPTを使ったり他の人たちによる様々な投稿や記事を読みながら思ったのは、「ChatGPTを使うことは、才能ある子どもと話すのに似ている」ということです。
AIと向き合っているとまるで子どもとそうしているようにイメージすることが多いのですが、それはおそらくAIが活躍できるように世の中のことを教えてあげなければならないと思うからでしょう。
しかしChatGPTは私の印象をはるかに超える、洗練されたものでした。それはまるで早熟で才能のある、エイリアンの子どものようなものだったのです。
一見すごい能力を持っているようだが、私たちが生きている世界の基本的なことも知らない。話しかけたり質問をすると時折素晴らしいことを言いますが、なぜそう答えたのか、その答えは正しいのか、質問の仕方がまずかったのかはよくわからないのです。
私たちはコミュニケーションをとる相手に対して何らかの影響を与えることを期待するものです。それは普通のことでしょう。自分が話す相手に影響を与えることができるのですから。
しかしデータがクラウドをベースとしている以上、それ使う人すべてが、AIの改善に寄与し、悪化させないことに期待せねばなりません。ChatGPTは信じられないほど明晰な洞察力とまれに奇妙な回答の間を行き来する、理解しがたい存在と言えます。
もしChatGPTが人間だったら、あなたはそのような人を雇いますか?あなたの製品、サービス、ブランドのスポークスパーソンにしたいですか?毎日顧客と接する人にできますか?おそらくそうではないでしょう。
ChatGPTや大規模言語モデル(LLM)をビジネスで使うことは素晴らしい結果を期待させますが、一方でリスクも伴います。ここではそのリスクの一部を紹介します。
目次
- データ
- 1.1 どこからデータを拾ってくるのか?
- 1.2 あなたが入力したデータはどこで、どう処理されるのか?
- バイアス
- 2.1 データやアルゴリズムにどんなバイアスがかかっているのか?
- 嘘
- 3.1 質問に対する答えは常に正しいのか?
- 的外れのメッセージ
- 4.1 ブランドの価値、メッセージ、ペルソナをどの程度コントロールできるのか?
- モデレーションに人の力が必要
- 5.1 この「魔法のような」ツールが機能するために、低賃金で働く膨大なチームが必要となる
- 競争
- 6.1 軍拡競争になってもユーザーのニーズや権利を忘れずにいられるのか?
- 著作権
- 7.1 アウトプットは誰のもの?
- 7.2 インプットは誰のもの?
- アルゴリズムとそのコントロール
- 8.1 他人が作ったアルゴリズム信頼することになる
- 大規模言語モデル(LLM)とChatGPTを使うべき場所
- まとめ