AIが感情を持つか、知覚を持つか、機械処理となると、そういうものはない。
それが計算機によるということでデータ解析の無限大になるまでの可能性にその答えは変わってくる。
人間の感情は喜怒哀楽としてみるならそれは記憶にある身体反応が蓄積されるものであって、それこそ生命体の生命であるゆえんのひとつ、不随意筋による心臓の動きに知覚がかかわってその時々の神経反応が体を動かしているものである。
例えば喜びの表情と身体躍動、それが怒りとなればさらに強く、悲しみに逆に弱くなるような、平安を求める気持ちに、それぞれ感情があると見るのが、人間の生命体であるからでもある。
しかしコンピュータが不安について計算してその答えを引き出すとわたしたちはコンピュータが不安を感じていると解釈してエスカレートする思いを一般に抱くようになるのだろう。それは機械なのであるがAIの命令に生命体と同じく表情を持ち躍動するということになってくると人間の側では対物にあるものが人間ロボットになってくる。
人工知能(Artificial Intelligence、AI)とは、計算の概念とコンピュータを用いて知能を研究する計算機科学(コンピュータサイエンス)の一分野。
IoT用語辞典
https://www.keyence.co.jp/ss/general/iot-glossary/ai.jsp#:~:text=AI%E3%81%A8%E3%81%AF%E3%80%81Artificial%20Intelligence,%E6%8A%80%E8%A1%93%E3%82%92%E6%84%8F%E5%91%B3%E3%81%97%E3%81%BE%E3%81%99%E3%80%82
> AI(人工知能)
よみ:えーあい(じんこうちのう)、英字:AI(Artificial Intelligence)
コンピュータがデータを分析し、推論(知識を基に、新しい結論を得ること)や判断、最適化提案、課題定義や解決、学習(情報から将来使えそうな知識を見つけること)などを行う、人間の知的能力を模倣する技術を意味します。AIは、センサからの情報や画像・テキスト・音などの情報を受け取り、知的能力を模したアルゴリズムにより、処理実行を行います。
アルゴリズム
よみ:あるごりずむ、英字:algorithm
アルゴリズムとは、「算法」ともいわれ、ある問題に対して、正解を引き出すための一定の手続きまたは思考方法を指します。
その通りに実行すれば必ず特定の結論に達するというもので、数学の公式やプログラミング言語を使って問題の解決手順を記述したコンピュータプログラミングは、アルゴリズムの代表といえます。実行することで、有限時間内に解が得られるものが正しいアルゴリズムとされます。
ヒューリスティック
よみ:ひゅーりすてぃっく、英字:heuristic
ヒューリスティック、またはヒュリスティック(ヒューリスティックス、ヒュリスティックス[heuristics]とも)とは、ある程度正解に近い解を見つけ出すための経験則や発見方法のことで、「発見法」とも呼ばれます。
いつも正解するとは限らないが、おおむね正解するという直感的な思考方法で、たとえば、服装からその人の性格や職業を判断するといったことは、ヒューリステックな方法といえます。理論的に正しい解を求め、コンピュータのプログラムなどに活用される「アルゴリズム」に対置する概念です。
https://wired.jp/article/italy-ban-chatgpt-privacy-gdpr/
AIの学習データに含まれる個人情報が、ChatGPTにとって“大問題”になる
>OpenAIが大規模言語モデル「GPT-3」を2020年7月に発表したとき、その学習データの内容の一部が公開されている。技術文書によると、ウェブページや掲示板サイト「Reddit」の投稿、書籍などから取得された数百万ページ分のデータが、この文章生成システムの開発に使われていた。さらに人々がオンラインで共有する個人情報の一部もデータには含まれていたことから、OpenAIにトラブルをもたらすことになったのである。
イタリアの個人データ保護当局(GPDP)が2023年3月31日、OpenAIが使用する学習データに含まれる数百万人のイタリア人の個人情報の使用を停止するよう、同社に求める緊急暫定措置を講じた。GPDPによると、OpenAIは同社の会話型AI「ChatGPT」で人々の個人情報を使用する法的権利を有していないという。この決定を受けてOpenAIは、イタリア国内からのChatGPTへのアクセスを停止し、調査を進めている当局に回答を提供する予定だ。
>イタリアのGPDPは、ChatGPTには欧州のGDPRに基づいて4つの問題があると考えている。その4つとは、OpenAIが13歳未満の子どもがChatGPTを使用できないようにするための年齢管理をしていないこと、個人に関する不正確な情報を提供する可能性があること、データ収集の対象者に対象となったことが知らされていないこと。そして恐らく最も重大な4つ目の問題は、ChatGPTのトレーニングに使用される膨大なデータにおいて人々の個人情報を収集する「法的根拠がない」ことである。
「イタリア当局はChatGPTの合法性を問い正したのです」と、英国のニューカッスル大学教授で法律、イノベーション、社会学を教えるリリアン・エドワーズは言う。「欧州連合(EU)では、データ保護法違反であることはかなり明白だったようです」