Apple Intelligenceについて、妙に「怖い」を連発している動画をみて、そこまで怖がらなくても、印象操作か?しかも誤解も入っているようだし。なんて思ってしまったので、ちょっと硬くなるが思うところを書く。
Appleはプライバシーが重要だという立場を取っている。それは過去のエピソードにも現れている。
・2015 カリフォルニア州サンバーナーディノで起きた銃乱射事件
・2019 米フロリダ州ペンサコラの米海軍施設で起きた銃撃事件
いずれも、FBIからのiPhoneのロック解除要請をAppleは断っている。しかし、2019年の事件については、iCloudのバックアップデータやアカウント情報・やり取りのデータなど数GBを捜査機関に提供し、「アップルが捜査に協力していないとする印象操作のような発言は受け入れられない」という声明を出している。
捜査への協力は惜しまないが、iPhoneのロック解除については捜査要請であっても行っていない。印象に気を使ってという部分はあるかもしれないが、顧客への大きなメッセージであることは間違いないと思う。
少し詳細に入ると、ロック解除のためには「バックドア」という仕組みを導入する必要があるが、これを用意してしまうと、悪用されない保証はないからだとAppleは説明している。
そのようなAppleが、Apple IntelligenceでAIを活用すると発表したことについて、個人のデータを覗き見られて怖いというような論調は、多分に感情論が先に立っているというべきだと考える。もちろん無条件に100%信用すればいいとは言わないが、上記のような姿勢を見せてきたAppleが、知らぬ間に個人情報を監視あるいは漏洩するようなことがあれば、大きな批判にさらされることは想像に難くない。そのようなリスクを犯すだけの動機がAppleにあるのかということをよく考えるべきである。
AIと言うことによって、あたかもAppleの誰か、あるいはその背後にいる何者かの意思を持って個人のデータを除かれてしまう、という想像が巡っているのだろうという想像はできる(笑)。技術的にいえば擬人化しすぎだし、これまでのAIの報道のされ方にも問題はあると思う。とはいえ、中身がわからなくなってくると怖くなるのは一般心理としては理解できる。
IT関係ではよく知られた言葉がある。
「利便性とセキュリティは両立しない」
使いやすくということだけを追求しようとすると、セキュリティは一般におろそかになる。セキュリティを追求すると使い勝手は犠牲になる、ということを端的に表している言葉だ。
今回のAppleの発表は、使い勝手を改善するものであるが、セキュリティにも気を配っているよ、というメッセージが散りばめられている。データをクラウドやChatGPTに渡して処理する際に個人を特定しないよう符号化したり、IPアドレスを読み取れないようにするなどだ。
これまでにもApple製品にはSpotlightというDB化・検索機能が備わっていた。定期的に同じ場所へ行くなどをしていると、適切なタイミングでそこまでのマップを出すアシストをするなどである。監視されて怖いというなら、すでに怖いことは行われている(笑)。これをテクノロジーの進化と見るか監視化社会だと見るかであるが、その判断にはテクノロジーの理解が欠かせない。AIの推論がどう行われるかという細かいレベルまでは必要ないとしても、どういう情報をもとに、どういう連携が行われて結果が得られているのか、そこに抜け穴があるとすればどこで、ユーザーはどう対処すべきなのか。広く見られることを目的として動画を作成するのであれば、こういう部分をもっと啓蒙していくことの方がユーザー・メーカー双方の利益になると思うのだが。
それでも、騙されない保証はない。Appleとて、慈善事業を行っているわけではない。最善の手は、そのテクノロジーに近づかないことだ。
だが、自分で自分の評判を落とすようなリスクを犯してまでAIによる監視・情報漏洩を行うのか、ということは考えておくべきだと思う。
もしもそれが本当に現実となったら、私もAppleを見放すだろう。