今日の視点 (伊皿子坂社会経済研究所)

 伊皿子坂社会経済研究所のファイリングサイトにようこそ。

♯831 プロファイリングのリスク

2017年07月16日 | 社会・経済


 今の日本で「プロファイリング」と言えば、犯罪の性質や特徴から行動を分析し犯人の特徴を推論するという、刑事ドラマでおなじみの犯罪捜査手法として知られています。

 個人の経歴をひとまとまりの情報としてまとめた「プロフィール」はフランス語「Profil」を語源とする言葉で、英語では「Profile」と綴られ「プロファイル」と発音されます。

 一方、その名詞形である「プロファイリング(Profiling)」は、オックスフォード辞書によれば、「ある分野における能力を評価・予測するため、若しくは人々の分類の識別を支援するために、個人の精神的及び行動的特性を記録・分析すること」とされており、その用途は(何も)犯罪捜査に限ったものではありません。

 プロファイリング(の奔流)は、今やインターネットを介した広告ビジネスの世界で広く用いられている手法です。グーグルやアマゾン、フェイスブックをはじめとして、多くのネットメディアがウェブの閲覧履歴や購入行動の傾向などを分析し、性別や年代、行動や嗜好を推測して広告活動などにつなげていることは既に広く知られています。

 アマゾンで一度本を買えば、(お願いしているわけでもないのに)嗜好に合わせた本を次々と紹介してくれます。フェイスブックでは、「友だちかも?」と何人もの人を紹介してくるし、ニュースサイトに表示される記事はユーザーの興味に合わせてそれぞれカスタマイズされた内容になっています。

 例えば、私たちがソーシャルメディアで「いいね!」ボタンを押したデータやリツイートのデータは個人のアカウントのデータベースに瞬時に蓄積され、本人も知らないうちに趣味嗜好の精度を上げています。また、スマートフォンが普及により、ネットに留まっていたデータにはさらに位置情報が加わり、現実の世界での行動特性もデータとして収集・分析されるようになっているようです。

 こうして、個人に紐付けられた行動履歴データを集めて分析する、すなわち「プロファイリングする」ことによって、例え本人が「誰か」は分からなくても、対象とする個人の人物像をかなり詳細に描くことが可能となっているのが現状と言えるでしょう。

 こうした現実に対し、自分が知らないところで個人情報が勝手に引き出されて分析処理され、勝手に作られた個人像が知らないところで利用されたり、場合によっては差別されるなどいろいろな問題が起きる危険性を指摘する声があるのも事実です。

 実際、アメリカでは、消費者の不動産の取引履歴やアマゾンの購入履歴、フェイスブックの広告の閲覧履歴などがすべて「データブローカー」に共有されていて、誰が妊娠をしていて、どの顧客が花粉症にかかっているかなど、プロファイリングはもはや当たり前の手段として日常的に利用されているという指摘もあります。

 4月26日の日本経済新聞の紙面では、慶応義塾大学教授の山本龍彦氏がこうしたプロファイリング技術の一般化に対し、「個人の尊重揺るがす恐れ AIのリスクに対応急げ」と題する論評により警鐘を鳴らしています。

 氏はこの論評において、AIが普及した現代においては、費者は心の奥底に秘めた私事もAIには常に見透かされていることを覚悟する必要があると指摘しています。

 これは、セキュリティーの問題にとどまらない重要な人権侵害の可能性を秘めたものであり、(利用のされ方によっては)従来のプライバシー権を巡る議論の枠外にある新たなリスクを人々にもたらすということです。

 山本氏はこうしたリスクの第1に、AIによる「社会的排除」を挙げています。

 例えば、求人サイトの世界では、求職者などの職務上の能力をプロファイリングにより評価する技術が既に開発されているということです。

 その精度が高まれば、データに基づくAIの確率的な判断のみで採用・不採用が決まるという事態も起こりうる。そこでは本人の具体的事情や努力は捨象され、本人がいくら抵抗しても、AIの判断は科学的な信ぴょう性を持つだけに「AIが決めたことなので」と一蹴されてしまう可能性があると氏は説明しています。

 求職者に限らず、個人の「信用評価」において、一旦、AIにより不適格の烙印を押された者は、「確率という名の牢獄」「バーチャルスラム」とも表現される見えない塀の中で一生過ごさざるを得なくなるかもしれないと山本氏は述べています。

 実際、米シカゴ警察では効果的な犯罪予防活動のためAIを用いた暴力犯罪者の予測を進めており、暴力性に関する情報と信用情報などとの統合・連結による犯罪捜査や犯罪防止対策が試みられているということです。

 氏はこうした取り組みを、最先端の情報技術を使ってわれわれを固定的で予定調和的な「前近代的」世界へと引き戻すような行為だと厳しく否定しています。個人の人格や能力をAIにより確率的に判断し様々な可能性を事前に否定することは、個人の尊重原理と鋭く矛盾するということです。

 さて、この論評で山本氏が指摘する第2のリスクは、「自己決定原理の揺らぎ」というものです。

 ビッグデータを解析すると、例えば、女性は鬱状態にあるときに化粧品の購買傾向が高まるという結果が見えてきます。そこで、閲覧履歴などに基づき消費者が鬱状態にあるかどうかを予測して、その瞬間を狙って広告配信することを推奨するという販売戦略が生まれているということです。

 氏は、こうした動きは個人の精神状態をのぞき見る点でプライバシーの問題に関わると説明しています。精神的に脆弱な瞬間につけ込み、商品購入に向けた意思形成過程を操作しようという試みは消費者の自己決定権を侵害に当たるものであり、消費者が「自ら決める」のではなく他者に「決めさせられる」ようになる危険性を示唆しているということです。

 さらに、この論評で山本氏が示す第3のリスクは、「民主主義原理の揺らぎ」というものです。

 個人がAIの予測した政治的信条に合致したニュースや論評のみを配信され、それ以外の情報をフィルタリング(閲覧制限)される現象は「フィルターバブル」と呼ばれています。こうなると、自身は心地よくても信条を異にする他の情報との接触機会は減じられ、個々人の思想が極端化して政治的分断が一層深刻化すると指摘されているということです。

 既に近年の米大統領選挙では、ビッグデータ分析が多用されていると山本氏は指摘しています。さらに今後は、AIで有権者の支持政党などを予測し、特定の情報を選択的に配信することで関係者が投票行動を恣意的に操作する、「デジタル・ゲリマンダリング」と呼ばれる選挙戦略も現実のものになるということです。

 AIネットワーク化のもたらすリスクは、近い将来プライバシーを超え、個人の尊重や民主主義といった近代憲法の基本的な諸原理にも及ぶと山本氏は見ています。

 ところが日本では、いまだ「情報漏洩を防ぐセキュリティーシステムとは何か」といったこまごました技術的問題を中心に議論が進んでおり、国民を巻き込んだ憲法論は不活性なままでいる。

 これでは、一部のステークホルダーにより憲法原理そのものが変容し、気が付けば巨大な「バーチャルスラム」が形成されていたという事態も生じかねないというのが、AIネットワーク化を放置するリスクに対する山本氏の認識です。

 もちろん、AIが個人の隠れた才能を発見したり、個人の病気をみつけ適切な治療方法を指示したり、一般意思を予測してより豊かな民主主義を可能にしたりすることもあるだろうと山本氏はしています。

 AIネットワーク化は、そうした意味では憲法の基本原理の実現に資する側面もある。で、あればこそ、技術的な問題にとどまらない重厚な議論を今すぐ活発化させる必要があるとこの論評を結ぶ山本氏の指摘を、私も大変興味深く読んだところです。


『社会』 ジャンルのランキング
コメント   この記事についてブログを書く
この記事をはてなブックマークに追加
« ♯830 ポスト公共事業 | トップ | ♯832 性同一性障害と向き合う »
最近の画像もっと見る

コメントを投稿


コメント利用規約に同意の上コメント投稿を行ってください。

数字4桁を入力し、投稿ボタンを押してください。

あわせて読む

トラックバック

この記事のトラックバック  Ping-URL
  • 送信元の記事内容が半角英数のみのトラックバックは受け取らないよう設定されております。
  • このブログへのリンクがない記事からのトラックバックは受け取らないよう設定されております。
  • ※ブログ管理者のみ、編集画面で設定の変更が可能です。