(👨基本的人権はどこに❔)
「ホテル・ルワンダ」英雄に有罪 テロ関連で訴追、禁錮25年
【ナイロビ共同】ルワンダの裁判所は20日、テロ組織に加わったなどとして訴追された元ホテル支配人ポール・ルセサバギナ被告(67)に禁錮25年を言い渡した。ロイター通信が伝えた。被告は1994年の大虐殺を扱った映画「ホテル・ルワンダ」でホテルに避難者をかくまう英雄として描かれた。
ルワンダ政府は、2018年に市民が死傷した事件の実行グループに被告が関与したとして非難。検察側は終身刑を求刑した。被告側は訴追内容を否認していた。
被告は強権的なカガメ大統領を公然と批判してきたことでも知られる。国外にいたが、捜査当局が昨年8月に逮捕を発表した。
仏 ルワンダ大虐殺の責任認める 「実行体制側を支持」
【パリ共同】フランスのマクロン大統領は27日、約80万人が死亡したとされる1994年のルワンダ大虐殺を巡り「(当時の)フランスは大虐殺を行った体制側にあった。謙虚に私たちの責任を認める」と表明した。訪問先のルワンダの首都キガリで演説した。
明確な謝罪には踏み込まなかったが「私たちを許すことができる」のは大虐殺の生存者だけだと言及しており、事実上許しを請うた形。マクロン氏は大統領就任後、ルワンダとの関係正常化を図っており、大統領府は今回の訪問を「最終段階」と位置付けている。
【独自】駅の防犯対策、「顔認識カメラ」で登録者を検知…JR東が一部出所者も対象に
JR東日本が7月から、顔認識カメラを使って、刑務所からの出所者と仮出所者の一部を駅構内などで検知する防犯対策を実施していることが、わかった。必要に応じて手荷物検査を行うとしている。刑期を終えた人らの行動が監視、制限される可能性があり、議論を呼びそうだ。
JR東や関係者によると、検知の対象は、〈1〉過去にJR東の駅構内などで重大犯罪を犯し、服役した人(出所者や仮出所者)〈2〉指名手配中の容疑者〈3〉うろつくなどの不審な行動をとった人。
JR東は、これらの対象者の顔情報をデータベースに登録。主要110駅や変電所などにはネットワーク化されたカメラ8350台が設置されており、映った人の顔情報と登録された顔情報を自動照合する。実際に使用するカメラの台数は公表されていない。
JR東は以前から、事件の被害者や目撃者、現場管理者らに加害者の出所や仮出所を知らせる「被害者等通知制度」に基づき、検察庁から情報提供を受けている。〈1〉については情報が提供された際、JR東や乗客が被害者となるなどした重大犯罪に限って氏名や罪名、逮捕時に報道されるなどした顔写真をデータベースに登録する。痴漢や窃盗などは対象外で、9月初旬時点で登録者はいないという。
不審者や指名手配者も含め、対象者を検知した際は、警備員が目視で顔を確認したうえで、必要に応じて警察に通報したり、手荷物を検査したりする。
JR東は7月6日、東京五輪・パラリンピックのテロ対策などとして、顔認識カメラの導入を発表。不審人物や不審な荷物、指名手配中の容疑者の検知を行うと説明していた。同19日から運用を開始し、ホームページや駅構内でも顔認識カメラの使用を明示している。一方で、出所者と仮出所者を検知対象に含むことは明らかにしていない。
個人情報保護法では、前科などは「要配慮個人情報」に位置付けられ、本人の同意なしに取得することは禁じられている。ただ、今回の被害者等通知制度のような法令に基づく場合などは例外として認められている。
JR東は「乗客の安全を第一に考えた必要な措置だ。詳細はセキュリティー上の理由で公表できない。情報管理は徹底している」とコメントしている。
顔認識カメラは、顔の特徴という生体情報を、遠隔から本人に気付かれないように取得できるという特性をもつ。顔特徴データをキーとして、人との接触や移動、購買の履歴など様々な情報とひもづけて網羅的な監視を行うことが可能になる。
適切に使えば治安向上に役立つが、被撮影者の権利侵害の程度も大きく、社会全体を萎縮させる副作用も懸念される。このため、欧米では顔認識カメラに特化したルール整備が進んでいる。
欧州連合(EU)では、日本の個人情報保護法にあたる一般データ保護規則(GDPR)で顔特徴データを含む生体情報を「特別な種類の個人データ」と定め、本人の同意のない取り扱いを禁じている。カメラに特化したガイドラインも作成。今年4月に公表したAI規則案でも、公共空間での顔認識カメラ使用を厳しく制限する提案がなされている。
今年7月には、過去に店舗内で強盗などの犯罪を犯し、その後出所した人物を顔認識カメラで監視していたスペインの小売りチェーンがGDPR違反にあたるとして約3億円の制裁金を科された。
英国の警察は犯罪多発地域などを対象に、外部の監査組織のチェックを受けながら運用していたが、昨年8月には一部の事案で「検知対象者や設置場所が不明確」として違法とする判決が出ている。
米国の複数の州でも顔認識カメラ規制が検討され、一部の州法は成立した。
一方、日本の個人情報保護法は、顔特徴データを、アナログの顔写真と同じ個人情報として扱い、保護レベルに差を設けていない。取得する場合に本人の同意を得る必要はなく、利用目的を通知公表すればいいことになっている。しかも、個人情報保護委員会は防犯カメラの場合、通知公表は不要との解釈を示してきたため、利用を公表する事業者は少なく、実態がわからないとの批判もあった。
こうした指摘もあって、委員会は今月、この解釈を変更。来年4月からは顔認識カメラを使用する場合は利用目的の通知や公表が必要になる。しかし、詳細を公表したり、撮影の同意をとったりする必要はない。
元警察官僚の四方光・中央大教授(刑事政策論)の話「過去にJR東側に被害を与え、再び危害を加える可能性が高ければ、出所者であろうと監視が認められる場合もあるだろう。こういう手法が野放図に拡大しないよう、ルールを整備し、慎重に運用することも重要だ」
顔認識カメラに詳しい小泉雄介・国際社会経済研究所主幹研究員の話「鉄道のような誰もが使い、撮影を避けられない公共空間に導入するのであれば、脅威が現実化する高い可能性が必要で、運用面の透明性の確保も欠かせない。JR東は検知対象範囲などの基準や設置場所を公表すべきだ」
白取祐司・神奈川大教授(刑事訴訟法)の話「出所後も監視対象とし、行動を制限しようとすることは差別にあたる。刑期を終えた人の更生を支えるという我が国の刑事政策の基本理念にも反するのではないか」
◆顔認識カメラ=人の顔の特徴をデータ化し、人工知能(AI)などを用いて顔の違いや同一性を識別できるカメラ。既存のカメラやネットワーク化されたカメラに、専用ソフトを導入して使用される。データベースに登録した顔情報との照合や、映像から特定の顔を探すことができる。
リモート監視の普及と懸念 Webカメラでテレワークが監視される時代
前回はCOVID-19パンデミック後のオフィス再開と、それに対するテクノロジーの支援について考えたが、残念ながらデルタ株を始めとした変異株の流行により、感染が終息する兆しは再び失われてしまった。
世界的に見ても、リアルでのコミュニケーションが無条件で認められるようになるのは、しばらく先になりそうな状況となっている。東京都も7月に「テレワーク等による出勤者数の7割削減」を実現するよう企業に要請しており、リモートのコミュニケーションをさらに徹底することが求められている。
テレワークを支えるテクノロジーも、さらなる進化を遂げなければならない。しかしそれがどのような方向性であるべきかについては、議論の余地がありそうだ。
●高度化する「リモート監視」
企業がテレワークの導入をためらう理由の一つが、従業員が「サボる」のではないかという不安だ。人材シンクタンクのパーソル総合研究所が実施した調査によれば、上司の40%がテレワーク中の部下に対して「仕事をサボっているのではないかと思うことがある」と回答している。
同調査のテレワーカーに対するアンケートでも、「上司や同僚から仕事をサボっていると思われていないか不安」と答えた割合が38.4%に達しており、この回答はテレワーカーが不安に感じることの上位にランクインしている。
既にこうした不安に対しては、各種の対策が講じられている。PCやネットワークにログインした時間を拾う、メッセージツールのプレゼンス状態(Skypeで言えば「退席中」や「会議中」など)を確認するといったシンプルなものから、使用しているアプリケーションのログやブラウザの閲覧履歴データを収集する、キーボードのタイピング操作を記録する、さらには一定間隔で画面のスクリーンショットを撮るといった専用のツールを使うものまで、その内容も多様だ。
実際に英国の調査では、調査対象となった企業の12%が、既に何らかの形で従業員の遠隔監視を行っているとの結果が出ている。
さらに最近では、AIを活用したより高度な「監視」を可能にする製品も登場している。例えばフランスのTeleperformanceが提供するCloud Campusという製品は、テレワークの実現を支援するプラットフォームであると同時に、従業員の管理やセキュリティ対策としてのモニタリング機能を有している。
その際、従来型のデータ収集・分析に加えて、テレワーカーが作業する空間(彼らの自宅の一室など)にWebカメラを設置してもらい、そこから得られる映像データをAIに解析させるという対応を行っている。
こうした高度な監視は、単なる「サボり防止」だけでなく、機密情報をオフィス以外の場所からアクセス可能にする上でも有効であることが指摘されている。従業員の怪しい行動が検知された場合には、すぐに機密情報へのアクセスや、端末自体をシャットダウンしてしまえば良いわけだ。従って、テレワーク可能な業務を広げる点でも、「リモート監視」技術の拡充は望ましいといえるだろう。
●リモート監視は従業員の不利にならないか
ただし当然の反応だが、こうしたリモート監視に対しては疑問の声が挙がっている。過剰なデータの収集は従業員のプライバシー侵害に当たるのではないか、従業員を委縮させることで生産性の低下をもたらすのではないか、逆にすぐに「抜け道」を見つけて再びサボるようになるのではないかなど、こちらの主張もさまざまだ。
前述のTeleperformanceについては、自社のコールセンター従業員をテレワーカーにするに当たり、自宅を「監視」されることを望まない従業員にもデータ収集を認めるよう強制したのではないか(パンデミック下で職を失うかもしれないという不安に乗じて)と米NBCが報じている。
仮に、高度な監視テクノロジーが提供するのが、人間の上司と同じくらいの確認作業だったとしても、以前と変わらず生身の身体で仕事する従業員にはたまったものではないだろう。
機械の上司は疲れを知らず、個々の従業員が使う端末やWebカメラにじっと潜んで、「不正」と見なされる行動の瞬間を見逃さない。考えただけでもストレスを感じる人は多いはずだ。
さらに、そうした「不正」かどうかの判断自体が信頼できないのではないか、という懸念も生まれている。
2021年4月、米テキサス大学オースティン校の学生自治会が、大学側に対して「ProctorioのようなAIベースのオンライン試験監督ソフトウェアパッケージ」の使用を止めることを求める決議を採択した。
名指しされたProctorioは、オンライン上でのテスト実施・管理を実現するプラットフォームで、受験者はWebカメラを通じて自分の顔やID(学生証等)を撮影してログインするようになっている。
さらに試験中には、Webカメラを通じて受験者の挙動が撮影され、その映像データをAIが解析。カンニングなどが疑われる場合には受験者への警告が行われるとともに、当然ながら、テスト監督者への報告も行われる。
こうしたオンライン試験監督ソフトウェアは、Proctorioの他にも多数の製品・サービスが存在しており、COVID-19による(半ば強制的な)教育のオンライン移行が追い風となって、全米各地の教育機関において普及が進んでいる。しかしそれに伴い、監視の精度に対する疑問の声も大きくなっており、オースティン校の学生たちのように明確な抗議活動が行われるケースが生まれている。
前述の決議文では、反対の理由として、「学生団体の報告によれば、これらのツールは、学生(特に有色人種の学生)が試験に合格するのを困難にする可能性がある」ことを挙げている。これはAIの開発において、AIを学習するために与えた教師データの中に偏りが存在しているのが主な原因だ。
この問題は今、オンライン試験監督ソフトウェアに限らず、機械学習による顔認識・行動認識技術を使ったソフトやサービスにおいてたびたび指摘されている。
例えば大量の顔写真をAIに与えて学習させることを考えた場合、さまざまな理由から、集められる顔写真にはマイノリティーのものが少なくなる傾向がある(マジョリティーの人種の方が経済的に恵まれているため、デジタルデータの顔写真が数多く存在している、あるいは開発者の間でもマジョリティーが多数派を占めるため、データが集めやすいなど)。その結果、マイノリティーの人々に対する認識の精度が落ち、AIが誤った判断を下す可能性が高くなってしまうのである。
同じことは、ADHD(注意欠陥・多動性障害)など、行動上の特徴を伴う障害のある人々の場合にも起こり得る。例えばProctorioの場合、視線がカメラの方を向いているかどうかや、視線が画面から離れる頻度がどのくらいかといった傾向を、不正か否かの判断として利用していると見られる。それが学習に使用した「普通の人々のデータ」の平均値から逸脱していれば、怪しいと判断されるわけだ。
従って障害のある人々にとっては日常的なしぐさが、不正であるとAIに受け取られてしまうかもしれない。実際にそうした傾向が実在のソフトウェア製品に認められたとする調査結果も出ており、AIにテストの監視を任せることの是非が問われるようになっている。
既に米イリノイ大学や米ハーバード大学など、オンライン試験監督ソフトウェアの利用を止める、あるいは利用を推奨しない決定を下す教育機関が出てきている。パンデミックという非常事態の中で、オフラインで行われていた活動を急きょオンライン化する過程において、何らかのひずみが生じてしまうのは仕方がない。重要なのは、そうしたひずみをいち早く認識して、訂正のための手段を講じることだろう。
テレワーカーの監視も、テスト受験者の監視も、今進められているのは「オフライン上でのやり方をオンライン上で実現しようとすること」だといえる。確かにそれが一番分かりやすく、手っ取り早く完了できるような気にさせられる。
しかし人間を完全に代替し、さらには人間自身も意識していないような差別や偏見を除外したソフトウェアを作るのが難しい以上、単なるプロセスの移植ではひずみの発生を回避できない。オンライン上でのタスクとその評価の実施方法を、ゼロベースで再構築することが、ウィズコロナの時代に向けて求められている。
(小林啓倫)
顔認識で「誤認逮捕」汚名晴れるまで1年超の悲劇 犯罪捜査で使われる顔認識アルゴリズムの弱点
知っているようで知らない「アルゴリズム」。現代では、買い物から医療、犯罪予測、車、政治活動まで、暮らしのあらゆる要素にアルゴリズムが潜んでいる。数学者ハンナ・フライUCL准教授がそんなアルゴリズムの実態を検証し、人とコンピューターの共存の道を問う著書が『アルゴリズムの時代 機械が決定する世界をどう生きるか』だ。
私たちは機械がどうやって判断しているかもよく考えないまま、むやみにショッピングサイトのおすすめに従ったり、逆にAIに仕事を奪われることを怖れたりしていないだろうか。
アルゴリズムと人間の意外な関係を実例から見直せば、どうやって機械とつきあっていけばいいかが見えてくる。ここでは本書を一部抜粋し再構成のうえ、顔認識アルゴリズムが招いた悲劇をご紹介しよう――。
誤認逮捕の悲劇
2014年、スティーヴ・タリーは南デンバーの自宅で眠っていた。すると、玄関のドアをたたく音が響いた。ドアを開けると、男が立っており、車をタリーの車にぶつけてしまったので外に出て確認してほしい、と言った。
渋々言われたとおりにしたタリーが傷を確かめようとしゃがみこんだ瞬間、閃光弾が投げられ、3人の男が現れてタリーを殴り倒した。ひとりが頭を踏みつけ、ひとりが腕を縛り、もうひとりが銃床で殴りつづけた。
タリーは神経を損傷し、血栓ができて、ペニスが折れる大怪我を負った。「まさかペニスが折れるものだとは、知りもしなかった」。彼はのちに記者に語った。「警察を呼んでくれ、と叫んでいた。でも、気づいたんだ、おれをぶちのめしてるのが警官だって」。
2件の銀行強盗事件の容疑者として逮捕されたタリーは、「おまえらはいかれてる」と叫んだ。
「人ちがいだ!」
その言葉はうそではなかった。タリーが逮捕されたのは、本物の銀行強盗にそっくりだったからだ。