2023年5月4日、シンガポールの高級ホテルで、英フィナンシャル・タイムズなどが主催するイノベーティブ・ロイヤーズ賞(アジア太平洋)の授賞式があった。
デジタルイノベーションや戦略的なアドバイスなど革新的な取り組みを表彰するもので、弁護士や企業法務の関係者たちが集った。
会場に、大手ローファームの弁護士らと並んで、リクルートの法務部門でプライバシー対応を統括してきた馬場俊介さん(38)の姿があった。
企業法務部門でノミネートされており、部門賞の発表「リクルート」の名前が読み上げられた瞬間、馬場さんは深い感慨を覚えた。
「まさか受賞するとは思っていなかった。驚いた、というのが本当に率直な感想。私たちが3年かけてやってきたことが評価され、うれしかった」
2019年夏以降、リクルートは信用失墜の危機にさらされた。「リクナビ問題」の発覚である。
以降、プライバシー対応の「憲法」である「パーソナルデータ指針」を策定するなど、会社をあげてプライバシー問題に取り組んできたことが評価された。
社会を揺るがした「事件」
リクナビ問題――。就職情報サイト「リクナビ」を運営するリクルートキャリアが、本人の同意なしに、就職活動中の学生が内定を辞退する確率をAIを使って予測し、そのデータを企業に販売していたことが明らかになった。
リクナビは多くの就活生と企業が利用する就活のインフラともいえる存在だ。
問題とされたのは、「リクナビDMPフォロー」というサービスだ。
過去の内定辞退者がリクナビを閲覧した履歴をAIなどで分析することで、就職活動中の学生が内定を辞退する確率を1人ずつ5段階で推測し、学生へのフォローアップを目的に、企業に販売していた。就職という人生の節目に、AIが大きな影響を持つ現実が明らかになったのだ。
リクルートは、「データ主体である人間を単なる手段としてとらえていないか」「学生を思う視点が失われている」などと厳しい批判にさらされた。
個人情報保護委員会は、同意を得ない個人データの販売は個人情報保護法に違反すると勧告し、「リクルートキャリアの扱う個人情報は学生の人生を左右する。適正な取り扱いには重大な責務がある」と指摘した。
馬場さんは2016年から欧州のグループ会社の一般データ保護規則(GDPR)の対応に関わり、プライバシーを巡る変化を肌身に感じていた。それだけに、グループ内で深刻な危機が起きたことは寝耳に水で、衝撃だった。
「このままだと信用を失い、会社として仕事を続けられないという危機感があった。データをマッチングさせてユーザーの利益に貢献するという、私たちのビジネスの根幹が揺らいでいた」と、馬場さんは振り返る。
馬場さんによると、リクルートが公表した社内調査の結果、商品開発や販売のリスクをだれが責任を持って判断したのかが不明瞭だったという。
「相互のチェックが働かず、空白地帯が生まれていた。ユーザーの視点の欠如とガバナンス不全が原因であり、その改善が急務だった」
データとプライバシー保護の強化のため、エンジニアリングや商品開発の専門家、法律の専門家など20人ほどからなる現在の専門チームの前身組織を立ち上げ、馬場さんがリーダーについた。
社長をトップに外部の有識者と諮問委員会を作り、「パーソナルデータ指針」を20年3月に策定した。プライバシーポリシーに修正があれば、異なる製品ラインの間でも自動的に更新されるシステムも開発した。
こうした会社をあげた取り組みが評価され、受賞につながった。
AIの進歩はめまぐるしい。
リクルートは新たに「AI活用指針」を作り、それに基づくAIガバナンスの取り組みを進めている。
馬場さんは「正解があるわけではない。ユーザーや社会の発展のためにパーソナルデータを活用させていただくという原点に、日々立ち返ることが大切だ」と語る。
教訓を導き出せなかった日本
「リクナビ問題はAIと人権にかかわる最大級の事件だったにもかかわらず、日本社会はそこから教訓を十分に導き出せていない」
同社の諮問委員会のメンバーでもあった、慶応大学教授(憲法)の山本龍彦さん(47)は言う。
プライバシー問題が専門で、AIがもたらすリスクと正面から向き合うべきだと警鐘を鳴らし続けてきた。
リクナビ問題の核心はAIを用いたプロファイリングだったと、山本さんは言う。プロファイリングとは、大量の個人データから、その人の能力、政治的信条、選好、認知傾向などを自動的に分析・予測することだ。就職などの人生の重要なポイントで、個人の能力の判断をAIにゆだねることで、一人ひとりの人生を運命づけてしまうリスクをはらむ。
リクナビ問題は、AIによって個人が確率的・統計的に自動処理される社会でよいのかという、「個人の尊厳」に関する本質的な問題を提起するものだった、というのだ。
だが、リクナビ問題が起きてもなお、日本の個人情報保護法ではプロファイリングは正面から規律されていない。
一方、EUのGDPRでは、プロファイリングに異議を申し立てる権利が保障され、一人ひとりがAIなどによる自動処理のみで重要な決定をなされない権利として明記されている。
米国の一部の州でも、AIのプロファイリングによって自動的に意思決定されることを拒む権利が法律で保障されている。
さらに技術の急速な発展が、かつて経験がない別の複雑な問題を生んでいる。
米国で2018年に発覚した「ケンブリッジ・アナリティカ(CA)」の事件だ。CAはSNSに集積された個人データなどから政治的傾向などを分析し、個人を狙ったマイクロターゲティング広告を打つことで、大統領候補だったトランプに有利に働くよう選挙行動を操作したとされている。
「この事件は、AI技術が私たちの精神、内面に深く介入し、コントロールできることを示した。蒸気機関の開発に代表される産業革命は、人々の行動は変えても、心の中には直接介入してこなかった。その意味で私たちはいま、精神、内面の『革命』であるルネサンスや宗教改革以来の歴史的転換点にいる」と山本さんは言う。
「内心」の壁が破られる
2023年5月、国内の情報法や憲法の研究者らによる共同提言「健全な言論プラットフォームに向けてver2.0―情報的健康を、実装へ」が発表された。
生成AIの発達状況なども踏まえ、言論空間が健全に機能するための提言をまとめたものだ。プラットフォーマー企業の基本原則の一つとして、「『認知過程の自由』への配慮」が盛り込まれた。「マインドハッキング」の禁止だ。
この項目の原案を執筆したのは、慶応大学大学院研究員の小久保智淳さん(28)。憲法学で法学修士、計算論的神経科学で理学修士をとった「二刀流」だ。
小久保さんによると、神経科学技術の発展は、人の心の内面を解読・可視化することを次第に可能にしつつある。技術の進歩で、筋萎縮性側索硬化症(ALS)患者の脳波による意思伝達装置(BMI)が開発された。
脳の信号を読み取る技術によるものだが、悪用されれば、個人の脳に関するデータが第三者に読まれ、内心に干渉されるリスクも抱えている。
2023年6月にEUの欧州議会本会議で採択され、12月に関係機関で大筋合意したAI規制法案は、人々の行動を実質的にゆがめることを目的として、無意識に訴えかける「サブリミナル技術」の禁止が盛り込まれた。事実上、「認知過程の自由」を守ろうとするものだ。
小久保さんは、「日本国憲法19条が保障する思想・良心の自由には、事実上、内心の壁を突破することは不可能であるという前提があった。しかし、神経科学技術の発達で、自分の意思にかかわらず壁が破られ得るという意味で挑戦を受けている」と話す。
こうした新たな挑戦に日本社会はどう立ち向かおうとしているのか。山本さんが警告する。
「日本政府はAIガイドラインなどの策定を急ぐが、軽薄さをぬぐえない。AI技術を背景としたプラットフォーム権力の存在と正面から向き合い、AI社会で基本的人権をいかに保障し、民主主義を刷新していくのかという基本理念が見えない」
注目され始めた「デジタル立憲主義」
デジタル空間の統治という観点で山本さんが注目するのは、欧州の研究者を中心に議論が始まった「デジタル立憲主義」という新しい考えだ。
およそ200年前に生まれた「近代立憲主義」は、国家という巨大な存在を、権力を分立させて統制し、人々の自由や権利を守り、平和な社会を作ろうというプロジェクトだった。しかし、いまやデジタル空間にはAI技術を操れる巨大プラットフォーマーが存在し、人々の自由や自律を脅かしかねない存在となりつつある。
国家だけを統制の対象とする近代立憲主義には限界があるのではないか。巨大プラットフォーマーのような私的なアクターにも統制を及ぼすべきだという議論が、欧州の研究者を中心に生まれ、日本やアジア各国でも紹介され始めている。これが「デジタル立憲主義」だ。
研究者が「The Digital Constitutionalist」というサイトを立ち上げ、世界にデジタル立憲主義の意義を発信し始めている。
AI技術が、個人の尊厳を脅かしかねない時代。近代立憲主義のバージョンアップを目指すデジタル立憲主義は、人々の自由を守る理念と法システムの再構築のための足場となりうるのか。注視が必要だ。