RSS

人工知能を愛せますか?

この記事をすすめる 編集部へのご意見ご感想

  
ソーシャルブックマーク
このエントリーをはてなブックマークに追加

[Part2]予測された未来の危うさ



ペンシルベニア大の犯罪学教授、リチャード・バーク
photo:Sako Masanori

一人ひとりの未来について、人工知能(AI)は、どこまで踏み込むことが許されるのか。AIがもつ将来予測の機能をめぐり、その公平さを問いただす議論が昨年、米国で起こり、一人の大学教授が批判の矢面に立たされた。


ペンシルベニア大の犯罪学教授、リチャード・バークが取り組むのは、逮捕や収監された個人の再犯予測だ。保釈を認めるか、どの刑務所に収容するか、仮出所後の保護観察のケアをどの程度にするかといった判断の参考に、フィラデルフィア市などで使われている。


議論になったのは、バークが構築中の予測モデルのデータに「郵便番号」を入れるかどうか。米国では、住むエリアが人種ごとに分かれることが少なくない。予測に用いる過去の犯罪データに住所を使うと、人種差別の偏見が将来予測に持ち込まれるのではないか──。そんな懸念が広がったのだ。


「人々の懸念を考え、郵便番号は使わないことにした。しかし、使うデータが限られるほど、予測の精度が失われていくのも事実だ」



AIの「偏り」


大学の研究室を訪ねた私に、バークは、批判に臆することなく言い切った。


「警官も検事も裁判官もミスをする。過去の経験が偏見につながる。AI予測は完璧ではないが、人の判断の参考にすれば、事態は今より良くなるはずだ」


実際、バークが研究中のDV加害者の再犯予測モデルでは郵便番号をデータの一つに採用している。このモデルを保釈の判断に使ったと仮定すると、保釈者の再犯率は、人が判断した実際のケースの半分程度にとどまるという。


「このモデルを使えば、本来、収監すべき人物を保釈してしまったり、むしろ保釈すべきだった人物を収監してしまったりするミスが少なくてすむ」


人種にまつわる一連の論争には米国特有の背景がある。ミズーリ州ファーガソンで2014年夏、18歳の黒人青年が白人警官に射殺された事件をきっかけに、人種差別をめぐる議論が再燃。フロリダ州では、予測ソフトでの再犯可能性が高いグループに黒人が多いという指摘が起こり、AIの「偏り」が問題となった。


予測や分析に用いるビッグデータには、様々なバイアスがついてまわる。たとえば職業に関するバイアス。医師は男性、看護師は女性と結びつくことが多く、古いデータほどその傾向は強くなる。このまま職業予測に使えば、医師は男性向き、看護師は女性向きと偏りが生じる。どの母集団でデータを集めたかでも、分析の結果は大きく異なってくる。



18歳になるまでに罪を犯す可能性


「人の将来予測は深刻な人権侵害を起こす懸念がつきまとう」と、ペンシルベニア大のあるフィラデルフィア市で、AIソフト会社「アザービア」を経営するロバート・チータムは指摘する。彼の会社も犯罪予測システムに参入したが、いつ、どこで犯罪が起こる可能性が高いかという場所と時間の予測にとどめている。「私たちのシステムでは、どんなデータを使い、どういう方式で予測をしているかを関係者に公表している。透明性と幅広い議論が欠かせない」


20年来、コンピューターによる犯罪予測に取り組み、第一人者を自任するバークはいま、さらに踏み込んだ研究を検討している。生まれたばかりの子が18歳になるまでに、罪を犯す可能性を予測するプログラムの開発だ。


親の生い立ちや、その子が置かれた環境から、その未来を推し量る。機械と人間の主客が逆転し、人のほうがプログラムされているようにも思えてくる。「いや、予測できれば、事前にケアできる。栄養は足りているのか。壁紙は赤でいいのか。将来の犯罪を未然に防ぐことに役立つはずだ」とバークはいった。


(田中郁也)

(文中敬称略)

次ページへ続く





Facabookでのコメント

朝日新聞ご購読のお申し込みはこちら

世界のどこかで、日本の明日を考える 朝日新聞グローブとは?

Editor’s Note 編集長から