1. HOME
  2. 特集
  3. 人工知能を愛せますか?
  4. 人工知能で再犯可能性を予測 「偏見生む」危うさ心配する声も

人工知能で再犯可能性を予測 「偏見生む」危うさ心配する声も

World Now
ペンシルベニア大の犯罪学教授、リチャード・バーク photo:Sako Masanori

ペンシルベニア大の犯罪学教授、リチャード・バークが取り組むのは、逮捕や収監された個人の再犯予測だ。保釈を認めるか、どの刑務所に収容するか、仮出所後の保護観察のケアをどの程度にするかといった判断の参考に、フィラデルフィア市などで使われている。
議論になったのは、バークが構築中の予測モデルのデータに「郵便番号」を入れるかどうか。米国では、住むエリアが人種ごとに分かれることが少なくない。予測に用いる過去の犯罪データに住所を使うと、人種差別の偏見が将来予測に持ち込まれるのではないか――。そんな懸念が広がったのだ。
「人々の懸念を考え、郵便番号は使わないことにした。しかし、使うデータが限られるほど、予測の精度が失われていくのも事実だ」
大学の研究室を訪ねた私に、バークは、批判に臆することなく言い切った。
「警官も検事も裁判官もミスをする。過去の経験が偏見につながる。AI予測は完璧ではないが、人の判断の参考にすれば、事態は今より良くなるはずだ」
実際、バークが研究中のDV加害者の再犯予測モデルでは郵便番号をデータの一つに採用している。このモデルを保釈の判断に使ったと仮定すると、保釈者の再犯率は、人が判断した実際のケースの半分程度にとどまるという。
「このモデルを使えば、本来、収監すべき人物を保釈してしまったり、むしろ保釈すべきだった人物を収監してしまったりするミスが少なくてすむ」
人種にまつわる一連の論争には米国特有の背景がある。ミズーリ州ファーガソンで2014年夏、18歳の黒人青年が白人警官に射殺された事件をきっかけに、人種差別をめぐる議論が再燃。フロリダ州では、予測ソフトでの再犯可能性が高いグループに黒人が多いという指摘が起こり、AIの「偏り」が問題となった。
予測や分析に用いるビッグデータには、様々なバイアスがついてまわる。たとえば職業に関するバイアス。医師は男性、看護師は女性と結びつくことが多く、古いデータほどその傾向は強くなる。このまま職業予測に使えば、医師は男性向き、看護師は女性向きと偏りが生じる。どの母集団でデータを集めたかでも、分析の結果は大きく異なってくる。
「人の将来予測は深刻な人権侵害を起こす懸念がつきまとう」と、ペンシルベニア大のあるフィラデルフィア市で、AIソフト会社「アザービア」を経営するロバート・チータムは指摘する。彼の会社も犯罪予測システムに参入したが、いつ、どこで犯罪が起こる可能性が高いかという場所と時間の予測にとどめている。「私たちのシステムでは、どんなデータを使い、どういう方式で予測をしているかを関係者に公表している。透明性と幅広い議論が欠かせない」
20年来、コンピューターによる犯罪予測に取り組み、第一人者を自任するバークはいま、さらに踏み込んだ研究を検討している。生まれたばかりの子が18歳になるまでに、罪を犯す可能性を予測するプログラムの開発だ。
親の生い立ちや、その子が置かれた環境から、その未来を推し量る。機械と人間の主客が逆転し、人のほうがプログラムされているようにも思えてくる。「いや、予測できれば、事前にケアできる。栄養は足りているのか。壁紙は赤でいいのか。将来の犯罪を未然に防ぐことに役立つはずだ」とバークはいった。

AIは人類の未来をどう変えるか

AIは3度目のブームを迎え、研究者自身も驚くほど、急速に進化している。ディープラーニング(深層学習)によるネコ認識の成功でブームのきっかけをつくったグーグルのAI開発チームのリーダー、ジェフ・ディーンはその理由を「コンピューターの計算力の向上とビッグデータの集積」で、深層学習が実力を発揮する土壌が整ったため、という。深層学習とはコンピューターが自ら学習して賢くなる「機械学習」の一種で、「AI研究の50年来のブレークスルー」(東京大特任准教授の松尾豊)とされる。従来は人間がルールを教えることが必要だったが、深層学習は大量のデータを与えることで、コンピューターがデータの「特徴」を自分で見つけ出す。グーグルとスタンフォード大の研究チームが2012年に発表した「ネコ認識」は、動画サイトから無作為に取り出した1000万枚の画像を深層学習で分析し、共通の特徴を持つものとして「猫」の画像を抜き出すことに成功した。

「シンプルにいえば、深層学習はデータさえあればいい。しかもデータが大きく、システムが巨大になるほど、よい結果が得られる」。


ジェフ・ディーン hoto:Tanaka Ikuya

すでに、似た言語同士なら人とほぼ同じレベルの翻訳ができる。画像と音声、言語間の変換も可能になり、「空飛ぶ自動車」と入力すれば、そのイメージの画像を出力できるようになった。
物理や数学の新しい公式や事実を探るのも、「面白いテーマだ」とディーンはいう。「こうした個別AIの進化が進んでいく中で、汎用人工知能に近づいていくのだと思う」
その先にシンギュラリティ、つまりAIがすべての分野において全人類の能力を超える、そんな時代はやってくるのか。すでに計算やチェスなど特定の分野でAIは人間を上回り、米国の発明家レイ・カーツワイルは「2045年に起きる。人間の生活が根本的に変わる」と予測する。
「いや、僕はあまり信じていない。技術は、ある時点から一気に加速し、やがて成長が鈍り、ほかの技術に取って代わられるものだ。ただ、自ら学べる深層学習は、AIの中心技術であり続けるだろう」
AIの進化を人類にとっての大きな挑戦とみる人も少なくない。
「雇用環境は激変するだろう」と、マサチューセッツ工科大(MIT)経営学教授のエリック・ブリニョルフソンは予想する。
「人間は本来、自分が知っていること、やれることのすべてを言語化できない。これが職場のAI化を阻む防波堤になっていた」。人の顔の見分け方、自転車の乗り方、不良品を見つけるコツ。「手順」を書き出すのは難しい。だからAIに教えられなかった。深層学習AIはこうしたことを自分で学べる。
「このAI化の波は広範で、周期も速い。人が担う仕事もどんどん変わっていく。学校教育だけでなく、社会人教育、職業訓練を手厚くする必要がある」
MIT教授の宇宙物理学者、マックス・テグマークは、「人の知を超える『超知性』の可能性が見えてきた。人類発展の大きな機会だが、方向を誤れば、原子力と同様、災いのもとになる」という。
テグマークが仲間と3年前に立ち上げた「フューチャー・オブ・ライフ・インスティテュート」は、AIの潜在的リスクに光をあて、安全や倫理面の研究を支援する非営利組織だ。顧問には、AI社会の到来に「人類滅亡の恐れもある」と警告する英国の宇宙物理学者スティーブン・ホーキングや米の起業家イーロン・マスクらが名を連ねる。
1年半前、公開書簡で訴えたのは、人の遠隔操作も必要としない自律型AI兵器の開発禁止だ。科学者ら2万人が賛同の署名をした。「生物兵器や化学兵器を禁じたときと同じ議論を、AI兵器についても始めるときです」とテグマーク。「技術進歩に歯止めをかける必要はない。その手綱をしめる『英知』が技術を先導するよう、倫理の議論や研究を加速させることです」
AI開発のトップを走るアマゾン、ディープマインド、グーグル、フェイスブック、IBM、マイクロソフトの6社は昨年9月、倫理的問題を議論し、信頼性の向上を目指す「パートナーシップ」の立ち上げを発表した。「AIは人間の知を追い越すものというより、人間の能力を強化していく存在」と、グーグルのディーンは強調する。
ただ、気になる問題がある。いまの深層学習は、なぜその答えをだしたのかが人間にはわからない。言葉にできない知識や経験がAI側に蓄積されていく形だ。
「ごく普通の画像認識は結果が良好なら、とくに問題ない。一方、医療分野などでは、予測や分析と同時に理由を説明するための技術が必要になる」とディーン。「もうひとつはバイアス。集めたデータに含まれるバイアスが、結論に持ち込まれないよう見極めることが重要だ」

 

 ■人工知能の歴史
1956 ダートマス会議で「人工知能」という言葉が使われる
1980年代 コンピューターに知識を詰め込む「エキスパートシステム」の開発がはやる
1997 IBMの「ディープブルー」がチェスの世界王者を破る
2011 IBMの「ワトソン」がクイズ番組「ジョパディ!」でクイズ王に勝つ
2012 グーグルが「猫」画像の認識に成功
2016 ディープマインドの「アルファ碁」が囲碁の世界トップ棋士を破る