1. HOME
  2. World Now
  3. ミシェル・オバマを「若い男性」 AI顔認識にひそむバイアス

ミシェル・オバマを「若い男性」 AI顔認識にひそむバイアス

あなたの知らないAIの世界 更新日: 公開日:

【この連載の前の記事】

  1. 「AIなら公平」という思い込み 面接であらわになった偏見
  2. AIがあなたの信用度を判断、日本にも 中国では14億人を格付けへ

表示されるネット広告の違い

AIに「バイアス」が存在することは、差別や偏見を受ける側の一般の人々からは知るよしもない。そのことが、人々を一層不安にさせる。

カーネギーメロン大学などの研究チームが2014年8月に発表した論文で調べたのは、グーグルの広告配信システムのAIだ。

グーグルは、ユーザーの過去の検索履歴や閲覧履歴などをもとに、興味や関心を判断し、それに沿ったネット広告を表示している。その判断に「バイアス」はないか。

研究チームはそれを調べるために、専用プログラムを使って、男女半々で合わせて1000人の架空ユーザーをつくり出した。そして、それぞれの架空ユーザーに100カ所の求職サイトを閲覧させた上で、グーグルから表示される広告を測定した。

すると、男性の架空ユーザー向けには年収20万ドル(約2200万円)以上の役員ポストを

うたう転職支援サービスの広告が計1800回表示されたのに対し、女性の架空ユーザー向けには同様の広告は300回しか表示されなかった。

そして女性向けには、一般的な求人サービスや自動車販売などの広告が、男性向けよりも多く表示されていたという。

バイアスは名前とも結びついている。

プリンストン大学などの研究チームが2016年8月に公開した論文では、ネット上から収集した8400億の言葉が、どのような意味を含んで使われているのかをデータ化したAIモデルを使用。

「花」なら「快」、「虫」なら「不快」といった言葉とイメージの結びつきをベースに、名前に対するイメージから人種や性別のバイアスを調べていった。

その結果、「エミリー」「マシュー」といった欧州系の米国人(白人)に多い名前はポジティブな「快」に、「エボニー」「ジャマル」といったアフリカ系の米国人(黒人)に多い名前はネガティブな「不快」に結びつけられる傾向があった、という。

また、男性の名前は職業的キャリアに、女性の名前は家庭と結びつけられる傾向があった。

さらに男性に関連した言葉は科学との結びつきが強く、女性に関連した言葉はアートとの結びつきが強かった。

バイアスの大きな要因として指摘されるのが、AI開発の中心地、シリコンバレーの白人男性社会だ。圧倒的多数の白人男性が開発の主軸を担い、白人男性を中心としたデータを集め、AIに学習させる。

するとAIは、白人男性を中心としたバイアスを抱え込む。

そんな差別が端的に表れたのが、AIによる顔認識だった。

オプラもセリーナも「男性」

「AIよ、私は女性ではないのか?」

こんなタイトルの動画が2018年6月28日、ユーチューブで公開された。

制作したのは、マサチューセッツ工科大学メディアラボの研究者、ジョイ・ブォラムウィニ氏。タイトルは米国の女性の奴隷解放活動家、ソジャーナ・トゥルースが1851年に行った演説「私は女性ではないのか?」から引用している。

3分半の動画で、ブォラムウィニ氏による自作の詩の朗読とともに映し出されるのは、著名な女性たちのポートレート写真だ。

それらの写真を、IBM(ワトソン)、グーグル、アマゾン、マイクロソフト、そして中国の「フェイス++」の5社の顔認識AIが次々に判定していく。

米国で最も有名な女性の一人、テレビ司会者のオプラ・ウィンフリー氏の若い頃のモノクロ写真は、IBMは53%の確率で「男性」と判定。アマゾンは現在のカラー写真を77%の確率で「男性」と判定している。

また、ファーストレディー(米大統領夫人)だったミシェル・オバマ氏の若い頃のカラー写真を、マイクロソフトは80%の確率で「若い男性」、93%の確率で「ヘアピース着用」と判定。IBMは66%の確率で「男性用カツラ着用」。 

テニス女子の元世界ランキング1位、セリーナ・ウィリアムズ氏のモノクロ写真とカラー写真いずれも、フェイス++は「男性」と判定。IBMもカラー写真を、89%で「男性」と見なした。

動画のタイトルにも引用されているソジャーナ・トゥルースのモノクロ写真は、IBMが77%、グーグルが74%の確率で「男性」と判定。マイクロソフト、フェイス++は確率を表示していないが、やはり「男性」と判定している。

トゥルース、そしてウィンフリー氏、オバマ氏、ウィリアムズ氏、さらにブォラムウィニ氏に共通するのは、黒人の女性であるという点だ。

代表的な顔認識AIは、黒人女性の顔を正確に認識できない、ということだ。 ブォラムウィニ氏は、自作の詩でこう訴える。

   

 私たちの過去は記録され、データは収集されていく

 だが性別、人種、そして階層の問題に向き合うことは

 しばしばなおざりだ

 再び私は問いかける

 「私は女性ではないのか?」

自分の顔が認識されない

ジョイ・ブォラムウィニ氏は、2018年2月に、ユーチューブ動画のもとになった研究を発表している。

研究では、IT大手が提供しているAIによる顔認識のシステムの精度を、男性と女性、白い肌と黒い肌で比較。白人男性に比べて、黒人女性に対する誤認識率が、かなり高いことがデータから明らかになったとしていた。

比較には性別、人種のバランスを考慮し、ルワンダ、セネガル、南アフリカのアフリカ3カ国と、アイスランド、フィンランド、スウェーデンの欧州3カ国の議会議員1270人の顔写真をサンプルとして使用。性別と肌の色(白い、黒い)で分類した。

その上で、マイクロソフト、IBM、フェイス++の認識精度を比較した。

その結果、三つのサービスの誤認識率は、いずれも男性より女性、白い肌より黒い肌の方が高い数値を示した。

性別と肌の色の組み合わせを見ていくと、三つのサービスでいずれも誤認識率が最も高かったのは肌の黒い女性だ。マイクロソフトでは20・8%、フェイス++では34・5%、IBMでは34・7%だった。

逆に誤認識率が最も低かったのはマイクロソフト(0・0%)とIBM(0・3%)で白い肌の男性。フェイス++では肌の黒い男性(0・7%)だった。 つまり、黒人女性なら3人に1人から5人に1人の割合で間違えるが、白人男性なら100人に1人以下でしか間違えない、という結果だ。

このバイアスの存在を改めて問いかけたのが、米国人の誰もが知るオプラ・ウィンフリー氏やミシェル・オバマ氏、セリーナ・ウィリアムズ氏らの写真の顔認識実験だった。 ブォラムウィニ氏のニューヨーク・タイムズへの寄稿によれば、大学の学部生時代に顔認識のロボットをプログラムした時、自分の顔が認識されなかったことが研究のきっかけになったようだ。

 

「AIは、世界を変える可能性がもてはやされがちだ。だが実際は、それがどんなに前向きな狙いで使われたとしても、バイアスや排斥を増幅してしまう可能性がある。私の経験がいい例だ。

AIシステムは、それをデザインする人々が何を優先させるか、何に偏見を持っているかによって形づくられていく。それが意識的であろうと、無意識であろうと。私はそれを、"コード化されたまなざし"と呼んでいる」

 

バイアスをもった"コード化されたまなざし"は、その3年前にも大きな問題となっていた。



本書は『悪のAI論 あなたはここまで支配されている』(平和博〔著〕、朝日新聞出版)の第2章「差別される―就職試験もローン審査もAI次第?」の転載である。