1. HOME
  2. World Now
  3. 「AIなら公平」という思い込み 面接であらわになった偏見

「AIなら公平」という思い込み 面接であらわになった偏見

あなたの知らないAIの世界 更新日: 公開日:

 人間には、程度の差はあれ、思い込みや偏見はある。あるいは、人付き合いの中で、ウマが合わないということもあるだろう。就職活動先で、苦手な感じの面接官に、思い込みたっぷりの目で見られたくはない。

ならば、就職活動の相手がAIだったら、どうだろう。日本では、ソフトバンクを始めとした企業が、AIを使った採用選考を導入し始めている。就職だけではない。住宅ローンの審査でも、AIによる自動化が進み始めている。AIを使えば、審査にかかる時間は短縮される。何より、AIなら変な思い込みや、ウマが合わないといった、人間くさい偏りがないだろう─だが、どうもそうではないようだ。

AIは公平、中立とはいえない。むしろ性別や人種などによって人間を差別することがある。

人間に思い込みがあるように、AIにも「バイアス」、つまり差別や偏見がある。その「バイアス」は、人間社会の差別や偏見から、AIがビッグデータを通じて「学習」したものだ。それだけではない。AIはその「バイアス」を高速の自動処理でさらに大規模に増幅してしまう危険性もあるのだ。

「女性嫌い」で開発断念

ロイターは2018年1010日、こんなタイトルの記事を配信した。

「アマゾンがAI採用打ち切り、『女性差別』の欠陥露呈で」

記事によると、アマゾンはAIを活用した人材採用システムの構築を目指していたが、2017年初めにこの計画を断念していた、という。

原因はAIによる「女性嫌い」だった。

アマゾンは2014年、専任チームを立ち上げ、AIを使って履歴書を審査するためのシステム開発に取り組み始めた。

この人材採用システムでは、AIが履歴書の内容を評価し、応募者を5点満点でランク付けする、というものだった。ところが翌15年までに、このシステムの不具合が明らかになる。

ソフトウェア開発などの技術職で、女性に対しての評価が低くなるという偏りが生じていたのだ。

その原因は、AIが学習したデータにあった。

システム開発に際して担当者たちは、過去10年にわたって同社に提出された履歴書をAIに学習させた。その大半は男性からのもの。つまり合格者も男性中心となる。

このため、AIは男性の方が採用に適した人材と判断し、その履歴書の評価を高くするようになってしまったという。

その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていた。また、女子大卒業という履歴書で評価を下げられたケースもあった、という。

「女性」に関連する言葉での差別が行われないよう、システムに修正を加えたものの、それ以外の差別が生じる可能性は否定しきれず、開発は断念。専任チームは解散したという。

AIが面接をする

これまで、紙の申請書をもとに、人間の目で審査していた手続きをAIに任せ、作業の迅速化と中立性の担保を目指す─。

このようなAIの利用は、すでに実運用され始めている。それは書類審査だけではなく、面接の場面でも。

米ベンチャー「ハイアービュー」は、採用応募者のオンラインでの面接を録画してAIで分析、スコア化するサービスを提供している。

5問程度の質問から、語彙やイントネーション、抑揚、表情などを含む2万5000のデータポイントをAIが判定するという。

IBMワトソン研究所やヒルトン、ユニリーバなど、700を超す企業が採用している。

ハイアービューが掲げるのが、面接にかかる時間の短縮と、人間の面接官が抱えるバイアスの排除だ。

アマゾンに関するロイターの記事の中でも、ハイアービューCEO、ケビン・パーカー氏のこんなコメントが紹介されている。「もう旧来のやり方には戻れない。アイビーリーグの名門校のネットワークに頼っていた時代は終わりだ」。AIを使えば、ずっときめ細かい採用選考が行える、ということのようだ。

ベビーシッターの身元調査

カリフォルニア大学バークレー校近くにオフィスを構えるベンチャー「プリディクティム」は、ネットでベビーシッター候補者の身元調査を請け負う。使うのはAIとフェイスブック、ツイッター、インスタグラムだ。

インターンを含めてもスタッフ10人ほどの同社は、同大学出身の3人の共同創業者が2017年に設立した。同大学のベンチャー支援ファンドから資金10万ドルを得ている。

「プリディクティム」はベビーシッターを探している親たちからの依頼を受け、候補者のソーシャルメディアの書き込みを、本人の同意を得て、AIで分析。

「虐待やハラスメント」「薬物乱用」「無礼・反抗的」「不適切なコンテンツ投稿」の四つのポイントについて、その危険度を「極めて低い」から「極めて高い」までの5段階評価で採点する。さらに、AIが問題視したソーシャルメディア投稿も表示される。

1件あたりの利用料は2499ドル(約2700円)。

AIの学習データには性別、人種のデータは含まれておらず、その判定結果についてのバイアスチェックは行っているという。ただし、その詳細は公開されていない。

ベビーシッター候補者本人が、その結果を知ることもできない。また、AIによる分析への同意を断れば、ベビーシッターの仕事を得られなくなる。

2019年には、ベビーシッターの紹介サイト「シッターシティ」に「プリディクティム」が採用される予定だ。

企業が人材採用の際に、志願者のソーシャルメディアへの投稿をチェックする傾向は、この数年、鮮明になってきた。

このように、ソーシャルメディアへの投稿をもとに、AIによる人物評価を行うサービスは、ほかにもAIベンチャー「フロール」が人材採用向けに提供する「ディープセンス」や、すでに採用されている社員を対象とした「ファマ」などがある。

米就職紹介サイト「キャリアビルダー」が2018年8月に発表した企業の採用担当者への調査結果では、70%が採用にあたってソーシャルメディアの投稿をチェックすると回答している。

その作業が、AIへと移行し始めているようだ。

問題は、その精度と、それをどう担保しているのか、という点だ。

アルゴリズムの問題などを調査しているワシントンのシンクタンク「アップターン」の上級政策アナリスト、ミランダ・ボーゲン氏は、ワシントン・ポストの取材に対して、こう述べている。

「ソーシャルメディアの投稿をもとに、その人物を判定するツールが本当に有効なのかどうか。それを明らかにする測定基準が今のところはまったくない。これらのテクノロジーを使って行われていることは、その実際の機能を超えてしまっている可能性が極めて高い」

 


本書は『悪のAI論 あなたはここまで支配されている』(平和博〔著〕、朝日新聞出版)の第2章「差別される―就職試験もローン審査もAI次第?」の転載である。