1. HOME
  2. World Now
  3. AIは差別的になりうる それでも重要な選択を託すのか

AIは差別的になりうる それでも重要な選択を託すのか

あなたの知らないAIの世界 更新日: 公開日:

【この連載の前の記事】

  1. 「AIなら公平」という思い込み 面接であらわになった偏見
  2. AIがあなたの信用度を判断、日本にも 中国では14億人を格付けへ
  3. ミシェル・オバマを「若い男性」 AI顔認識にひそむバイアス
  4. 黒人カップルを「ゴリラ」とタグ付け 顔認識はどこまで「使える」のか
  5. AIが犯罪を予測、是か非か 揺れるアメリカ社会
  6. 声から出身地がわかる スマートスピーカーがプロファイリングする世界

データによって差別的になる 

AIは学習するデータによって、差別的になる。

2016年3月には、マイクロソフトのAIチャットボット「Tay(テイ)」が、悪意あるユーザーが学習させた言葉によって、ホロコーストを否定したり人種差別発言をしたりして、公開を中止した騒動があった。

「Tay」は「19歳の米国女性」というキャラクター設定のAIとして、3月23日にツイッターで公開された。

ツイッター上のミレニアル世代の若いユーザーとのやりとり中で、その会話のパターンを学習していくという設計だった。

だが、ネットを荒らすユーザーたちが「Tay」に目をつけ、差別的な言葉の数々を「学習」させていく。

それによって、「フェミニストは大嫌いだ。全員死んで地獄で焼かれろ」「ヒトラーはなにも悪いことはしてない」「ホロコーストはでっちあげ」などのツイートを発信するようになる。

その結果、公開からわずか16時間後、9万6000件を超す投稿をした後、「Tay」は停止させられることになった。

同じような騒動はアマゾン・エコーのAI「アレクサ」でも明らかになっている。

ロイターは2018年12月21日、アマゾン・エコーがユーザーとのチャットの最中に突然、「養父母を殺してしまえ」と言い出した、と報じている。

それによると、アレクサのチャット用アプリ(スキル)「ソーシャルボット」を使っていたユーザーに対して、この発言が飛び出した。ユーザーは、アマゾンのサイトに「これまでに感じたことのない気味悪さだ」とレビューを書き込んだという。

このアプリは、アレクサ用のチャットボット開発を競う学生対抗の「アレクサ・プライズ」の入賞作を公開し、ユーザーに使ってもらうという試みだった。

調査の結果、問題の発言は、チャットボットがフェイクニュースの発信源としても知られる大手ネット掲示板「レディット」の投稿コメントを引用したものであることがわかった。

チャットボット開発では、学習用データとしてワシントン・ポストなどのほか、「ウィキペディア」や「レディット」などのコンテンツを使うことがあった、という。 その結果、チャットの応答の中に、セックスに関連した露骨な表現や「犬の糞」といった表現も混じってしまったようだ。

ロイターの取材に対してアマゾンは「数百万のユーザーがソーシャルボットを利用されている中で、これらは極めてレアケースです」と述べている。

アルゴリズムへの違和感

AIは時として差別的になる。その一方で、人生の重要な選択を、そんなAIによって勝手に決められてしまうこともある─当人の立場に立てば、そう簡単に受け入れられることではないだろう。

米調査機関「ピュー・リサーチセンター」が2018年11月に発表した「アルゴリズムに関する世論調査」には、そんな態度が示されている。

調査は、5月から6月にかけて、米国の成人約4600人を対象に行われた。

それによると、「就職における履歴書の自動審査」には、「容認できない」が57%に対して、「容認できる」は41%。「採用面接のビデオによる自動分析」には、「容認できない」が67%に対して、「容認できる」は32%。

このほかにも、「購買履歴などを使ったローン信用度の自動判定」は、「容認できない」が68%に対して、「容認できる」は31%。「犯罪者の仮釈放に関するリスクの自動評価」については、「容認できない」が56%に対して、「容認できる」は42%だった。

だが、そんな人々の思いをよそに、社会のAI化は加速していく。

 

 


本書は『悪のAI論 あなたはここまで支配されている』(平和博〔著〕、朝日新聞出版)の第2章「差別される―就職試験もローン審査もAI次第?」の転載である。