1. HOME
  2. World Now
  3. カメラの補正機能に潜む人種差別 Googleが新技術で解決、カンヌライオンズ受賞の意味

カメラの補正機能に潜む人種差別 Googleが新技術で解決、カンヌライオンズ受賞の意味

World Now 更新日: 公開日:
肌の色の違いを表すイメージ写真
写真はイメージです=gettyimages

フィルター機能における差別

今年6月、フランスのカンヌで開かれた世界で最も大きな広告の祭典「カンヌライオンズ国際クリエイティビティ・フェスティバル」(29部門)のモバイル部門で、Googleが自社のスマートフォンに搭載したフィルター機能「Real Tone(リアルトーン)」がグランプリに選ばれました。

デジタル広告業界に長く携わってきた身として、私は今回、3年ぶりにリアル開催されることになったカンヌライオンズに参加してきましたが、受賞作の中でもこれが特に印象的でした。

リアルトーンは、スマホのカメラに関わる補正機能です。最近のスマホのデバイスやアプリでは、人物を撮影した際、肌の色を白く見せたり、見た目の色に近づけたりする機能が備わっていますが、それでも黒人やその他の有色人種の人の場合では、実際よりも暗くなりすぎる(あるいは明るくなりすぎる)といった問題がありました。

そこでGoogleは、有色人種でも見た目に近い肌の色を再現できるような技術を開発、スマホに搭載することで彼らの悩みを解決することに貢献しました。

リアルトーンを紹介する動画=Google JapanのYouTubeチャンネルより

リアルトーンがグランプリに輝いたのは、それがカメラ機能の技術的向上以上のインパクトがあったからでしょう。

なぜならスマホは今や、人々が日頃最も手にするツールの一つであるがゆえに、そこに潜む「差別」は、生活に密着した切実な問題と言えるからです。

実際、開発に携わった人たちも、そうした問題意識を持っていたようです。Google内で、リアルトーンプロジェクトを主導したAI製品の責任者で自身も有色人種であるシャンゴー・アイエ氏はTwitterへの投稿で、リアルトーンへとつながる研究開発を始めたきっかけを、次のように明かしました。

「AIをどうしたら有色人種のためによりよく機能させられるのか、それを明らかにするために専門家と会合を設けた。なぜか。それはAIが黒人と褐色の肌をした人たちに配慮していないからです」

「研究によると、自動運転の車は夜間に肌の色が濃い人を認識できません。顔認識の技術は黒人を見分けることができず、警察による誤認逮捕を引き起こしました。大学で使われた試作段階のソフトは、黒人と褐色の肌の色をした学生について、50%の確率で認識できません」

「2020年11月、私は肌の色を研究するチームを設立しました。コンピューターの視覚アルゴリズムがどうしたら有色人種を認識できるようになるのか、解明するためでした。この仕事は、通常業務に上乗せする形でこなしました。ほぼ1年間にわたって、深夜と早朝、週末に取り組みました。それは報われました」

アイエ氏の一連のツイート

フィルター機能に使われているAIは、人の写真を大量に機械学習し、肌の違いを認識できるようになっていますが、テック系メディア「WIERD」やGoogle公式サイトによると、そもそも土台となっている人の肌の情報が「フィリッツパトリックのスキンタイプ」と呼ばれる尺度を元にしていたことで問題が生じていたといいます。

ハーバード大学の公式ニュースサイト「ハーバードガゼット」によると、この分類方法は、同大学の医学博士、トーマス・フィリッツパトリック氏(皮膚科学)が考案しました。

これは肌を色素沈着と日焼けに対する反応をもとに六つに分ける内容で、従来は紫外線に対する耐性を示す指標として使われており、人種などによる肌の色の違いを分類するために設計されたわけではありませんでした。

にも関わらず、フィルター機能の開発ではこの分類方法が使われていたため、AIは有色人種の肌の色をうまくとらえることができませんでした。

そこで、アイエ氏らのチームはまず、「フィリッツパトリックのスキンタイプ」に変わる新たな分類方法を生み出すところからスタートさせます。

肌の色の濃淡が社会でどんな役割を果たしているのかを研究していたハーバード大社会学部教授のエリス・モンク氏と協力し、新たに「モンク・スキン・トーンスケール」を考案しました。

人の肌の違いを10段階に分ける方法で、これを採り入れて開発を進めた結果、有色人種であっても見た目に近い肌の色を再現できるフィルター機能「リアルトーン」が完成しました。

Googleは、人種や肌の色によるAIの「不公平さ」を是正することに成功したのです。

技術の進歩、良心次第で…

私自身、リアルトーンの開発背景に触れるまで、デバイスに「不公平」があることすら想像ができず、更には「デバイスに差別的な不公平はない」という無意識の思い込みがあった事に気がつきました。

ただ、こうした一つの差別や不公平に目が向くことで、別の差別に対しても可視化や気づきがされやすくなるのではないでしょうか。

まずは問題や課題に気がつくこと、そしてその問題をなかったことにせず、改善する努力を惜しまず、社会や個人に還元していくこと――。

これは、テクノロジーやAI技術が発展していけばいくほどに大切なポイントになり、偏ったデータや一部の視点だけで作られたものは、意識的にも、無意識的にも新たな差別を生み出したり、既にある差別を助長したりすることにつながります。

テクノロジーやAI技術を作るのは人間です。技術の発展は人が常に良心をもって挑み続け、未だ完璧ではないという課題を踏まえた時に、真の進化に変わっていくのではないでしょうか。

現代において、わたしたちは数多くの高度なテクノロジーに囲まれて生活をしています。

技術を競い合い、あらゆる事業の発展を目指しながら、多くの企業は当然利益も出さなければなりません。一方で、人工知能と倫理は、日本でも重要なテーマとして語られることが多くなりました。

人工知能のデータには偏りがある可能性がある、ということを常に念頭に置くこと、そして、AIを活用する企業の倫理観が何より重要になっています。

偏ったデータでつくられた人工知能からつくられたサービスは、故意であったとしても、なかったとしても、サービスを享受するわたしたち生活者は、差別やバイアスに気付かぬまま日々を過ごし、場合によっては搾取されてしまうこともあり得ます。

今回のリアルトーンの開発背景では、アイエ氏の問題提起から是正されていくプラスの側面が可視化されました。一方で、あえて偏ったデータによって意図的にサービスを提供する企業も存在する可能性もあるでしょう。

テクノロジーが持つそんなマイナスの側面にもしっかりと向き合い、全ての人間が中心となるための未来のテクノロジーの実現のためには、人が持つ良心を見失わないように、そして、過ちに気づいた時に是正していくための努力が何より大切だと改めて思います。