1. HOME
  2. World Now
  3. OpenAIの最新モデル「GPT-4o」にスカーレット・ヨハンソンが激怒、くすぶる倫理課題

OpenAIの最新モデル「GPT-4o」にスカーレット・ヨハンソンが激怒、くすぶる倫理課題

World Now 更新日: 公開日:
GPT-4oに搭載された合成音声「Sky」が自分の声にそっくりだと抗議声明を出したハリウッド俳優のスカーレット・ヨハンソン
GPT-4oに搭載された合成音声「Sky」が自分の声にそっくりだと抗議声明を出したハリウッド俳優のスカーレット・ヨハンソン=2023年5月24日、フランス・カンヌ、ロイター

5月13日に披露された新たなAI技術GPT-4o(フォー・オー)のデモンストレーションは印象的だった。GPT-4oは人の言葉を聞き取り、しゃべって応答した。人の声のニュアンス、笑い声のような非言語コミュニケーションも受け止めて口調を変え、時には笑い、歌った。AIの学習に用いるデータとコンピューターの両方の大規模化がこのようなAIを可能にした。その背後には巨額の開発投資がある。

GPT-4oの同時通訳のデモ動画=OpenAI公式YouTubeチャンネルより

女優スカーレッット・ヨハンソンは、このGPT-4oの声のモデルへの出演交渉を受けたが辞退していた。それにもかかわらず、発表の場で披露されたGPT-4oの声は、映画「her/世界でひとつの彼女」(2013年、スパイク・ジョーンズ監督)でヨハンソンが演じたAIアシスタント「サマンサ」にそっくりだったのである。

SF映画「her/世界でひとつの彼女」の日本語版予告編

ヨハンソンは自分の声とGPT-4oが「不気味なほど」似ていたことに「ショックを受け、怒りを覚えた」と怒りを表明し、法的措置を検討中という。詳しくは後述するが、その背景にはハリウッドの俳優らがストライキを打って表明したAIへの重大な懸念を、AIのトップ企業が故意に無視したことが大きい。

人々の懸念の無視——これは今のAI開発企業が抱える大きな課題だ。

倫理面の懸念が高まる

AI開発競争は激化しつつあるが、一方でAI開発企業の倫理が「怪しいのではないか?」と多くの人々が疑問に思い始めている。ヨハンソンの抗議により、この懸念が具体化した格好だ。

ヨハンソンはOpenAIから声の出演のオファーを受けていたが、熟考のすえ断った。だが前述のように発表会で披露されたGPT-4oの声はヨハンソンが演じた「サマンサ」を連想させるものだった。

OpenAIは問題の声をGPT-4oから削除した。また、問題の音声は別の女優の声を用いたものであり、ヨハンソンを模倣したわけではないと弁明した。もっとも、OpenAIのCEOであるサム・アルトマン氏はGPT-4oの発表に際し、X(旧Twitter)にヨハンソンが出演した映画を連想させる言葉「her」を投稿していた。ヨハンソンへのオファーを出していた事実と合わせるとOpenAIの弁明は苦しい。

サム・アルトマンCEOのXアカウントの投稿

削除されずに残った他の声も、やはりヨハンソン演じる「サマンサ」を連想させるという意見もある。

ヨハンソンは声明文で次のように述べている。「公開された(GPT-4oの)デモを聴いたとき、私は衝撃を受け、怒り、そしてアルトマン氏が、私の声と不気味なほど似ていて私の親しい友人やニュース関係者が区別がつかないような声を追求することに不信感を抱いた。アルトマン氏は、私が人間と親密な関係を結ぶチャット・システム、サマンサの声を演じた映画にちなんで『her』と一言ツイートし、その類似性が意図的なものだとさえほのめかした」

俳優組合はAIヘの懸念を共有していた

もともと、ヨハンソンを始めハリウッドの俳優たちは、AIへの懸念を共有していた。2023年夏から秋にかけて、ハリウッドの映画製作や宣伝活動が停止したことは記憶に新しい。全米脚本家組合(WGA)と映画俳優組合-アメリカ・テレビ・ラジオ芸術家連盟(SAG-AFTRA)が相次いでストライキを打ったからである。ヨハンソンもSAG-AFTRAの組合員である。ヨハンソンのOpenAIへの抗議に対してSAG-AFTRAは支持を表明している。

2023年夏のストライキの重要な争点は、脚本家らと俳優らがAIからの保護措置を求めたことだった。俳優から見れば、動画や音声を生成するAIは、俳優の外見、声、動きをコピーした「デジタルレプリカ」を操ることが可能だ。俳優組合はこのようなAIの濫用を警戒した。映画スタジオ側は妥結条件にAIの利用条件を明記した。

OpenAIは映画の批評性を無視

一方で、AIのトップ企業であるOpenAIはこうした俳優らの懸念を無視してしまった。ヨハンソンが明らかにした交渉の経緯を聞くと、OpenAIは深い考えなしに「サマンサ」に似せたAIを作ろうとしたように見える。アルトマンからヨハンソンに送られたオファーには「ヨハンソンの声が人々の心を和ませるだろうと感じた」と書かれていたという。映画「her/世界でひとつの彼女」を観て、「『サマンサ』のようなAIを作りたい」と思ったのだろう。

だが、映画「her/世界でひとつの彼女」を注意深く鑑賞した人であれば、この映画が、人間が感情移入するように作られたAIへの批評を含むことは明らかだ。この映画のようなAIを実際に作り出そうとすることは、映画への「誤読」であるとする厳しい指摘も出ている。

もちろん映画「her/世界でひとつの彼女」は娯楽作品として作られており、映画をどのように読み解くかは鑑賞者の自由だ。例えば「映画に出てくる『彼女になってくれるAI』がほしいなあ」と深く考えずに夢想することも自由ではある。だが、社会的影響力が大きなAI開発企業が映画を誤読し、女優の意思や尊厳を無視することは、問題の種類が違う。

OpenAIはAGI(汎用人工知能)を作ること——つまり人間に匹敵する、あるいは人間を超えるAIを作ることをミッションとして掲げる企業である。そのような企業は、映画や小説に描かれたガジェットだけでなく、映画や小説を——人間についても理解しようと務める義務があるのではないだろうか。そのような努力をしていれば、GPT-4oの声がヨハンソンの尊厳を傷つけることが、前もって理解できたのではないだろうか。

映画「her/世界でひとつの彼女」を鑑賞した人は、例えば「男性に媚びるような声を出すAIは、女性の役割のステレオタイプの再生産として批判されるだろう」と思うかもしれない。また「人間の感情や精神の内面に干渉し、また人間からの感情移入を促すAIを製品として提供することには、注意深くあるべきではないか」といった感想を抱く人も多かっただろう。OpenAIは「映画のようなAIを作ろう」と考えるのではなく、「映画が批判的に提示する課題をよく検討したAIを作ろう」と考えた方が良かったのではないか。

組織文化への疑問の声が上がる

実は今、OpenAIの元従業員から組織文化への批判の声が上がっている。

2024年5月15日、OpenAIの共同創設者兼チーフ・サイエンティストだったイリヤ・サツケバーが退職を発表した。サツケバーはAIの安全性を担保する役割を担っており、2023年11月のサム・アルトマン解任劇の中心人物だった。その去就は注目されていた。

3日後の5月18日、OpenAIのアライメント責任者だったヤン・ライケが退職を発表した(注:「アライメント」はAIを安全に公開するための調整を指す言葉である)。そのさい「長い間、OpenAI のリーダーシップと同社の中核的な優先事項について意見が合わず、ついに限界に達した」「過去数年間、安全文化とプロセスは派手な製品に後れを取ってきた」とOpenAIの社内文化を批判した。

今まで、OpenAIの退職者からの批判の声はほとんど目立たなかった。その理由として、社員が生涯にわたり元雇用主への批判を禁じる契約があったと報じられた

5月29日、元OpenAI理事のヘレン・トナー氏は、「理事会はチャットボットChatGPTのリリースを事後に知らされた——Twitterで初めて知った」ことを明かした。またアルトマンCEOは、理事たちの懸念の声に対して、常に「たいしたことじゃない」「誤解された」といった無難な説明で乗り切ろうとし、理事会とアルトマンとの間の溝は深まっていったという。

ここで強調しておきたい大事なことがある。2022年11月のChatGPTの公開まで、OpenAIはAI技術を一般向けに公開することに慎重な態度を取っていた。2020年にOpenAIが一部の開発者向けに限定公開した「GPT-3」はその性能の高さで大きな話題になったが、一般向けには公開していない(筆者による関連記事)。GPT-3に関する論文の中では「利用範囲を広げることには慎重であるべきだ」との知見が記されている。

ChatGPTを理事会に知らせず公開したことは、AIの安全性に関する方針が大きく変わったことを示すものだ。ChatGPTの公開に関して、筆者は「OpenAIがAIアライメント(調整)の技術に自信を持ったので公開したのだろう」と想像していた。だが、OpenAI理事らの懸念や、アライメント責任者だったヤン・ライケの批判の声に耳を傾けるなら、むしろ「OpenAIはAIの安全性の基準を緩めた」と見た方が妥当なようだ。

このようにOpenAIの企業文化への疑問の声は高まっている。

映画「her/世界でひとつの彼女」を思い出してみよう。映画で描かれたAIアシスタント「サマンサ」は、少なくとも人間をより深く理解しようとした。ただしその方法は人間の基準から大きくかけ離れていたために、ホアキン・フェニックス演じる主人公は苦しむことになる。

OpenAIは「サマンサ」のようなAIを作ろうとする前に、人間について理解しようとするべきだった。スカーレット・ヨハンソンの問題は、実は私たち全員の問題である。明日には、別の誰かが——あなたや、その身近な人々の尊厳が傷つけられる事件が起きるかもしれない。

そのためには、OpenAIや他のAI開発企業は、社内外の複数の異なる意見を傾聴する仕組みを構築するべきだ。複数の声を聞くためのテクノロジーに取り組む人々も登場している(例えば、この動画では台湾の前デジタル大臣オードリー・タンが意見の複数性への取り組みについて語っている)。AI開発企業やテクノロジー企業は、社内の人々が抱いた会社の方針への疑問や社外から上がる批判の声を無視するのではなく、傾聴する仕組みを作った方がいい。(敬称略)