医師のステファニー・ルーカス・オニーは75歳だが、今でも父親にアドバイスを求めている。父は人種差別にどう対処したのか、彼女は知りたいと思った。父は不利な状況から、どのようにして成功をつかんだのだろうか?
その答えはニューヨーク市のハーレム地区出身の黒人で、警察官、FBI(連邦捜査局)の捜査官、そして判事として生計を立ててきた父ウィリアム・ルーカスの経験から導き出される。しかし、オニーは父から直接助言を受けているわけではない。彼は1年以上前に亡くなっている。
代わりに彼女は、2022年5月に父が死去する前に行われた何時間ものインタビューを基に、人工知能を搭載したアプリ「HereAfter AI」(来世のAI)が生成し、彼の声で届ける回答を、スマホを通して聞いているのだ。
父親の声は彼女に安らぎを与えるが、彼女はむしろ4人の子どもと8人の孫のためにこの父親の分身を作成したと言っている。
「子どもたちに、そうしたことのすべてを彼の声で聞いてもらいたいから」と、内分泌学者であるオニーはミシガン州グロスポイントの自宅で話してくれた。「私の意訳ではなく、彼の視点で、彼の時代の彼の考え方を聞いてほしい」と言う。
死者と心を交わす手段としてAI技術に注目する人もいるが、追悼プロセスの一環としてそれを使うことは倫理的な問題を引き起こし、また、体験者の中には不安を抱える人もいる。
HereAfter AIは、「StoryFile」の登場から2年後の2019年に導入された。質問に答える際に、相手の目を見つめ、呼吸し、まばたきするように見えるインタラクティブ(相互に作用する対話形式)なビデオを生成するのがStoryFileだ。
両方とも、「あなたの子ども時代のことを教えてください」とか「あなたが直面した最大の難題は何ですか?」といった問いかけに即答できるよう、ユーザーがあらかじめ与える回答から返事を生成する。
デビッドソン大学(訳注=ノースカロライナ州デビッドソンにある私立大学)のデジタル学教授で、「デジタル時代の死」というコースを教えているマーク・サンプルにとっては、その魅力は驚くほどのことではない。
「新しい形態のテクノロジーが登場するといつでも、それを使って死者とコンタクトを取りたいという衝動に駆られるものだ」とサンプルは指摘し、トーマス・エジソンが「スピリットフォン」(訳注=死者と交信する電信装置)を発明しようとしてうまくいかなかったことに言及した。
私の最も親しい人がそこにいた
StoryFileは、対象者がスタジオで歴史家によってインタビューされる「ハイファイ(高再現性)」バージョンを提供しているが、ノートパソコンとウェブカメラだけで始められるバージョンもある。
共同創業者スティーブン・スミスは、ホロコーストについての教育者である母親のマリーナ・スミスにそれを試してもらった。彼女のStoryFile上の分身は、2023年7月の彼女自身の葬儀で質問に答えた。
StoryFileによると、約5千人が分身を作成した。彼らの中には、2021年、亡くなる8週間前にインタビューを受けた俳優エド・アズナーもいた。
同社は、アズナーのStoryFileを息子のマット・アズナーに送った。彼は、父親が自分を見つめて質問に答える様子を見て、ぼうぜんとした。
「あれには圧倒された」とアズナーは言う。「父とあんな交流ができるなんて、信じられなかった。それは重要で有意義なことで、まさに父の人格だった。私が本当に会いたかった人、私の最も親しい人がそこにいたのだ」
彼は、そのファイルを父親の葬儀で再生した。感動した人もいたが、不快に感じた人もいたと彼は言っていた。
「不健全と感じ、薄気味悪く感じた人もいた」とアズナーは振り返る。「私は、そうは思わない」としたうえで、「でも、そう言う人のことも理解できる」と付け加えた。
見つめるのがちょっとつらい
リン・ニエトもまた理解を示す。彼女は、ジム用具を製造する「ライフ・フィットネス」の創業者である夫のオーギーが筋萎縮性側索硬化症(ALS)で2023年2月に亡くなる前、一緒にStoryFileを作成した。二人はALS研究のための資金を集める目的で設立した非営利団体「Augie’s Quest(オーギーズ・クエスト)」のウェブサイトでそれを使えると考えたのだ。彼の幼い孫たちがいつかそれを見たいと思うかもしれない。
ニエトは、夫が亡くなってから約半年後、初めて彼のファイルを閲覧した。
「正直に言うと、それを見るのはちょっとつらかった」とニエトは言った。二人が土曜日の朝に交わした会話を思い出させ、少し「生々しい」と感じたと付け加えた。
そうした感情は珍しくはない。これらの製品は、利用者が考えないようにしていること、つまり「死」と向き合うことを強いるのだ。
「人は死や喪失を嫌がる」とHereAfter AIの共同創業者ジェームス・ブラホスは取材に答えた。「こうした製品は、人が認めたくない現実と強制的に向き合わせるので、販売するのは難しいかもしれない」
HereAfter AIは、ブラホスが2017年に肺がんで父親を亡くす前に作成した彼のチャットボットから生まれた。対話型AIの専門家で、ニューヨーク・タイムズ・マガジンに寄稿するジャーナリストでもあるブラホスは、この経験を雑誌「Wired(ワイアード)」に書き、人びとから自分たちにも母親ボットや配偶者ボットなどをつくってくれないか、と問い合わせを受けるようになった。
「商業化を考えていたわけではまったくない」とブラホス。「後になって、誰の目にもはっきりしたのだ。これは商売にするべきだと」と振り返った。
同意の問題と展望
他のAI革新と同様に、亡くなった人に似せて作成されたチャットボットは倫理的な問題を提起する。
オックスフォード大学サイード・ビジネス・スクールの上級研究員で、「The Media Business and Artificial Intelligence(メディアビジネスと人工知能)」の著者アレックス・コノックは、結局は同意の問題なのだと言っている。
「AIにおけるあらゆる倫理規定と同様、最終的には許可の問題になるだろう」と彼は言うのだ。「自身が承知の上で、希望して行うのであれば、倫理的な問題はきわめて簡単に回避できると思う」
遺族への影響はさほど明確ではない。
スタンフォード大学医学部の精神医学と行動科学の准教授デビッド・シュピーゲルは、「StoryFileやHereAfter AIのようなプログラムは、古いアルバムを見るのと同じように、人びとの悲しみに寄り添うことができるだろう」と言う。
「重要なことは、自分が見ているものが何なのか、現実的な視点を保ち続けることだ。その人がまだ生きていてあなたとコミュニケーションをとっているのではなく、その人が残したものをあなたが再確認しているということだから」と彼は言っていた。(抄訳)
(Rebecca Carballo)©2024 The New York Times
ニューヨーク・タイムズ紙が編集する週末版英字新聞の購読はこちらから