「亡くなった父から返信がきたとき、まるでそこに本人がいるようで少しばかり魔法のようだったよ」。米カリフォルニア州の作家で実業家のジェームズ・ブラホスさん(50)はそう振り返る。
4年前、末期の肺がんで余命わずかと宣告された父ジョンさん(享年81)の生前のインタビュー音声と書き起こしメモから、簡単な文字メッセージのやりとりができるチャットプログラムを作った。その経験をもとに2019年にスタートアップ企業「ヒアアフター」を設立。同社が事前に収録したインタビュー音声と音声認識AIを使い、文字ではなく音声で故人と「会話」できる有料のクラウドサービスを始めた。
「好きだった歌を歌って」「母さんと出会った頃の思い出を話して」。遺族らがアマゾンの音声認識AI「アレクサ」を通じてデータを呼び出すと、故人の音声が応じてくれる。
「愛する人を、よりはっきりと思い出せる新たな方法を提供したかった」とブラホスさんは言う。故人AIに収録する内容は、その人の出身校や業績など来歴にまつわるものが主だが、「愛しているよ」との呼びかけに「私も」と答えたり、「今とても悩んでいる」といった呼びかけに「あなたならきっと大丈夫」と応じたりするなど、その人らしい言葉で遺族を慰め、励ます音声もあらかじめ録音されるという。
「死をすべての終わりとせず、愛する人が自分の心に生き続けると考えることは人に前を向く力を与える。ヒアアフターは、心の中の故人の思い出をより鮮やかで細やかにとどめる手助けができる」とブラホスさんは言う。
料金は、収録するデータ量や故人AIにアクセスできる人数に応じて変わり、月々15~25ドル(約1550~2600円)。19年に英語圏を対象にサービスを始めると約1500人が会員登録した。高齢にさしかかった人だけでなく、親の故人AI制作を望む40~50代の子供世代からの問い合わせも多い。すでに数十人が同社による音声収録に着手したという。
スウェーデンの「フェニックス葬儀社」も、故人AI事業に参入しようとしている。CEOのシャーロット・ルニウスさん(38)が17年、ウェブサイトの問い合わせなどに使われるAIチャット機能に着想を得た。かつて故人にまつわる有形のものといえば肖像画や少しの毛髪、墓石くらいで、「人々は忘れることで前に進んだ」とルニウスさん。でも今はソーシャルメディアや動画など生前の故人の思い出をとどめるものが豊富にあり、それが人々の悲しみへの向き合い方を変えていくと考える。
「たとえば長年連れ添った伴侶を亡くした高齢者が、鮮やかな思い出に浸りながら余生を過ごしてもいいのではないか」。思い描く未来は、バーチャルリアリティー(VR)のゴーグルを着けた遺族が、故人と朝食のテーブルを囲み、天気などたわいのない日常会話を交わす風景。自身のAI制作に関心を持つ協力者は25人ほど集まったが、年間約50万ユーロ(約6300万円)の資金を欠き、予算不足で開発は19年から中断しているという。
■研究者の視点 何を「再会」の目的にするか
科学技術と社会のあり方について研究している東京大学の江間有沙特任講師(36)に「故人との再会」の限界や課題について聞いた。(聞き手・構成 渡辺志帆)
――日本科学未来館が2020年2月に実施したアンケートで、「故人AI」を「使いたくない」と答えた人が5割を超えました。「AI故人」に拒否感があるのはなぜでしょうか。
故人に再会して何をするのかという目的がアンケートに書かれていなかったので、答えにくかったのかもしれません。医療とか災害分野は今ある技術の延長でイメージがしやすいですが、亡くなった方をAIでと言われるとSF的な感じがして、それぞれの人が思い浮かべる目的によって意見が割れてしまう気がします。今でも写真やSNSの履歴など亡くなった人のデータは消えずに残っています。亡くなった方とテクノロジーを介して内省的に対話をすることは、部分的ですがすでにできています。そのような尋ね方であればアンケート結果は違ったかもしれません。
――「AI故人」は社会に受け入れられるでしょうか。
ある技術が社会に受け入れるか否かは、時代や人々の慣れによって変わります。ビデオ映像も、見方によっては亡くなった人が生きて動いているわけですが、現代人の多くに抵抗はなく、「生き返った」と間違うこともありません。一方で、私たちがすでに受け入れた技術も、受けつけたくないという信念がある人には配慮が必要です。たとえば、オーストラリアの先住民(アボリジナルピープル)は、亡くなった人の霊魂に特別の思い入れがあり、現地のテレビ局が亡くなった先住民の動画を放送する際は、あらかじめ「これから亡くなった方の動画が流れます」と注意喚起を促すそうです。そうすることで、見たくない人はテレビを消して見ないで済みます。そう考えると、亡くなった人を再現する際は、宗教的、文化的、個人的な抵抗がある人たちに配慮が必要です。
――今のAI技術はどこまで進んでいるのでしょうか。生き写しのような故人AIを作ることも可能でしょうか。
AI技術自体はデモクラタイズ(民主化)されているので、最低限の知識とツールがあれば個人でも始められますが、AI故人となると、精巧に作り込まないと、見る人が「本当に会えた」と感じるものはできません。さらに昨今のAIは大量の入力データによって可能になっているので、故人の何を再現したいのかという目標設定とその目的に合わせた大量のデータ、それを最適化するアルゴリズムが必要で、ハードルはかなり高いといえます。表情や話し方の抑揚まですべてを完全に、あたかも故人が目の前にいるようにVR(仮想現実)などで作るのは「総合芸術」の域で、非常に難しいです。ですから、個人レベルで、しかも高い精度で動くようなものが安価に作られる世の中はそんなにすぐには来ないでしょう。
――大量のデータといえば、私たちは自分自身についてのかなりの情報を外部化しているという指摘もあります。
サイボーグ化とは、メガネなどの身体補強器具で体が機械化するだけではなく、メールや連絡先、スケジュールや思考など、私たちがすでにいろいろなものを電子上に預けている状態という指摘です。買い物や会議もインターネットがなければできないし、スケジュールや記憶媒体も電子的に管理されています。もしかしたら自分以上に推薦機能や検索機能の方が自分の好みを隠すことなくわかっている可能性があるわけです。そういうデータまで自由に使えるとなったら、本人のイメージによる自分ではなくて、本人が意識していないところまで似せた、「データから作り上げたゾンビ」として、故人をよみがえらせることが可能になるかもしれません。
一方で、それは自分のある側面をとらえた「ゾンビ」に過ぎません。インターネット上での自分の振るまいと、リアルの自分の振るまいが同じとは限らないからです。人は付き合う相手や場面、TPOによって振るまいを使い分けますから、どういう自分が作られるかは留保付きで考えておくべきでしょう。「よみがえり」という点では、「私」が見ていたあの人に会いたいのか、「ほかの人」が見ていたあの人に会いたいかで、AI故人の対応や態度が異なり、違和感が残る可能性はあります。これは一定のイメージが共有しやすい公人よりは、私たちの身近な人である私人をよみがえらせるときに問題になってくると思います。
――電子的な情報をAIが組み合わせて故人を再現できても、複雑な心のひだのような側面は実現が難しいということでしょうか。
機械的にデータを全部入れることはできると思いますが、今のAI技術は利用目的に合わせてチューニングすることが付加価値になると思います。ですから、亡くなった人に会いたいという人が、何を目的で故人に「再会」したいのか、そのためにはどういう場面を設定して、どんな会話をすることが目的にかなうのかということを、技術やグリーフケアの専門家と、利用する本人の意思を交えて話さなければ、喪失感や依存が増したりして、レジリエンスを高めるはずが逆効果をもたらすこともあり得ます。AI故人の完成度が高ければ高いほど「もろ刃の剣」になる恐れがあります。
――「デジタル終活」という言葉がありますが、本人が望まず死後に「再生」されるリスクは一般の人にもありますか。故人の遺志に反していた場合、どんな実害が考えられますか。
現在の個人情報保護法では故人のプライバシーは適用範囲外なので、死後にAI故人を作っても法的な問題は生じません。遺族ならばなおさらでしょう。他の人の名誉を毀損(きそん)するなどしない限り、故人の身内だけで楽しむ分には法的な問題はないでしょう。倫理的な問題では、自分が勝手によみがえらされることへの意見は人によって違い、未知の領域です。気にしないという人もいれば、データの破壊を望む人もいるかもしれません。ですから、遺族が死後に同意なくよみがえらせていいかはインフォームド・コンセントをした上で、家族で話し合っておくのが大事だと主張する団体もあります。実際、そういう世の中になる可能性が高いと思います。
一方で、今は亡くなった人の生前の交友関係を家族すら把握しにくいのが現状です。遺族が勝手に故人のデータを扱う以前に、故人が生前どんなことをしていたのか、共有する場もインセンティブも、義理も義務もないため、その点にまず対処しなければいけないかもしれません。また購買履歴などのデータを巨大IT企業が使い続ける恐れがあり、個人が生み出すデータの価値の再考が迫られています。
――AIのあり方は、私たちがどのような社会に住みたいかによって変わると思います。これから先、どんな社会になっていくと想像しますか。
みんなが一つのグランドセオリーやグランドデザインといった単一のビジョンを持つことは難しいと思います。ただ個人のAI利用を止めることは難しいので、使う人は最先端の技術でアバターやグリーフケアで利用し、個人情報の保護や人権への配慮をしたうえでデータの提供を進める一方で、興味がないとか使いたくない人もいるなど、機械と人との関係性に多様なかたちがある社会になっていくだろうと考えます。そうした多様性が許容され、やりたくない人が強制されないけれど、やってみたい人への情報のアクセスは妨げられることのない社会であってほしいと思いますし、その方が、生きやすい気がします。
AIはしょせん道具にすぎません。ドラえもんのように、何でもできる自由な意思を持った存在ではなく、人間を支援する「道具」だと考えた時に、目的を明確にした上で、限界を理解して、正しく使えるような情報を技術者としても発信していくべきです。使う側も、過度の期待や依存をせずにリテラシーを持って使っていくことが大切だと思います。
えま・ありさ 1984年生まれ。東京大学未来ビジョン研究センター特任講師。専門は科学技術社会論。人工知能学会倫理委員会委員。理化学研究所革新知能統合研究センター(AIP)客員研究員。主著は『AI社会の歩き方―人工知能とどう付き合うか』(化学同人2019年)