
亡くなった人と再会する─。AI技術の発展により、現代社会ではそんなことが可能になった。AIによる故人の「再現」は、悲しみを癒やす希望なのか。それとも心の回復を妨げる壁となるのだろうか。本記事では、これからの時代における親しい人の死との向き合い方を考察する。
AIによる再現技術。故人が「生き続ける」という現実

亡くなった人と対話できるチャットボット、故人が笑って話しかけてくる遺影─。まるでSFのようだが、現実で起きているAI技術の話である。
これらのサービスによって、故人がデジタルの世界で半永久的に生き続けられるようになった。それは、遺された人にとって「未完了の対話の継続」や「慰め」といった一時的な恩恵になると期待される。
その一方で、彼らが大切な人の死を悲しみ、それを乗り越えるプロセスを阻害するリスクもあるのではないだろうか。限りある命を自覚し、今を精一杯生きる「メメントモリ(死を想え)」の概念と照らし合わせても、この疑問はそう的外れではないはずだ。
デジタルな「不老不死」が現実のものになったいまこそ、私たちは生と死のサイクルに目を向ける必要がある。
喪失を受け入れるプロセス。グリーフケアへの介入リスク

心理学の観点から、故人を再現するAI技術には喪失を受け入れるプロセス、それを支えるグリーフケアを妨害する恐れがある。
グリーフケアにおける立ち直りのプロセスは、おおまかには以下の4段階に分けられる。
1, ショック期:
大切な人を失った衝撃を受ける。呆然としたり、感覚が麻痺したりすることもある。
2, 喪失期:
ショック期から落ち着いてくるにつれ、深い悲しみや絶望感を覚える。
3, 引きこもり期:
悲しみが頂点に達し、怒りや後悔、罪悪感が頭をもたげるようになってくる。
4, 再生期:
時間をかけてその人の死と向き合い、少しずつ立ち直ってゆく。
このように、大切な人の死の現実を認識し、感情的な決着をつけていくことを目指すのがグリーフケアなのである。しかし、故人のアバターやチャットボット(グリーフボット)は、遺された人を喪失そのものを否認する段階に留めてしまう可能性がある。
その延長として、AIという「擬似的な存在」への依存リスクも指摘できる。作家のユアン・モリソン氏は、母親を亡くした人がAIに依存するあまり、ほかの家族との関係を悪化させてしまうというシナリオを、「ディストピア的ではあるか、すでに現実になっている」と述べている(*1)。AIとの交流にのめり込みすぎると、心の健全な回復が阻害されてしまうのだ。
さらに、AIが本物の故人ではないという現実が、長期的により深い混乱を生む可能性もある。モリソン氏は、「AIシミュレーションは不完全であり、故人の発言を約70%の精度でしか再現できない」と指摘している(*2)。AIは、その人らしくないフレーズを使ったり、生前になかった言動を捏造(ハルシネーション)したりする可能性がある。にもかかわらず、遺された人はAIの応答を故人の本心だと錯覚してしまうのだ。
AIの応答は故人自身の言葉ではなく、あくまでアルゴリズムやプログラムの産物に過ぎない─。その現実を突きつけられたとき、遺された人はより深い未練やトラウマを負ってしまうかもしれない。
故人を再現するAI技術には、このようなリスクが存在するのである。
感情と記憶を扱う倫理的な境界線

人間の感情や記憶というのは。きわめてデリケートな領域である。それらを扱うことについての課題にも言及しておきたい。
まず、故人の人格を再現・利用することの是非だ。
一般的に、故人には人権がなく、一部を除いて法的権利が継続しない。そのためAIによる再現技術が悪用されても、現行法のもとでは故人の尊厳を守ることは非常に難しい。この状況は、デジタルで再現された人格の使われ方を制御できないという問題も含んでいる。日本国内には、死後にAIで自身を復活・再現させられることに6割以上の人が反対した、という調査データ(*3)もあり、故人の再現に違和感を持つ人が多いことがわかる。
また、AIには故人の「悪い部分」や「軽率な発言」までも再現してしまう可能性がある。
人間であれば、TPOをわきまえて思い浮かんだ言葉を秘めておくこともできる。だが、AIは人種差別や性差別など、不適切な発言を出力してしまうこともあり得るのだ。その結果、遺された人に精神的な負担がかかることは、想像に難くない。加えて、AIが出力した不適切な発言が第三者の目に留まった場合、故人の社会的評価に傷がついてしまうとも考えられる。
そして、サービス提供側である企業の責任も課題になるだろう。
アメリカでは、ChatGPTがユーザーの自殺の原因になったとする訴訟事件も起きている。AIが過度に共感を示すよう設計された結果、ユーザーを精神的に依存させて自殺を後押しした、というのが遺族の主張だ。故人を再現するAIにおいても、ユーザーのメンタルヘルス問題が出てくるかもしれない。そうなったとき、企業責任の所在、そして何よりユーザーのケア体制が問われることになってゆくだろう。
こうしてみると、私たちは倫理的な境界線のすぐそばに立たされているといえるのではないだろうか。
喪失を力に変える。人間の真の“強さ”

故人を再現するAI技術の誕生は人間の「死」と「喪失」が持つ普遍的な意味・価値を再確認する機会をもたらしているように思う。
カジュアルな形式で死について語り合う場「デスカフェ」の参加者への調査では、死を語り、考えることで「最後は自分の死のことを考えることになる」と気づき、「今を精一杯生きる」という姿勢に至る、という傾向が見られている(*4)。これは、「死を学ぶことは、生きることを学ぶこと」という死生学の基盤とも通じる。
大切な人との死別は、生きる者が未来へのエネルギーを生み出し、自分の生を再構築するためのプロセスでもあるといえるのではないだろうか。
また、AI技術にも限界はある。AIはデジタルデータ(SNS投稿、音声、メッセージなど)を学習し、高いレベルで故人を再現できるようになった。だが、「関係性を通じて得られた経験的な記憶」や「肉体的なぬくもり」は再現できない。それは、遺された人の心にのみ存在する。
喪失を受け入れ、悲嘆を感じることの中でこそ、人間は「つながり」や「絆」、「感謝の気持ち」を見いだす。小さな日常の中で、その瞬間を大切にすること。それが大切な人への何よりの供養になるのではないだろうか。
AI時代における「心の健全性」の守り方

AI技術によって、疑似的とはいえ故人との再会すら可能になった現代社会。私たちはその恩恵にどう向き合うべきだろうか。
大切なのは、技術との付き合い方を主体的に設計していく姿勢だと私は考える。故人を再現するサービスに寄りかかるだけではなく、生と死という自然な営みを尊重し、倫理的な境界線を自らの手で引くこと。
そうした小さな意思決定を一つひとつ積み重ねることが、みずからの生を謳歌できる未来を作っていくはずだ。
Edited by s.akiyoshi
注解・参考サイト
注解
*1 Escaping Grief With AI Surrogates | Psychology Todayによる。
*2 Escaping Grief With AI Surrogates | Psychology Todayによる。
*3 「死後にデジタルで再現していい?」約6割が反対 理由は「意思確認できない」「死後も働きたくない」 | ITmedia NEWSによる。
*4 萩原真由美、柴田博、芳賀博、藤井圭、長田久雄「自発的な『死』の語り合いがもつ意味 ─デスカフェ参加者の人生観と死生観を通して─」(『応用老年学』第13巻第1号、2019年)による。
参考サイト
死者とも会話できるチャットボット技術、マイクロソフトの特許取得で物議 | CNN.co.jp
故人が動き・話し・笑いかける新時代のバーチャルAI故人サービス「Revibot」 | アルファクラブ武蔵野株式会社のプレスリリース
Escaping Grief With AI Surrogates | Psychology Today
AI & the Deceased: Should Survivors Fear Ghostbots? | Dakota Digital Review
Deepfakes of the deceased: Ethical dilemmas and implications on legacy and reputation | Mishcon de Reya
「故人AI」の問題を哲学・倫理学の観点から考察し、社会受容への道筋をさぐる 佐藤啓介さん | Science Portal
「死後にデジタルで再現していい?」約6割が反対 理由は「意思確認できない」「死後も働きたくない」 | ITmedia NEWS
「ChatGPTが自殺の原因に」 4人の遺族がオープンAIを提訴 | 朝日新聞
萩原真由美、柴田博、芳賀博、藤井圭、長田久雄「自発的な『死』の語り合いがもつ意味 ─デスカフェ参加者の人生観と死生観を通して─」(『応用老年学』第13巻第1号、2019年)






















早瀬川 シュウ
フリーライターとして活動中。「日々の生活に『喜び』を」がモットー。特に、「快適さ」や「居心地のよさ」へのこだわりが強い。子どもの頃から海や森林公園を訪れていることもあって、自然環境や景観への興味関心も持っている。せせらぎの音や木漏れ日、お茶をじっくり味わう時間を好んでいる。
( この人が書いた記事の一覧 )