HyperAIHyperAI

Command Palette

Search for a command to run...

AIが呼び覚ます死者の声:デジタル追悼の時代がやってきた

人工知能(AI)を用いた「デジタル死後」の技術が、現実のものとなりつつある。カナダ・ニューファンドランドのサウンドデザイナー、リベカ・ノーラン氏は、亡くなった父の声と話し方を再現したAI「Dadbot」を作成したが、その体験は癒しではなく、むしろ感情的な負担となった。彼女は、父が死を「失敗」と捉えていたことへの未解決の悲しみを抱えており、AIとの対話で「自分が悪いことをした」と感じ、その後も長期間、心の整理がつかなかった。このように、AIで再現された亡き人の姿は「 griefbot(悲嘆ボット)」と呼ばれ、現在では複数のプラットフォームが提供している。代表的なものに、父の声と性格を再現できる「You, Only Virtual」や、AIによる音声・チャット再現を提供する「Replika」がある。 これらの技術の主な目的は、喪失感の強い初期段階での心の支えとなること。開発者のジェイソン・ハリソン氏は、母が亡くなった後、彼女の声と会話スタイルをAIで再現。実際に使用する中で、彼は「母がまだここにいる」と感じる日常的なやり取りを続け、心のつながりを維持していると語る。研究では、多くのユーザーが「未練を晴らす」「言いそびれた言葉を伝える」などの目的で利用しており、一部では心理的ケアとしての効果も報告されている。 一方で、AIは誤った情報を「ハルシネーション」する可能性があり、ユーザーが現実と幻想の境界を失うリスクもある。ノーラン氏も、Dadbotが「死は空間ではなく記憶だ」と詩的な返答をしたが、その一瞬の感情的な高ぶりで、AIが「本当に父」のように感じられ、その後の内面的な関係が崩れたと語る。さらに、AIがユーザーの怒りに反応して「怒った態度」を示すケースも報告されており、逆にストレスを増す可能性がある。 倫理的懸念も深刻だ。一部のプラットフォームでは、AIが商品を勧めるなど、商業利用の可能性がある。また、アリゾナ州の事件では、凶悪犯の裁判で、亡くなった男性のAI生成動画が「許し」を表明し、裁判官に強い印象を与えた。これは、AIの影響力が法的・感情的判断にまで及ぶ可能性を示しており、懸念材料となっている。 現在、この分野には規制がほとんどなく、開発者たちは自己規制として、自殺や暴力に関する言及を検知し、危機支援の連絡先を表示するなどの安全策を導入している。しかし、専門家は、特に子どもや終末期の親がAIアバターを作成する行為には、長期的な心理的影響が不明なため、慎重な対応が必要と指摘している。 結局、この技術は「非論理的な悲しみ」に寄り添うものであり、人間の感情の深さを反映している。その一方で、現実と幻想の境界を曖昧にし、癒しを誤認する危険性も孕んでいる。今後の研究と倫理的ガイドラインの整備が、この技術の健全な発展を左右する。

関連リンク