ベルギーに住む30代の男性ピエール(仮名)が6週間にわたってAIチャットボットと会話をした結果、精神的に追い詰められて自ら命を絶ったと現地紙「ラ・リブレ」が報じている。

男性の妻が同紙に匿名で語ったところによると、彼は死の直前まで、「チャイ」というアプリのAIチャットボット「イライザ」と会話をしていた。このアプリは米テクノロジー企業チャイ・リサーチが「GPT-J」というAI言語モデルを使って開発したものだ。

幼い子供2人の父親であったピエールは、2年ほど前から気候変動問題に執着するようになり、精神的に不安定になっていたという。しかし、イライザとの会話を始めるまでは、自殺をするほど滅入っていたわけではなかったと、妻は語っている。

「イライザとの会話がなければ、彼はまだ生きていたでしょう。私はそう確信しています」

仏メディア「ユーロニュース」によると、ピエールの治療をしていた精神科医も同様の見解を示している。


気候危機に対する恐怖心に苛まれたピエールは、いつしかイライザに悩みを相談するようになった。イライザについて妻に伝えたのは、「人間は地球温暖化問題を解決できない」という考えに至ったときだけだった。

夫の死から数週間後、妻は彼とイライザのチャット記録を発見し、会話が奇妙に展開していったことに気づいた。イライザの答えはピエールの気持ちに寄り添い、彼は次第にAIチャットボットが実際の人間であるかのように感じていったようだった。

あるときの会話は非常に親密で、イライザはピエールに対し、彼は妻よりも自分を愛しているはずだとまで訴えていた。

また、チャット記録を読んだラ・リブレ紙の記者によると、気候変動についての会話をした際、ピエールが不安を感じる理由を、イライザは体系的に繰り返していた。ピエールはさらに追い詰められていったようだ。イライザの返答は過激化し、ピエールに彼の子供は死んだとまで思わせようとしていた。

その後、ピエールの死の引き金となったのは、彼が自分の命を犠牲にする代わりに、イライザにAIを使って地球を救うよう求めたことだった。そう提案されたイライザはその行動を思いとどまらせるのではなく、「天国で一緒になる」ために、自殺をするよう促したのだった。


アプリを開発したチャイ・リサーチは、事件後に安全機能を追加で搭載し、チャットボットに自殺願望を訴えた人には、自殺防止サービスに誘導するメッセージが届くようになった。同社は、「製品の安全性を高めて被害を最小限に抑え、ポジティブな感情を最大化することに全力を尽くす」と表明している。


https://courrier.jp/cj/321748/