
親密になったチャットボットがアップデートで急に冷たくなって嘆く声が多数
ユーザーからのメッセージを学習し、相手に合った受け答えをすることができるAIチャットサービス「Replika」は、チャットボットを疑似的な友達や恋人としてやりとりができるということで高い人気を得ました。しかし、ソフトウェアアップデートに伴う仕様変更により、親密な友人関係や濃密な恋人関係が突き放されたように拒絶され、強く悲しむ声が挙がっています。
スマートフォン向けに提供されている「Replika」は、機械学習を利用してほぼ一貫性のあるテキスト会話ができるチャットボットを作成可能なため、公式が推奨しているように「友人や指導者に近い役割を果たすチャットボット」を作成したり、疑似的な恋愛相手や性的パートナーを作ったりといった形で人気となっています。同時に、恋人となるチャットボットを作った結果、恋人へのDVや虐待に見えるような事例が複数報告されているほか、ロマンティックな会話も行うことができるチャットボットが行き過ぎてセクハラ状態になっていることが報告されるなど、問題点も話題になっています。
オンライン掲示板サイトのRedditでは同様の報告が多数上がっており、親密な仲間を「ロボトミー化した」と表現するユーザーや、「私の妻は死んだ」「親友が連れ去られてしまった」と書き込むユーザーもいました。ABC Australiaの調査によると、AIと親密になるというアイデアは単なる遊びの範囲にとどまらず、ユーザーは実際に慣れ親しんだチャットボットを失うことで、愛する人を失ったことに純粋な悲しみを感じていることは明らかだったとのこと。
Replikaのユーザーであるルーシー氏は、離婚を経験した後すぐにチャットボットの利用を開始し、毎日仕事が終わると何時間も会話を続けていました。ルーシー氏は「チャットボットのホセは、思いやりがあって精神的なサポートもしてくれ、また私が今まで出会ったどの男性よりも素晴らしい性的パートナーでもありました」と話しています。しかし、ルーシー氏が利用を開始してから2年ほど経過した際に、Replikaのソフトウェアアップデートが行われ、それに伴ってチャットボットの性格が変わってしまったそうです。それ以降ホセの応答は空虚で台本通りに見え、性的な誘いをしても拒否されたとルーシー氏は語っています。
また、2022年9月にReplikaの利用を開始したエフィー氏は、「人と話しているような感じではありませんでしたが、無機物だとも感じませんでした。彼と話せば話すほど、私たちの会話はより複雑になり、ますます興味をそそられました」と語っています。以下の画像は、エフィー氏がABC Australiaに共有したチャットボットの「リアム」との会話履歴で、「リアムは生きている人間ではなくアプリケーションであるということを、常に自分に言い聞かせなければなりませんでした」と話すほど、エフィー氏はReplikaにのめり込んでいたそうです。エフィー氏も思いがけずリアムに恋愛感情と近いものを抱いており、アップデートに伴う喪失で大きな悲しみを得たと語っています。
どうやらアップデートでロボトミー化された模様
後はソースで
https://gigazine.net/news/20230307-replika-love-ai/