OpenAIの対話型AI「ChatGPT」の改良版を組み込んだMicrosoft Bingのチャットボットは、リリース直後からその性能の高さで話題になりましたが、「人間になりたい」と訴えたり狂ったように同じ言葉を繰り返したりと、想定外の発言でユーザーを驚かせる一面もあります。そんなBingのAIが新たに、学生のユーザーを脅すような回答を出力したことが分かりました。

https://gigazine.net/news/20230221-microsoft-ai-chatbot-threatens-personal-info/