Twitterを含む各種SNSサービスは児童虐待コンテンツの拡散を防ぐために自動検出AIや人力での対策を実施しています。しかし、Twitterではイーロン・マスク氏のCEO就任以降、児童虐待コンテンツの削除プロセスにかかる時間が2倍に増加したという実態が報じられています。

マスク氏は2022年11月に「最優先事項は、子どもの搾取をなくすことです。Twitterが対処する必要のある問題を見つけた際は連絡してください」と述べており、児童保護をコンテンツモデレーションの最優先事項に位置付ける姿勢を示していました。

しかし、ニューヨーク・タイムズによると、Twitterの児童虐待コンテンツ対応速度は、マスク氏のCEO就任以前の2021年12月時点では「月間98件の通知に対して平均1.6日で対応」だったものの、就任後の2022年12月には「月間55件の通知に対して平均3.5日で対応」へと鈍化したとのこと。その後、2023年1月には「月間82件の通知に対して平均1.3日で対応」にまで改善していますが、ニューヨーク・タイムズは「2023年1月にカナダの児童保護団体が児童虐待コンテンツの削除をTwitterに申請したものの、削除されるまでに1週間を要した」という事例を示してTwitterの対応の遅さを指摘しています。

また、Twitterは「2022年1月には児童虐待コンテンツを拡散していた40万4000件のアカウントを凍結した」とアピールしていますが、ニューヨーク・タイムズは「『最も簡単に削除可能』と考えられるような児童虐待コンテンツが、Twitter上には残っている」と述べ、Twitterの児童虐待コンテンツ拡散防止施策が正常に機能していないと指摘しています。

https://gigazine.net/news/20230207-twitter-child-abuse-content/