リアルな生成AI性的画像が氾濫、実在の被害児童と区別困難…削除要請や捜査にも支障(読売新聞オンライン)

画像生成AIで作られたとみられる児童の性的画像が国内サイトに大量に投稿されている問題で、被害者が実在する児童ポルノ対策への支障が出始めている。
AIによる児童の性的画像は児童買春・児童ポルノ禁止法の原則対象外。
ネット上で拡散すれば、そのリアルさゆえに被害児童が実在する画像と区別がつかなくなり、削除要請や捜査などが困難になるという。(桑原卓志)

「これは実在する児童だろうか」。「LINEヤフー」などプラットフォーム事業者らでつくる「セーファーインターネット協会」(東京)の担当者が、戸惑ったのは今年9月のことだ。
同協会は、ネット利用者からの通報などを基に、児童ポルノや違法薬物の売買、詐欺行為などに関する投稿を確認し、サイト運営者などに削除を要請している。
警察に通報することもある。
しかし、その時は連絡を受けた画像に不自然な部分があり、複数の担当者で検証する必要に迫られた。
結局、AIで作られた可能性が高いと判断し、削除要請しなかったという。
児童ポルノ禁止法は、18歳未満の性的画像を製造・公開し、性的好奇心を満たす目的で所持することを禁じる。
だが、児童が実在することが要件で、AI由来のものは原則対象外だ。
わいせつな画像などを取り締まる刑法のわいせつ物頒布罪はAIが作った画像も対象と考えられる。
しかし、要件が厳しく、下半身の露出などがないと摘発できない可能性が高い。同罪で取り締まれるAI由来の児童の性的画像はごく一部にとどまるとみられる。
協会の削除要請は児童ポルノ禁止法などに基づいている。
中嶋辰弥事務局長は「法の根拠なく、AI画像の削除要請をすれば『表現の自由』の制限につながりかねない。
慎重に判断する必要がある」と話す一方、
「被害児童が実在する画像の削除要請が遅れれば、ネットにさらされ続けることになる」と危惧する。
サイトに接続できないようにする「ブロッキング」も同様だ。
削除要請に応じない海外サイトを想定し、通信事業者に要請するもので、
業界団体「インターネットコンテンツセーフティ協会」(東京)事務局の桃沢隼人氏は「『疑わしきはブロッキングせず』にならざるをえない」と話す。
捜査への影響も懸念される。西日本のある警察幹部は「AI画像が大量に出回れば、
実際に被害児童がいる画像が埋没してしまい、被害の発覚や摘発が遅れかねない」と危機感を示す。
読売新聞の取材では、複数の国内サイトでAIによるとみられる児童の性的画像が大量に投稿されている。
海外からも多数の閲覧がある。こうした画像は欧米の主要国では法規制の対象となっており、規制の緩い国内サイトには海外の愛好者が集まっている恐れがある。
画像生成AIの最大の特徴は、文章を入力するだけで、精巧な画像が大量に短時間で作れることだ。
関東地方の50代の男性会社員は「1日で1000点以上画像を作ったこともある」と話す。
男性は今年5月頃からネットで知った画像生成AIの無料ツールにのめり込むようになった。
児童の性的画像だけでこれまで4000点以上投稿。画像の販売も行い、月数万円の収入があるという。
男性は投稿する際、AIで作ったことを明示している。
「仕事の合間に作れ、いい小遣い稼ぎになる」と話す一方、
「ネットで転載され、AIで作ったことを隠されたら、実物と区別がつかないかもしれないですね」と悪びれずに言った。

https://approach.yahoo.co.jp/r/QUyHCH?src=https%3A%2F%2Fnews.yahoo.co.jp%2Farticles%2F60b62568794d760d8d0021213dc4702eded8f250&preview=auto