生成AIの児童性虐待画像を売買 日本のソーシャルメディアなどで

アンガス・クロフォード、トニー・スミス、BBCニュース

子どもを性的欲望の対象とするペドファイル(小児性愛者)らが、人工知能(AI)を利用して実物そっくりの児童性虐待の画像などを作成し、販売していることが、BBCなどの取材でわかった。

そうした画像は「ペイトリオン(Patreon)」など、コンテンツ共有で主流となっているサイト内のアカウントに料金を支払うことなどで購入されている。

ペイトリオンは、その種の画像は決して容認しない方針だと言明した。

一方、イギリスの全国警察本部長評議会(NPCC)は、一部プラットフォームが「莫大な利益」を上げながら「道義的責任」を取らないのは「言語道断」だとした。

■AIソフトを使って

虐待画像の作成者は、「ステイブル・ディフュージョン(Stable Diffusion)」と呼ばれるAIソフトウェアを使っている。

AIは、通常は人間の知能を必要とする作業を、コンピュータに実行させることができる。

ステイブル・ディフュージョンは、ユーザーから画像に関してリクエストを言葉で受け付け、それに合った画像を作成する。

BBCは今回、このソフトウェアが、実物そっくりの児童性虐待の画像の作成に使われていることを確認した。画像には乳幼児をレイプする場面もあった。

オンラインの児童虐待を捜査する英警察のチームは、すでにこうしたコンテンツを目にしているとしている。

フリーランス研究者でジャーナリストのオクテイヴィア・シープシャンクス氏は、この問題を数カ月にわたって調べてきた。その結果を広く知らせようと、子どもの慈善団体NSPCCを通じてBBCに連絡した。

「AIでの画像生成が可能になってから、この大洪水が起きている。(中略)非常に若い女の子だけでなく、幼児も対象にされている」と、シープシャンクス氏は話した。

児童性虐待を描いたコンピューター生成の「疑似画像」は、現実の画像と同じように扱われる。イギリスでは、それらの所有、公開、転送は違法だ。

NPCCで子どもの安全対策に取り組むイアン・クリッチリー氏は、実在の子どもが描かれていないからといって、誰も被害を受けていないと主張するのは間違いだと警告。

ペドファイルについて、「思いつきから合成、そして現実の子どもへの虐待へと、犯罪の度合いを上げていく」恐れがあるとした。

■日本のソーシャルメディアに投稿

画像クリエイターの一部は、日本の人気ソーシャルメディア・プラットフォーム「ピクシブ(Pixiv)」に画像を投稿している。ピクシブは主に、漫画やアニメを共有しているアーティストらに利用されている。

このサイトは日本で運営されているため、クリエイターたちはグループやハッシュタグを使って自分の作品を宣伝している。日本では、性的な漫画や子どもの絵の共有は違法ではない。

ピクシブの広報担当は、この問題への対応を非常に重視していると説明。同社は5月31日、未成年者が関係する性的コンテンツの写実的な描写を全面禁止したと表明した。

同社はまた、監視システムの強化に積極的に取り組んできたと主張。AIの発展に関わる問題への対策に、かなりのリソースを割いていると述べた。

シープシャンクス氏の調査では、ユーザーらは工業製品を大量生産するような規模で、児童虐待画像を作成しているように思われるという。

同氏は、「膨大な量で、(クリエイターたちが)『最低で月1000枚を目標にしている』と言うほどだ」と話した。

ピクシブの個々の画像へのコメントを読むと、それを書き込んだ人たちが児童に対して性的関心をもっていることが明らかだ。なかには、AI生成ではない虐待の画像や動画を提供すると申し出るユーザーもいる。

シープシャンクス氏は、ピクシブのいくつかのグループを監視している。

「それらのグループにはメンバーが100人ほどいて、仲間内で『ほら、これが本物へのリンクだ』などと言って共有している」と同氏は話す。

「最もひどいものでは、そんな言葉...

詳細はサイトで
https://news.yahoo.co.jp/articles/c07c7aa3d2b5acb7015ea9472c06b9f0cf883eb0