AIで俳優の偽わいせつ画像を生成して公開した会社員、逮捕 [966095474]
■ このスレッドは過去ログ倉庫に格納されています
生成AI(人工知能)で実在する俳優の偽のわいせつ画像を作成し、インターネットに掲載したとして、警視庁保安課は16日までに、わいせつ電磁的記録媒体陳列容疑で、秋田市の会社員横井宏哉容疑者(31)を逮捕した。
容疑を認めている。
https://news.yahoo.co.jp/articles/c7191ce05ab3e6afb8757705bcb91bdc7ed38458 昔からの伝統であるコラエロ画像が摘発される時代になったか
AIが生成するのはクオリティが高すぎるのが原因か?
雑コラ程度ならまだ許されそうじゃねw
>>3 >>4 ほんまこのカテゴリ分け気色悪いわ
パット見でわからん
Twitterに芸能人で作ってる人がいたからそういうのじゃね
>>8 大昔のアイコラも流行った後に訴えられて衰退したんだから今更だよ
当時のこと知らないアホがまたやらかしたってだけ
アイコラを作りたい気持ちはわかるが
それを公開しようとするやつはヤバすぎる
AIがどうのこうのというより、昔からあるアイコラで捕まっただけ
来年規制予定だからついに積極的な摘発が始まったな😃
>>19 バイトテロや回転寿司の迷惑動画と大差ないよな
公開しなきゃまずバレん物をわざわざ公開して自爆する
なんでネットに放流するかなあ
でも自分の端末オンリーだろうが機内で見たらダメだよ
サッカー協会の偉い人みたいになる
>>1 5chで皇族のAIヌード写真はってたバカがいたけどあれも逮捕やろなぁ
AIだと有名人と知らずに流れてきた画像使って生成してアップしちゃう可能性はあるな
有名人だからって全員知ってるわけじゃないし
え、じゃあ大量逮捕くんじゃね
実在女の画像動かして奴たくさんいただろ
>>31 他人の写真でエロ画像作ろうとしている人が有名人かどうかを気にしているわけないだろ
Amazonで「橋本環奈」と検索するトップにパンチラ写真が出てくる😅
>>34 むしろ昔からあったアイコラが野放しにされていた方がおかしいんだよ
世の中がやっとまともになってきた
でもこれ日本だとディープフェイクを直接取り締まる法律ないから「エロ画像を貼った」って理由で摘発されてんだよな
有名人コラじゃない普通のポルノ貼っただけでも警察がその気になれば逮捕できる
>インターネットに掲載したとして、
お前らも震えとけwww
身に覚えのあるやついっぱいおるやろwww
今はAIで画像一枚あればエロ画像も動画も作り放題
今、学生だったら同級生のエロ動画作りまくるわ
エロ教師の名前はなかなか出さないくせにこれは一発実名かよ
この件は実在の人物の絵だったようだが
わいせつは実在非実在関係無い
>>36 うん、だから有名人だと思わずなんとなくアップしちゃう可能性があって危ないねって言ってるだけ
>>46 実際はわりと公開されてる
媒体によっては単に「〇〇小学校に勤務する教員」みたいに書かれるけどそれは普通の犯罪者でも「〇〇市に住む40代の無職」とかになるのと同じ
それから教え子だと被害者の推測があるから匿名になることもあるがそれは少ないかな
他人事じゃないぞ
ケンモメンもgrokスレでやってたからな
>>49 有名人=危ない
一般人=危なくない
みたいな考え方がそもそもおかしいんだよな
正直この波は止めようがないし
今後いくらでも出てくるだろうな
>>3 >>4 じゃあ女俳優を区別する時はなんて呼ぶんだよ
いつか逮捕者出るだろうとは思ってたけ意外と早かったな
水着はわいせつにはならんよな
Geminiで工夫してビキニにさせるのがすげー面白い
これ作るだけじゃバレないだろ
売ったりSNSにあげたりしてたのか?
>>54 女性俳優、男性俳優
まあ女優、俳優でええやんけっていうな
めっちゃ見せしめじゃん
ディープフェイクは国家は絶対許さないってか
そりゃネットで公開すればAI関係なく逮捕のリスクはあるだろ
>>64 容疑はわいせつだろ
たぶん無修正だろうな
それ以外は現状取り締まる法律ないだろ
>>65 それらしいソースは見つからんかったが
>>58 「インターネットに掲載したとして」だからまあSNSには上げたんだろうな
トランプとイーロン・マスクのディープキス画像作っちゃった😭
>>67 売って120万を得たとテレビニュースで見た
まあ一般人でも危ないわな
見つかる確率が低いだけで
そもそもエロAIは自分一人で楽しんでた方が安全
>>13 いくらでもいる
というか5ch(bbspink)でアイドル画像スポーツ画像の板閉鎖になったのはコラ掲載サイトで逮捕が続出したのが原因
>>69 まじかよ
じゃあオクでポスターとかかもな
実写CG売れるプラットフォームとかないだろ
>>2 あなた
けっこう長老だよね
その感覚からすると
アイコラブームはかなり上を怒らせたのか完全に叩きつぶされたからなぁ
アレから何年も経ち人々は忘れてしまい同じことを始めた
その後に待っているのはまた同じことだろう
生成AIで作ったわいせつ画像をインターネット上に公開した疑いで、会社員の男が逮捕されました。
横井宏哉容疑者(31)は、女性芸能人に似せたわいせつ画像を生成AIを使って作成し、ネットで公開した疑いが持たれています。
横井容疑者は、月額で料金を支払えば、女性芸能人に似せたわいせつ画像を閲覧できるようにしていたほか、画像の作成も依頼できるサービスを提供していて、これまでに約120万円稼いでいました。
https://www.fnn.jp/articles/-/946310 サブスクでやってたのかよw
ホモかな?って思ったが今は女優を俳優って呼称するんか
セクシー女優もセクシー俳優って呼ばれる時代が来るんかな?
>>77 マネタイズしての逮捕かよ
これは良くスレ立ててる「ガチ有能」なんちゃらのあいつもそのうち逮捕か
>>3 マスコミによる言葉狩りでしかない
女優を使わないなど
実在の芸能人のエロなんて
無料でも危険極まりないのにようそれで金稼ごうと思ったな
loraの無料配布ですら危険よりの行為になってるのに
作るのはまあ目を瞑るとして公開も無料までならともかくそれで金を稼ぐのは終わってる
サヴスクとかヤフオクやアマゾンで売るとかチャレンジャー多いわ
>>85 お前のお気持ちなんてどうでもいい
マスコミから情報を受け取るならマスコミのルールも理解しとけって話
上級の犯罪は許すけど上級に立て付くのは許さないゴミ組織の鑑ですやんか・・・
石破と岸田が
ディープキスしているやつもアウトかな?
>>57 Geminiってエロ判定が雑だから気をつけたほうが良いぞ
スッケスケの下着で乳首が透けて見えてても非エロ判定出すポンコツだぞ
>>19 grokなんかでハート(お気に入りの近くに共有ボタンあるんだから間違って押したかもしれない。
スマホからだと共有されてるかどうか分からん場合多いし…
本人か関係者が被害届を出せば動くけど大体は見て見ぬふりなんだよね
女は俳優とは言わねえだろ
どんだけバカみたいな配慮してんだよ
実在の人物売るとかバカにも程がある
二次なら捕まらんだろうに
>>59 昭恵夫人が寛大だから許されてるだけやで
もっと感謝の心を持つべき
昨日grokでエロが作れるぞみたいなスレ立ってたな
商売にしてたのだから金取るレベルのエロだったんだろ
微妙に胸膨らますとかいうレベルじゃなくて
Googleの画像検索にあったgrokの長澤まさみ動画とか検索に出てこないようになったな
YouTubeに、AIで作った芸能人動画めちゃめちゃありまくるけど。
実在のお笑い芸人たちのAI作って、妖怪に変身させてみたり。
昔の実在戦隊ヒーローヒロインたちの当時と今現在の姿の比較AI動画作ったり。
そういうのはいいの??
タレントたちが裸だったり下着だったり、性行為していたりの、ワイセツAIだけがだめなだけ??
>>109 多分そっちのほうは著作権の問題で駄目だと思うよ
>>109 そんなこと人に聞かないとわからないなら手を出さないのが最適解
>>109 わいせつは検挙しやすいな
チンコマンコ丸出しを許可できるなんて言う状況は絶対に無いから逮捕して間違いがない
実在の人物のとか著作物をつかってるとかは権利者が許可出してる可能性が常に付きまとうので
警察としては確認してからじゃないと逮捕出来なくて面倒臭い
画像持ち込みのバスタオルや
抱き枕カバー作る商売ってどうなんだ?
女優さんのエロバスタオル欲しいんだけど
安倍晋三の画像って大丈夫なのか見ててこっちが心配になってくるよ
そっくりさんじゃないの?
本人画像学習させたとしてそこから生成されたものが本人だとは言えなくね?
>>118 ていうのも裁判では面倒だから罪状が猥褻物
>>8 00年頃に一斉逮捕されてるよ。
ジャニーズなんかは無加工の画像でもアウト。
>>19 言っても安倍晋三のエロ画像できたらみんなに見せたいやろ?
さすがジャップちんさん‼
ズリネタ大好きだしだもんな!モテないからAIでって発想は流石ですwww
世界から嫌われてるぞーww
頼むからリアル女子供に性加害やめてよね。
お前のちんちんイライラをおさめる道具ではないので。
ジャップオスならよくあることよ。
日本人女性ならみんな知ってるよw
誰からも愛されない哀れなモンスター
ドラゴンボールのNEWSも更新止まっちまったからな
楽しみにしてたのに、糞ったれがー!!
バカヤローー!!
なんか昨日AI使ったエロ動画のスレあったな。もう捕まったのかと思ったわ
>>19 【男】だから
女の裸が自分のトロフィーになると思ってる
今は生成と所持ならセーフでもそのうち単純所持でも捕まるように法改正されるかもな
何年も前からディープフェイク問題とか言ってたのに
大手企業がこんなアイコラ作り放題のアプリを無料放出してくるとは思わないよなあ
ここでもネームドBeが似たような事やってなかったか?
自分でシコるために作ったもんを
誰かに見せてチヤホヤされたい承認欲求がどうしても抑えられんのやろうなあ
>>52 倫理観フッ飛んでる奴か散見されてビビるよな
そいつとか
>>8>>32
>>34とか
そのうちAIでエロ画像作っただけで、ポルノ製造の罪で逮捕される時代来そうだな
>>19 金儲けのためだよ
生成人工知能(AI)を使って作成した、女性俳優に酷似したわいせつ画像をインターネット上で不特定多数の人に共有したとして、警視庁保安課は16日までに、わいせつ電磁的記録陳列の疑いで秋田市、会社員横井宏哉容疑者(31)を逮捕した。同課によると、アイドルなど約260人の女性に似せた計約2万点を有料で公開し、120万円ほどを得ていたとみられる。
同課によると、料金を支払えば1カ月間画像を閲覧できた。
2025年10月16日 12時26分共同通信
https://www.47news.jp/13300584.html >>106 ビビアン・スーは裕木奈江のそっくりさんで有名だったんだがな
広瀬すずの世代じゃ、裕木奈江なんて誰それだろうが
立件のガイドラインは性器や乳を露出してるいわゆるポルノである事、収益を得ている事だろうな
>>3 ビジネスマンという言葉を排除して男性ビジネスパーソンというバカバカしい言い回しになってるな
昔からあったアイコラではあるが(昔のもダメだけど)
生成AIでそれを作るのがあまりにも簡単になりすぎたな
実写動画より声の盗用のほうが犯罪だろ
サザエさんの声優使って好き勝手なAI動画作ってるやつやべーと思う
>>153 そういうものを通報できる組織とか団体はないの? 対処してくれるところがないなら放置になるだろ
芸能事務所とか綺麗めな反社みたいなもんだろケツの毛まで抜かれるで
>>154 そもそも通報したところで、声の権利なんてものが存在しない
喋ったセリフの録音をまるごとコピー利用された場合のみ著作権侵害になる
好みの女をボタン一つで全裸にできます
スタイルも自由自在!
画像を元に動画も作れます!
https://your.ls/a6n73 ※初期画面は右下の “ 🇯🇵(日の丸) change ” から日本語を選択可能です。
※ヌード → スキップポーズ → 画像アップロード と進んでください。
※悪用は絶対にしないで下さい。
権利侵害とかの容疑じゃないよな?無修正やったんか?
クラウドの画像生成サイトとかで普通に公開されてるのだが、こいつら何も考えてねえなって
乃木坂とかの大手アイドルのエロ生成してSNSで公開してた奴いたけどあいつもやばそう
今震えてるケンモメンおるんやろなw
メシウマやわー😋
>>11 >>74 >>101 >>125 左のネトウヨ怒りの自己紹介w
■ このスレッドは過去ログ倉庫に格納されています