(ヽ^ん^)「女性声優の流出画像キタ━━━━(゚∀゚)━━━━!!(実はAIで作られたコラ)」に世間がようやく気付き始める [807233202]
■ このスレッドは過去ログ倉庫に格納されています
女性声優の“存在しない”水着画像をAIで作成、販売……法的に問題ないの? 弁護士に聞いた
https://www.itmedia.co.jp/news/articles/2306/12/news175.html
水着やバニーガールの格好をした、女性声優や女優に極めて似た人物──。
そんな写真がTwitterや一部のWebサービスにアップロードされている。
しかし、これは架空の画像だ。
しかも、そのような架空の画像を自動生成できるAIモデルを販売しているサイトもある。 皮肉なもんだな
AI画像が普及したせいでコラ画像だと気付いてしまうなんて 大分前からDeep Fakeとか動画バージョンもあったのに
見て見ぬふりして騒いでいる馬鹿も大勢いたよなあ 黒乳首さん大勝利じゃん。
朝日とかお前らとかに裁判おこせば、孫の代まで遊んで暮らせるだろ。 アイコラはアップロードしただけで逮捕者出てるのにようやるわ
個人的に楽しむだけにしとけって >>3
モデル配布してる人がいるから多分あれもAI 若手女優で自作したら何枚かええの出来たで😄
でも写実的な物の学習は二次よりは難易度高め AI成果物が急増したことで「AI生成コンテンツをAIが学習するループ」が発生し「モデルの崩壊」が起きつつあると研究者が警告
時間が経過するにつれて、生成されたデータの誤りが積み重なっていき、最終的には生成されたデータから学習することでAIが現実をさらに謝って認識することになります」と説明しています。シュマイロフ氏によると、学習モデルは最初に学習した元のデータをすぐに忘れてしまう可能性があるとのことで、「私たちは、モデルの崩壊がどれほど早く起こるかを観察して驚きました」と話しています。
またアンダーソン氏は、インターネット上のコンテンツにAIを用いて生成されたコンテンツが増えるため、ウェブをスクレイピングして新しいモデルをトレーニングすることが難しくなり、結果として既に十分なトレーニングデータを得た企業や人間が生成したコンテンツを大規模に管理できる企業が一方的に有利になると指摘しています。実際に、AIスタートアップがクリーンなトレーニングデータを求めて、インターネットアーカイブに大規模なアクセスリクエストを行ったことが、インターネットアーカイブのブログで明らかになっています。 ■ このスレッドは過去ログ倉庫に格納されています