愛知県警、スマホにエロ画像を保存するとAIがエロ画像を認識して自動削除する「コドマモ(子供を守るアプリ)」を国連本部で紹介へ [377482965]
■ このスレッドは過去ログ倉庫に格納されています
性被害防止アプリ、国連で紹介へ(共同通信)
https://news.yahoo.co.jp/articles/6a58d61cff96496785c518fee042663f78808bca
子どもの性被害を防ごうと愛知県警などが開発したスマートフォン向けアプリが、米ニューヨークの国連本部で開かれる「女性の地位委員会(CSW)」で紹介されることになった。
アプリは、わいせつ画像をスマホに保存すると人工知能(AI)が検知して自動削除される「コドマモ」。 AIじゃなく俺が手動でやってやるよ
開発費の無駄遣いやめろ >>5
写真を撮ったら自動的にクラウドに送られる→そこで俺が精査
これでよくね? 安倍晋三の画像を検知すると自動でもう1枚追加するアプリ エロ画像収集してる人はそんなアプリ入れないし
エロ画像収集しない人はそんなアプリ入れないし
誰も入れないクソ無駄な税金の無駄遣いでは? >>9
親が子供の携帯に入れるんだろ
スレタイすら読めないのか? これ関係ないファイルも検閲されてるじゃねーか
スパイウェアだろ エロいことを知ってはだめなのか?
子供はどうやって生まれるんだ? 社会と折り合いつけて上手いことやっていく知識をつけさせろよ
親の執着で子供を管理するな >>16
エロ画像なんか見てないでもっとリアルでヤレってことだよ 未来のスマホとネットもコンテンツがaiにより管理される時代が来るのか!!! おい安達祐実で判定やったらぶっ壊れたんだが?
アベ
i.imgur.com/C7T8bEk.png
安達祐実
i.imgur.com/iyBDeZH.png わいせつ画像を検出できるって事は性癖を入力したらAIが自動収集する時代が来るのか しゃーねえなぁ俺がエロ本投げ捨ておじさんになってやるか 国連脱退しようぜマジで
あいつら昆虫食とかポリコレとかも押し付けてきてほんま害悪 >>24
たぶん女性タレントの写真はフォトショとかでイジるのが普通だったから
そのイジった部分が判定に引っかかって混乱してるんだと思う 何年かやらせとけばエロ画像なんか集めても見返すことはないって気付くだろ 退廃的な考え方だ
よくもそんなアプリを恥ずかしげもなく紹介できるものかと 子ども「AIさんチィーッス、保存しないで見抜きしてまース >>29
いんや見てると童顔とかロリ判定するとAUTOでバグるみたい
これもバグった
i.imgur.com/I9WRGuV.png これAUTO判定受けたわ
ただのロリではバグるだけで
泣いてるとAUTO判定かな
i.imgur.com/TiPdyz8.png エロ画像すら自由に見れないなんて子供がかわいそうだわ 嫌儲はそもそも板成立から
今日まで
女性への蔑視行為
女性への性的搾取
女性への性の商品化
と闘争してきた
これを知らないことの
クソキチガイネトウヨニホンザル 友達と海に行った写真とかは勝手に削除されたりしないのか >>42
すると思う
その責任についてはAIもしくはアプリ導入者に責任転嫁される エロ画像なんかより、動物や人の死体とかそういうの設定した方が良いよ ■ このスレッドは過去ログ倉庫に格納されています