藤田医科大学が子どものわいせつな自撮り画像をAIで検知する「コドマモ」アプリをリリース。他者に送信される前に画像の削除を勧める [389326466]
■ このスレッドは過去ログ倉庫に格納されています
藤田医科大学が子どものわいせつな自撮り画像をAIで検知する「コドマモ」アプリをリリース 他者に送信される前に画像の削除を勧める
https://digitalist-web.jp/trends/news-products/QEZ4U
「コドマモ」は、子どもがスマートフォンでわいせつな自撮り画像を撮影・保存すると、他者に送信される前に、AIがこれを検知し、スマートフォン上でその画像の削除を勧める。また、保護者のスマートフォンにもすぐに通知する。
さらに、どんなカメラアプリで撮影した画像も検知することができ、これまでの性的自撮り防止カメラアプリとは一線を画したアプリとなっている。
同アプリによって犯罪を減らすとともに、親子の対話を促進し、子どもが加害者になることを防ぐことができる。また、学校で配布されるタブレットにインストールすることで、校内の性的自撮り盗撮を防ぐことができる。 AIへの学習データの関係で女児のみ対応だったりして(´・_・`)
素晴らしいアプリだが「自撮り盗撮」って何なんだよ 子供の児ポ画像検知した後に自分のとこに
送らせるアプリなら需要ありそう >>6
スマホのOSの画像保存動作にトリガーをかけて
新しく保存された画像全てを検閲する 日本にそんな技術ないからエイプリルフールネタってすぐにわかる ちょっと思ったんだけどその子供のわいせつ画像を判定するAIってどうやってトレーニングしたの? 開発者にこっそり画像や映像が届く仕組みになってそう
知らんけど これを学習させるために子供の猥褻画像を大量に集める必要がある 地鶏なのに棟札
つまりあなたの身体はあなたの物じゃないって事?
発想がカルトっぽいな これじゃ世の中高生たちは勃起チンポ撮影できないじゃん
スマホ買ってまず撮るものと言ったら自身の勃起チンポなのに保護者に通知とか酷いよ ダビデもそうだけど
裸体自体が犯罪扱いになる時代になりつつある
世界がイスラム化していく >>13
>>12
教師データを十分堪能したから、もう必要ないぞ 学習素材のこと書こうとしたらみんな気づいてた
相当集めたんやろなぁ 膨らみかけのおっぱいとか、毛が生えかけのマンコなんて見て何が楽しいんだ? AIなら児ポだろうがなんだろうが学習データ配布合法だからそのデータください この社会実装を否定するつもりはないけど判別器の制約的利用は抜け道の発見動機がある限り例外と対策のファインチューニングの繰り返しになって結局マスターシステムに収束するってYouTubeの無断転載避け事例で論文出てただろ
むしろ検出摘発が困難になる上に誤検出で一般ユーザーのUX下がるから改修しなくなったオチまでわかってて開発するだけならまだしもなんでプレスリリースにGO出したんだか これの学習データを公開すれば、さらによいものが作れる。公共の利益になる >>7
子供用と保護者用とアプリがわかれていて、子供用ので判定して結果によって削除を促すとともに保護者用アプリに通信、保護者用アプリに通知がでる
>>34
画像自体は判定のみに使われ、外部に送られることはない、との事だが、判定するための何らかのデーター化したものについての言及は見つけられなかった ■ このスレッドは過去ログ倉庫に格納されています