【悲報】円光、終わる [256943639]
■ このスレッドは過去ログ倉庫に格納されています
iPhone上のヌードに関するメッセージをスキャンする機能が追加、プライバシーを侵害せず子どもを保護
Appleは2021年8月に「iPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐ機能」を発表し、いくつかの機能がプライバシーの問題で抗議を受けたものの、12月にはアメリカ国内限定でiOSに導入されていました。The Guardianが2022年4月20日に報じたところによると、この児童保護のための安全機能はまもなくイギリスのiPhoneにも導入され、今後より拡大していくことが期待されています。
https://gigazine.net/news/20220421-child-uk-iphones/
もうにどと未成年とセックスできないかもしれない
女が泥持ってるわけないし (ヽ°ん°)「教師はクズ!ロリコン!」
(ヽ´ん`)「円光、終わる」 これどうやって開発したんだろ?
開発のために必要になる画像はどうやって手に入れた? >>7
現地時間の2021年8月5日にAppleが発表した「子どものための拡張された保護」のための機能は、「児童の性的搾取に関するデータ(CSAM)がメッセージアプリでやり取りされる際に警告を表示」「iCloud写真に保存されているデータを検査してCSAMを検出」「Siriと検索機能からCSAMに関する報告を可能にする」という3項目が挙げられていました。しかし、「ユーザーのiCloud写真の中身をチェックするのはプライバシーの侵害」と批判が寄せられたり、社内でも懸念の声が集まっていると報道されたり、90の人権団体らが抗議書簡を公開したりと大きな反発を受け、同年9月には新機能のリリース延期を発表しました。 これスキャン対象がiCloudに上げている写真だけで済むのか?
本体のデータも勝手に分析してカテゴライズしているから不気味なんだよな >>5
使用者の年齢は今必ず記入させられるし、肌の露出の機械学習用の画像なんて年齢は関係ないし、そんなこと言ったらYouTubeのAIは男の乳首も反応するらしいけどそれは可笑しなことなのかい? 捕まりたくなければチョンモメンみたいに中国製のスマホを使うしかない お前んちの子供は身体がいやらしい外に出すな
児童を見せたら猥褻物陳列罪 これからAndroid使っている学生は円光してるってレッテル貼りされるな ■ このスレッドは過去ログ倉庫に格納されています