アップルがiPhone内の児童ポルノを検出し法的機関に通報するシステム開始 マイクロソフトとグーグルも
■ このスレッドは過去ログ倉庫に格納されています
ここで用いられるソフトウェアは「neuralMatch(ニューラルマッチ)」と呼ばれる予定で、個人のiPhoneに保存されて
いる画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が
開始されるという。違法な写真であると判断された場合、法執行機関にアラートが出される。
ロイターによると、このシステムは、iCloudサーバーにアップロードされる前のiPhoneに保存されている写真を、
チェックするものだという。
このニュースは、フィナンシャル・タイムズが最初に報じていた。フォーブスはアップルにコメントを求めている。
米国司法省は昨年、テクノロジー企業やソーシャルメディア企業に対し、子どもの性的搾取や虐待への対策を強化
することを目的とした「自主的原則」を発表し、違法なコンテンツを発見した場合、ただちに当局に報告するよう呼び
かけた。
マイクロソフトは、その後、企業がインターネット上の児童の性的虐待画像を特定するためのphotoDNAを作成した。
フェイスブックとグーグルも、画像の内容を確認しフラグを立てるシステムをすでに導入している。
ジョン・ホプキンス大学のセキュリティ研究者であるマシュー・グリーンは、アップルが個人のiPhoneをスキャンして
「禁止されたコンテンツ」を探すシステムを構築することは、「ダムを壊す」ことになり、米国政府がすべての人々の
端末を検閲することにつながりかねないと指摘した。
グリーンはさらに、AP通信に対し、アップルが他の国の政府からの圧力を受けて、別の情報をスキャンするように
なるのではないかという懸念を示している。
児童保護団体「National Council for Missing and Exploited Children」によると、フェイスブックが2020年に法執行
機関に報告した児童の性的虐待画像は、2000万件に達していた。この数字には、フェイスブックとインスタグラム上
の画像が含まれており、2019年の1600万件から上昇していた。
ht●tps://news.yahoo.co.jp/articles/822a14997fa069030940559a5f70d07018c8ff22 わざわざそんなシステムを入れるほど持ってるやつが多いの?(ドン引き) アメリカなんかじゃ、自分の子の裸の写真撮影するだけで逮捕されるからな 例えば自分の娘をプールにいれて写真をとる溺愛パパさんがいるとするじゃん
ソフトがこれは女児を盗撮するロリコンと判断して検出するじゃん
法機関が危険人物として検挙するじゃん
デストピア待ったなしだな いいねこれどんどんやってほしい
困るのはゴキブリだけだしw >>19
なら新規でとった写真やロリビデオでは一切検挙できないとでも?んなわけないだろ、なんの意味があるんだよそれ
似通った条件で検索するようこういうのはできてるに決まってるだろ
だから自分の娘でも反応する じゃあ俺のチンコの写真写したらそれも全部チェックされるんか? MSもかなり前からOneDriveを機械的にスキャンしてたはず >>26
>>28
規約にもはっきりと「違法データ発見したら削除するわ」て書いてあるんだよな これくらいやらないとな隠れ犯罪者は消えないよ
しょーしは覚悟しとけ >>11
日本人のAV女優の画像保存してたらマジで引っかかりそうな気がするわ ディストピアー♪@MEGADETH
デストピアって間違えてるのはわざと?w どうせならデータ破壊かサイレント削除やれば良いのに。 児童性的虐待コンテンツのデータと端末内のデータを機械学習機能を用いてマッチング
↓
1. 「メッセージ」アプリの送受信で検出されたら警告とぼかしが入る
2. 「iCloud写真」で検出されたら手動でアップル社員が審査し通報、アカウントは停止
3. 検索やSiriで関連するワードを入力したら警告
とのことだ iCloudならともかく端末の覗くとか違法だろ!こっちが通報したるわ! ロリコン
ゲイ
バイセクシャル
トランスセクシャルの
LGBTのロリを規制するとはなんたる人権侵害 自分で描いた絵ならかなりあるな
これで文句つけられたら表現法違反だろ 米国法だと成人ならおまんこ見えててもなんでも良いのか
いい加減年齢で区切るのやめたら?バカじゃね? macだってwindowsだって中検閲されるかもしれんぞ? これが問題なのは絵よな
向こうの人絵と実写の区別つかないから AIがイラストは弾いてくれるといいけど、まあイラストも対象だろな
ロリキャラの水着イベントとかやってるソシャゲも米国では全部バンになるかと アニメとか2次元キャラの画像だけでも通報されそうw これ児童ポルノ対策を装ったポリコレだもん
漫画を殺す気だね、間違い無いわ これはさすがにやり過ぎ
違法ファイルとは言えその手の画像なんかでガス抜きしてやり過ごしてる隠れ児童性愛者は多いはず
もしそういったものを一切合切取り上げられたらそういう奴らもどう出るかわからんぞ クラウドにあげたデータはともかく個人端末の中まで勝手に検索とかさすがさすが
>>32
デストピアでググれ つーかイラスト抜きにしたら児童ポルノの画像を2000万も集めるのは普通に無理なはず
しかもインスタとフェイスブックに普通に投稿されているらしい
まあ二次イラストがほとんどだろうな エロ動画編集して各端末の写り具合のチェックにクラウド利用して、即削除してたけど、迂闊にそういうのも出来ないな みんな書いてるけど
これ普通に虹エロも対象だと思うよ
北米では元々虹エロ厳しいし、
当然これ北米基準でやるだろうからな こんなのアイビスペイントみたいな画像編集アプリで
適当な画像の下レイヤーに保存すればいいだけじゃね
見られるのがpngかjpgだけならtiffとかpsdで保存しとけばいいし
ちょっと画像の知識もってりゃいくらでも隠せると思うが >>60
ガチ違法だとみんなが認識してるやつはな
これは今現在みんなが問題ないと思ってるものと取り締まるものだから 親が娘の水着をスマホで撮るだけでアウトになるんか
デジカメ復権やな だから児童ポルノを装ったポリコレなのよこれ
実在児童の保護が目的では無いわけ >>6
共産党とリベラルの源流は同じで
結局、優れた思想をもつ指導者に従う流れになる >>65
ポリコレとか通り越して単に悪質な検閲システムになるだろこれ 基準は何だよ
海外の基準だとエロイラストですら通報しそうだから洒落になんねーわ >>66
保守がやると強権独裁主義で
共産がやると素晴らしいのかwwwww これ差別じゃん
マイノリティを大事にする!とかさんざいってたのただのレクレーションかよ >>50
AIさんて黒人とゴリラの区別もつかないんでしょ? アメリカ企業の情報倫理って中国と何も変わらんな
gmailも監視してるし協賛先への規制も厳しいし
マジでGAFA滅びろ ソニーが朝鮮とパチンコに媚びてからさ
朝鮮玉入れという言葉が消えたよね セレブが幼女侍らせた島作るのが現実なのによーやるわ
いつの世、地球上のどの場所でも
男のストライクゾーンど真ん中は14歳くらい
本能でそうなってるのに、誰もが向き合わないで
狂った建前をますます強化していく
女性の代替物が一定以上のレベルに達した時
このシワ寄せでリアル女が一気にオワコン化すると予想してる >>76
国民がバカしかいないから自主判断に任せるってことができんのよ
中途半端に穴を残しちゃうと悪巧みに使う連中がゴロゴロ出てくる 限りなく児ポに見えるセーフ画像とかの線引きはどうなるんでひょうか?(^^
髪の長い女の子に見える男の子の乳首とか(^^
AIって優れてるみたいな考え持つ人多いでふがケツマイモを食品として認識するレベルでふよ?(^^
未成年に見えるようなアジア人の女性の脱ぎコラに男の乳首混入させたものとかまずAIは誤検知しまふよ(んなもん作ってどうするんだって話でふが)(^^
僕がデッサン用に各地からかき集めた無修正チンハラ画像とかももしかしたら危ない気がしまふ(^^ 便利になるようで実は不便になっていく世の中だなw
>>21
海外2次でもアウトになってるぞ カナダだったかな チンハラだって未成年の混じってたら見分け付きまふぇんからね(^^
「児童ポルノを保有していた男逮捕 調べに対しまさかチンハラに未成年が混じってるとは思わなかったと供述」
みたいな事もあり得るので(^^
警察にPCみられてもいいようにOSをVeraCryptで暗号化(^^
無修正チンハラ画像は念のため更に暗号化した隠しボリュームに隠す
更にダミーボリューム大量に作るという徹底っぷり(^^
僕は用心深いんでふよ(^^
用心深いとはいえなんで誰のものかもわからんチンハラスレの模写用チンポをここまで厳重に隠さにゃならんのだ…(^^
チンコショボーン(^^ >>82
そんなAIでも男は美少女が好きと
ちゃんと判定してくれるだろ 朝起きたらおっさんが幼女になってたとか世界のどこかで毎日のようにおきてるけどさ
そんな自撮り画像も検閲されるのか? 会社は違うけどYouTubeのAIのバカさ加減から言って信頼できないし2次まで規制するならiPhoneはもう捨てるしかないな 女名義のiPhoneに少女画像入っててもアウツだよな? >>90
当然
元々は女子児童のエロ自撮り送信を止めるために作られた機能だし 男名義のiPhoneに少年画像が入っててもアウトだよ >>78
学園ものの制服着ててもみんな成人設定くらいは考慮してくんないとダメだよな イラストと実写の区別もつかない外人が日本のオタクのスマホの中身検閲するっていう滑稽さな
もうガラケー復権してそこに戻っちまおうか クソAppleを捨てる時がきたな
みんなで買おう、国産スマホ >>12
アメリカならそれ普通に犯罪だから
自分の娘に性犯罪するクソは刑務所で虐め殺されるに決まってる 基本的には訴えがあった画像の頭のデータ何桁をインデックス化するとかして総検索走らせて、それに合致するデータを通報していくんだろ
問題はそこじゃなくて、アップルgoogleマイクロソフトによる公然スパイ行為も、こっそり走査かけるのは合法になったってことだ
たぶん使用ライセンスでがちがちに権利剥いでくはず 人権を守るのに児ポを取り締まるまではいいけど
実在しないものにまで口出してくるのは間違ってるわ >>102
児ポ検知されたデータがiCloudにアップロードされたらAppleが暗号化を解いて確認し通報するシステム
iCloudをオフにすればバレない 国内にいる限りは大丈夫だろうが、今後はアメリカに行ったらその時点で逮捕される可能性はある
今でもスマホのエロ画像が原因で海外の入管に捕まる事はあるが
今度は例えスマホを持っていかなくてもパスポートで個人情報を照会されるかもしれない iCloudをオフにすれば問題ないが、そうなると端末の画像の保存方法がちょいと面倒になる。 これガースー政府が取り組んでる事でもあるからな
時期は分からんがグーグルも対策してくるはず 児ポを名目に個人の全画像にチェックかけるのが最高にヤバイ
こんなもん児ポの次・先まで見越してるに決まってる そこがOKじゃないなら日本人の半数が死んじゃう(´・ω・`) 機密情報を共有する5カ国協定、いわゆる「ファイブアイズ」の参加国(米国、英国、カナダ、オーストラリア、ニュージーランド)が、日本およびインドの政府代表と連名で声明を発表した。テクノロジー企業に向けて、エンドツーエンドの暗号化された通信に法執行機関がアクセスすることを可能にする解決策の開発を要請している。
この声明は、暗号にバックドアを設けることをテクノロジー企業に同意させようとする、ファイブアイズの最新の取り組みだ。
各国の政府関係者はこれまでと同様、テクノロジー企業が製品にエンドツーエンド暗号化(E2EE)を組み込むことで犯罪捜査が困難になったと主張している。
7カ国の政府代表は、現在の主要なテクノロジープラットフォームでサポートされているE2EEの仕組みのために、法執行機関が犯罪組織を捜査できないばかりか、テクノロジープラットフォーム各社も、一般市民を守るためのサービス利用規約を守らせることができずにいると主張している。
声明では、「暗号化技術の特定の実装」によって、法執行機関の捜査に問題が生じているとしている。テクノロジープラットフォーム各社も一部の通信内容にアクセスできず、捜査当局に必要なデータを提供できないからだ。
これにより、犯罪活動にとって安全な避難場所の確保を許し、「性的に搾取されている児童など、われわれの社会の中でも特に弱い立場の人々」を危険にさらしてしまうという。
7カ国はテクノロジー業界と協力し、ユーザーが引き続き安全で暗号化された通信を利用できるだけでなく、法執行機関とテクノロジー企業も犯罪活動を取り締まれる解決策を開発するよう尽力していくとした。
暗号化されたインスタントメッセージアプリだけではなく、「デバイスの暗号化、カスタム暗号化アプリ、統合プラットフォーム全体の暗号化」も対象となるという。
2018年には、オーストラリアが主要な民主主義国家の中で初めて「反暗号化法」を導入した。同様の取り組みは米国や欧州でもあったが、そこまで成功しなかった。主な理由は、テクノロジー企業や非営利団体、一般市民からの反発だ。
しかし、西側の政府が機密情報の収集能力で中国と対等になろうとする中、オーストラリアと同様の対応を求める圧力が近年高まっている。
https://japan.cnet.com/article/35160775/ 自分の子供のプール遊びで逮捕される未来が見えてきたな 二次絵もMMDもアウト判定くらいそうだな
というか日本人の普通の写真もアウト判定くらいそうなんだが Appleはプライバシーを守るとか言っててこれだもんな 勝手に見られて通報されてアカウント停止されたら堪らんなw児童保護は大切だが 検閲なら、写真のピープル機能で全部解析されてるじゃん。
多分iCloudと同期してないのは予備軍というか容疑者に挙げられてるよね。
それでもAndroidよりかは配慮されてると信じたい。 >>1
これまずいだろ
エロ画像を探せるってことはそれ以外の全てもスパイ放題ってことだぞ
今すぐiOS端末捨てないと死ぬ殺される 監視社会とか言って街頭監視カメラに反対してる奴
今こそ革命のときだぞ
アップル本社を襲え破壊しろ 大前提として全てのデータを閲覧して判断する訳で
常に一企業に監視される訳だ
ポルノも何もかも全て見られて、児童かどうか判断すると
アップルとGoogleがその気になるだけで人類のほとんどを監視できる これって画像で満足してた奴が
実行にうつしだしとか増えないだろうな?
禁酒法でもやらかしてるし
宗教関係者もレイプ多いし
抑圧すると余計に増えるんじゃ無いのか? >>118
監視社会肯定者だけ監視すればいい
権力者は監視から逃れてるしな パソコンでも何でも児童ポルノは検出して逮捕していい いんこう、買春、教師の犯罪とか
こっちの方が所持よりよほど問題だと
思うけどなぁ。あと児童同士のセックス
児ポの定義自体が18歳以下。
女子中高生の画像持ってるだけで逮捕か
軽犯罪法レベルやん。法律を見直した方がいい
ていうか日本はいつでも難癖つけて引っ張れるように
してあるんだろう、たぶん。それか別件逮捕でなにも
無かったときにお土産や追加できるようになってる
日本は警察権力増大が甘すぎる。次に逮捕されるのは
警察擁護のやつらだろう。そしたらアンチに回るのかな
自民党は落とすぞ。政府に大しても監視の反対運動をするべき >>98
アメリカは問題の多い国だよなぁ
金持ちとエリートには楽しいらしいが Appleって対Google意識してんのかプライバシー重視の姿勢だったよな?
それがいきなり反転して端末ローカルまでスキャンするってどういうこっちゃ これ頭いい奴がロリ画像にウイルス仕込んどけば
逆にアップルをハッキングできそうじゃね
パスワードフリーの領域に侵入されたら大問題になりそう >>125
満足ってもそこには被害者がいるからな
自分で描けば問題ない >>133
DMMといえばfannzaの動画は酷いことになってるな
有名どころのAVでも販売終了しまくってるし終了してないものも
検索かけても出てこない言葉狩り
所詮AVなんてグレーゾーンで許されてるだけと言われればそれまでだけど
まっとうに買えたものが海外サイト利用した方が便利で見られるってどうなのよ >>21
ロシアやカナダでは二次元も違法だからどう解釈するかだな 米国の法執行機関のデータベースに登録されている画像と比較するってことは
そのデータベースには児童ポルノが大量に保存されてるってことだよね?
あかんやろ ついでにshosi煽るためにshosiがJSライブチャットにチンコ握り締めながら書き込んだ画像保存してる奴も逝く説 >>116
現状見ると配慮されてるのはプライバシーではなく治安だろうな >>139
モザでかすぎて使い物にならんしな
陰部隠すだけのモザがケツの穴まで隠れるほどデカくて濃いからもう論外ですわ
寝バックみたいな体位ですら女優のケツと男優のへそくらいまでモザあるし >>141
日本でもまだビデオが主流だった時代は押収した裏ビデオが見られるからと保管場所に警官がたむろしてたなんて笑い話があったなーw アイドルやAV女優の画像とどうやって区別するんだ? ■ このスレッドは過去ログ倉庫に格納されています