ここで用いられるソフトウェアは「neuralMatch(ニューラルマッチ)」と呼ばれる予定で、個人のiPhoneに保存されて
いる画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が
開始されるという。違法な写真であると判断された場合、法執行機関にアラートが出される。

ロイターによると、このシステムは、iCloudサーバーにアップロードされる前のiPhoneに保存されている写真を、
チェックするものだという。

このニュースは、フィナンシャル・タイムズが最初に報じていた。フォーブスはアップルにコメントを求めている。

米国司法省は昨年、テクノロジー企業やソーシャルメディア企業に対し、子どもの性的搾取や虐待への対策を強化
することを目的とした「自主的原則」を発表し、違法なコンテンツを発見した場合、ただちに当局に報告するよう呼び
かけた。

マイクロソフトは、その後、企業がインターネット上の児童の性的虐待画像を特定するためのphotoDNAを作成した。
フェイスブックとグーグルも、画像の内容を確認しフラグを立てるシステムをすでに導入している。

ジョン・ホプキンス大学のセキュリティ研究者であるマシュー・グリーンは、アップルが個人のiPhoneをスキャンして
「禁止されたコンテンツ」を探すシステムを構築することは、「ダムを壊す」ことになり、米国政府がすべての人々の
端末を検閲することにつながりかねないと指摘した。

グリーンはさらに、AP通信に対し、アップルが他の国の政府からの圧力を受けて、別の情報をスキャンするように
なるのではないかという懸念を示している。

児童保護団体「National Council for Missing and Exploited Children」によると、フェイスブックが2020年に法執行
機関に報告した児童の性的虐待画像は、2000万件に達していた。この数字には、フェイスブックとインスタグラム上
の画像が含まれており、2019年の1600万件から上昇していた。
ht●tps://news.yahoo.co.jp/articles/822a14997fa069030940559a5f70d07018c8ff22