AppleはあなたのiPhoneをスキャンして児童虐待の写真を探す計画を延期している

Appleは、多くの批判を受けて、米国でiPhone向けの児童性的虐待資料(CSAM)機能を展開する計画を延期すると発表しました。 「顧客、擁護団体、研究者などからのフィードバックに基づいて、これらの非常に重要な子供の安全機能をリリースする前に、入力を収集して改善するために、今後数か月にわたって追加の時間をかけることにしました」とAppleは述べています。
CSAMスキャン機能は先月Appleによって発表されました。 iPhoneに保存されている児童ポルノ画像を識別できるiOS15アップデートが付属します。 Appleは、この機能をiPad、Apple Watch、Macにも拡張する予定です。 Appleデバイスが児童ポルノや児童虐待に関連する画像を検出すると、Appleデバイスは自動的にコンテンツをぼかし、同じことがAppleサーバーに報告されます。 この機能は米国で利用できるようになります。 米国のiPhoneユーザーの場合、児童虐待のコンテンツが検出されると、Appleは全米行方不明・搾取児童センター(NCMEC)および法執行機関にユーザーのAppleIDを自動的に警告します。
サイバーセキュリティとプライバシーの愛好家は、AppleがユーザーのiPhoneで児童ポルノをそのような正確さで検出できれば、Appleが政治活動や反対意見に関連するコンテンツをスキャンするのを妨げていると感じているため、この新機能について心配しています。 Appleは将来、政府によって潜在的な政敵、抗議者、内部告発者を詮索することを余儀なくされる可能性があります。
Appleは、NCMECやその他の児童安全組織が提供する既知の児童虐待画像ハッシュのデータベースを使用して、デバイス上のマッチング技術を使用します。 画像がiCloudPhotosに保存される前に、既知のCSAMハッシュに対してその画像に対してデバイス上のマッチングプロセスが実行されます。
プライベートセット交差と呼ばれる暗号化技術を使用しており、結果を明らかにすることなく一致するかどうかを判断します。 デバイスは、画像に関する追加の暗号化データとともに一致結果をエンコードする暗号化安全バウチャーを作成します。 このバウチャーは画像と一緒にiCloudフォトにアップロードされます。