Appleは、新しいテクノロジーを使用して、iPhoneにある写真を確認します

伝えられるところによると、Appleは新しいテクノロジーを導入して、iPhoneのギャラリーにある写真の種類を確認し、児童ポルノコンテンツを保存しているかどうかを識別します。 Appleはハッシュアルゴリズムを使用してユーザーのiPhoneに保存されている写真をチェックし、バックエンドの写真識別ソフトウェアを使用して、児童ポルノやその他の種類の虐待のように見えるかどうかを認識します。
伝えられるところによると、Appleは「CSAMスキャン用のクライアント側ツール」を展開する予定です。 つまり、iPhoneはこれらのハッシュアルゴリズムを自動的にダウンロードし、iPhoneに保存されているすべての写真をチェックして、違法なコンテンツがないかどうかを識別します。 アルゴリズムが不快なコンテンツを見つけた場合、そのような写真が多すぎると、iPhoneは自動的にそれをAppleサーバーに報告します。
AppleがCSAMスキャン用のクライアント側ツールをリリースしていることを複数の人から独立して確認しました…https://t.co/Ldz40X4COw
—マシュー・グリーン(@matthew_d_green)1628121584000
問題は、ハッシュアルゴリズムが常に正確であるとは限らず、誤検知のレポートが表示される可能性があることです。 また、Appleは違法な児童虐待コンテンツのみを検出すると主張していますが、Appleが他の種類のコンテンツにもフラグを立てる可能性があります。 9to5 Macのレポートによると、「Appleは、政府が指紋コンテンツデータベースを制御することを許可しているので、おそらく政府はこのシステムを使用して政治活動を抑制することができます」。
Appleが暗号化された方法でコンテンツをiCloudに保存している場合でも、問題はAppleが復号化するためのキーも所有していることです。 これは、Appleが法執行機関によって強制された場合、Appleは政府が特定のユーザーのすべての写真を閲覧することを許可する可能性があることを意味します。
「Appleがこのローンチを行っている方法では、人々がすでにクラウドと共有している非E2E写真から始めます。 したがって、それは誰かのプライバシーを「傷つける」ことはありません。 しかし、E2E写真をスキャンすることが目標ではなかった場合、なぜ誰もがこのようなシステムを開発するのかを尋ねる必要があります」と暗号化およびセキュリティの専門家であるマシューグリーンは述べています。
法執行機関がE2E通信を解読するのに苦労しているため、世界中の政府がE2E通信を破壊する技術を求めています。 ここでの唯一の希望は、Appleがそのシステムを悪用させないことです。 「しかし、Appleがこれらのツールの誤用を許可しないと信じているとしても、まだ心配すべきことがたくさんあります。 これらのシステムは、消費者としてレビューできない「問題のあるメディアハッシュ」のデータベースに依存しています」とGreen氏は付け加えました。