報道によると、Appleはユーザーのセキュリティとプライバシーを維持しながら、iPhoneに保存されている写真のスキャンを開始して児童虐待の画像を見つける可能性があるという。
暗号技術の専門家であるマシュー・グリーン氏は、Appleのツールはハッシュ・システムを使用して違法なコンテンツを検出し、クライアント側、つまりiPhone上でローカルに実行されると指摘している。
正確には、ハッシュは、ファイルを開かずに比較できるようにする暗号化関数です。これらは基本的に、各文書に固有の値を提供する解読不能な数字と文字のブロックです。
ユーザーのプライバシーを保護するために、Apple は iPhone 写真のハッシュを、以前に特定された違法コンテンツのデータベースのハッシュと比較する可能性があります。
この意味で、ハッシュ内で一致が見つかった場合、クパチーノの会社はプライバシーを侵害することなく児童虐待の画像を検出できる可能性があります。ただし、グリーン氏は、このアルゴリズムでは誤検知が発生する可能性があると指摘しています。
しかし、Apple の任務はこれで終わるわけではありません。一致する画像には、後で人間がレビューするためにフラグが付けられます。このステップでは、ファイルを開いてそれが本当に違法なコンテンツかどうかを確認します。
Apple の有名なツール
大学の専門家であるジョン・ホプキンス氏によって明らかにされたこのツールは、Apple にとって新しいものではありません。同社は長年にわたり、iCloudメールに違法なコンテンツが含まれていないか自動的に監視してきた。
同じハッシュシステムを使用して、同社は児童虐待の写真を特定することができます。陽性が検出された場合、企業は管轄当局に報告する責任があります。
9To5Mac は、 iCloud に保存されているファイルは暗号化されているが、他の企業と同様に Apple が復号キーを持っていると指摘しています。その意味で、法執行機関からの要請があれば、同社はすべての写真へのアクセスを提供する可能性がある。
グリーン氏は、この種のシステムは児童ポルノを検出する上で非常に有益である可能性があるが、権威主義政府の目には危険な可能性があると警告しています。その結果、非民主的な監視や迫害行為が行われる可能性がある。
同氏は、将来、iMessage や WhatsApp などの暗号化されたポイントツーポイント (E2E) 通信を通じて送信されたコンテンツをスキャンする可能性が追加された場合、状況はさらに複雑になる可能性があるとさえ予測しています。しかし、報道によると、後者は現時点ではAppleの計画には入っていないという。
参考資料一覧
- https://twitter.com/matthew_d_green/status/1423071186616000513?s=20
- https://unsplash.com/@frankinjapan
- https://9to5mac.com/2021/08/05/report-apple-photos-casm-content-scanning/
- https://twitter.com/matthew_d_green/status/1423071186616000513
