過去数時間で浮上したを受けて、Apple はデバイスを使用する未成年者を保護することを目的とした一連の機能を ( 9to5Mac経由で) 公式に発表しました。その中には、児童虐待の内容を検出する目的で iPhone や iCloud の写真をスキャンするものも含まれます。一方で、メッセージや情報のセキュリティが強化され、Siriや検索を通じて子供向けの情報やヘルプリソースが提供される予定だ。ただし、この取り組み全体が米国内でのみ開始されることは言及する価値があります。

プライバシーを侵害することなく写真をスキャン

プライバシーを侵害することなく写真をスキャン

Appleは、児童虐待の内容を特定できる複雑な画像レビューシステムを使用する予定だ。たとえばポルノ。しかし、クパチーノの関係者は、この取り組みがプライバシーを主軸として設計されたことを明らかにしています。画像が iCloud にアップロードされる前に、iPhone は完全にローカルで行われる画像比較プロセスを実行します。つまり、画像は分析のために外部サーバーに送信されません。

Apple は、 「CSAM ハッシュ」として知られる一連の暗号化手法を利用しており、プライバシーを侵害することなく児童虐待の内容を特定することが可能です。そして、分析は画像の視覚的な部分ではなく、そのハッシュで行われます。ハッシュとは何ですか?これは、別の入力ブロックから生成されたデータのブロックです。この場合、入力は画像です。

専門用語には立ち入りませんが、iPhone は、以前に児童虐待として特定された内容のハッシュのデータベースに基づいて比較を行います。一致が見つかった場合は、比較結果を保護する暗号化されたアラートが生成されます。 Appleですらそれを見ることはできません。

アップルハッシュ

今後、一致数が特定の数に達すると(数字は明らかにしていないが)、 Apple は素材を手動で分析して、実際に児童虐待の画像であることを確認できるようになる。ここで重要なのは、この手動検証が iPhone に介入したり、画像をリモートで抽出したりすることによって行われるのではなく、すでに iCloud にアップロードされている写真に対して行われることを示すことです。このプロセス全体は、イメージがクラウドにバックアップされる前に発生することに注意してください。

 Apple、メッセージのセキュリティを強化へ

Apple、メッセージのセキュリティを強化へ

メッセージに関しては、13 歳未満の子供が iCloud 上のファミリーに属している場合、セキュリティ対策が強化されます。たとえば、性的に露骨な画像を受け取った場合、その画像はぼやけて表示されます。 「写真を見る」ボタンを押してどうしても閲覧したい場合は、さらに多くの「検閲」情報が表示され、親または保護者にすぐに警告が送信されます。露骨な性的コンテンツを含む写真を送信しようとした場合にも、同様の警告が表示されます。素材がこれらの条件を満たしているかどうかを識別するために、Apple は機械学習を使用します。メッセージのニュースは、米国では iOS 15、iPadOS 15、macOS Monterey の将来のアップデートとともに今年末まで配信されます。

最後に、 Apple は、「子供と親がオンラインで安全を保ち、危険な状況で助けが得られるように」貴重なリソースを提供することで、Siri と検索をさらに便利なものにしたいと考えています。さらに、「Siri と検索も、ユーザーが児童虐待の内容に関連するクエリを行ったときに介入するように更新されています。これらの介入は、それがいかに有害で問題があるかをユーザーに説明し、問題の解決に役立つリソースを提供します。」と付け加えています。

参考資料一覧

  1. https://9to5mac.com/2021/08/05/apple-announces-new-protections-for-child-safety-imessage-safety-icloud-photo-scanning-more/

公式発表:Appleは児童虐待の内容を検出するためにiPhone上の写真をスキャンする予定ですが、プライバシーは保証されます・関連動画