Apple は、iPhone、iPad、または Mac を使用する 13 歳未満のユーザーの保護を保証するために、昨年発表したツールの 1 つを世界的に展開し始めました。同社は、特に英国、カナダ、オーストラリア、およびその他の国々で導入を開始しました。ニュージーランド、メッセージのヌード警告。「メッセージの通信セキュリティ」とも呼ばれる機能で、メッセージング サービスを通じて受信する露骨な画像を幼児が見ないようにすることを目的としています。

このツールは、設定を通じて手動で有効にする必要があり、ヌードやその他の種類の露骨な性的コンテンツを検出するために、メッセージ アプリを通じて送信された写真をスキャンします。もちろん、これらすべてはマルチメディア ファイルのエンドツーエンド暗号化を維持します。ヌードやその他の性的行為が含まれているために画像が露骨であるとシステムが検出した場合、システムは画像をぼかし、画像が機密性の高いものである可能性があることを警告するメッセージをチャットに表示します。

Messages は、オンデバイスの機械学習を使用して添付画像を分析し、写真にヌードが含まれているかどうかを判断します。この機能は、Apple が写真にアクセスできないように設計されています。

りんご。

Apple、露骨な画像を受け取った未成年者に一連の措置を提案

アップルのメッセージ

また、このアプリを使用すると、ユーザーは大人の連絡先にメッセージを書いて機密画像を受け取ったことを警告するか、連絡先をブロックするかを選択できるようになります。また、「助けを求める他の方法」へのショートカットも表示されます。後者の場合、Apple はユーザーをリソースのある Web サイトにリダイレクトし、会話を続けないようアドバイスします。

ユーザーが最終的に写真を表示することに決めた場合、メッセージ アプリは画像に含めることができるコンテンツの種類について再度警告します。また、無視したり、大人に連絡したりする可能性もあります。

一方、Apple も追加の児童保護機能の有効化を開始しました。 The Vergeによると、この場合は Spotlight、Siri、Safari の検索を対象としています。ユーザーがこれら 3 つのサービスのいずれかにアクセスして、児童性的虐待に関連するトピックを検索すると、表示される結果には安全に関するコンテンツとリソースが提供されます。

その間、CSAM 機能は利用できないままになります。覚えておいてください、このツールは、児童の性的コンテンツを検出するために、iCloud にアップロードされる前に iPhone の写真をスキャンします。 Appleは、ユーザーやセキュリティとプライバシーの専門家からの複数の懸念により、発売を延期することになった

参考資料一覧

  1. https://support.apple.com/en-us/HT212850
  2. https://www.theverge.com/2022/4/21/23035183/ios-messages-communication-safety-nudity-sexly-explicit-message-blurring

Apple、すべての人に向けた iMessage のヌード警告を開始・関連動画