OpenAIGoogleMetaMicrosoft 、および人工知能の開発に専念するその他の企業は、児童性的虐待のイメージと戦うことに取り組んでいます。 Thorn と All Tech is Human によって推進されるこの取り組みは、生成 AI モデルのトレーニングと運用に適用される一連の新しい原則を確立します。

企業は、児童の性的虐待の画像の作成と拡散を防ぐためにいくつかの取り組みを行っています。そのためには、AI のトレーニングに使用されるデータにこれらの種類の写真が含まれていないことを確認し、見つかった場合は削除する必要があります。同様に、児童虐待の素材が含まれるリスクが高いと特定されたデータセットの使用も避けなければなりません。

生成型 AI をトレーニングするために児童の性的虐待画像の使用を防ぐことに加えて、企業はモデルを作成できないことを証明するためにモデルを厳格なテストにかける必要があります。ソーン氏は、2023年には米国だけでも児童性的虐待の内容を含む疑いのあるファイルが1億400万件以上報告されたと指摘している。

「生成 AI により、大量のコンテンツの作成がこれまでより簡単になります。このテクノロジーにより、1 人の児童犯罪者が児童性的虐待素材 (CSAM) を大規模かつ迅速に作成できるようになります。これらの悪意のある攻撃者は、画像やオリジナルのビデオを新たな虐待素材に改変することができ、そのコンテンツで子供たちを再び被害者扱いしたり、良性の子供向けコンテンツを操作して性的なコンテンツを作成したり、完全に AI で生成された CSAM を作成したりすることです。」

とげ。

このコミットメントには、 AmazonAnthropic (Claude)、 Mistral AIStability AI (Stable Diffusion)、 CivitaiMetaphysicsTeleperformanceも署名しています。これらの企業の中には、Thorn と All Tech is Human が推進する Security by Design 原則を採用する取り組みについて、より詳細な情報を提供している企業もあります。さらに、透明性に関する最新情報を毎年提供することも約束しています。

生成型AI時代の大きな問題、児童性的虐待の画像

生成型AI時代の大きな問題、児童性的虐待の画像

生成型AI時代の大きな問題、児童性的虐待の画像
Clarote & AI4Media / AI のより良いイメージ / 労働/資源 / CC-BY 4.0

生成人工知能の世界では、すべてがバラ色であるわけではありません。 AIモデルのトレーニングに使用されるデータベースから児童の性的虐待の画像が検出されたことは、研究者や活動家の間で驚きを引き起こした。 2023年12月、スタンフォード大学の専門家がLAION-5Bと呼ばれるデータベースで3,000枚以上のそのような写真を発見した。これは、安定拡散人工知能のトレーニングなどに使用されました。

生成 AI 分野の主要リーダーたちが、このようなデリケートな問題について透明性を保つことに尽力していることは、決して小さなことではありません。約束が厳密に履行されているかどうかを確認する必要がある。結局のところ、多くの企業は依然としてモデルのトレーニングに使用する情報をどこから入手するかについての詳細を提供することを拒否しています。たとえば、OpenAIは「公的に入手可能なデータ」を使用するとしか述べていない。しかし、このスタートアップは著作権侵害の疑いで複数の訴訟の標的となっている。

児童の性的虐待の画像が人工知能モデルのデータに含まれるのを防ぐのは簡単な作業ではありません。多くの企業は、この種の材料やその他の同様に不適切な材料が最終モデルに到達しないようにフィルターを使用していると主張していますが、それでもまだ不十分であることは明らかです。

透明性への挑戦

透明性への挑戦

この分野の専門家は、情報の多くはAI に供給される前にレビューすらされていないと主張しています。 2023年に発表された別の調査では、メタモデルとGoogleモデルのトレーニングに使用された数千のWebサイトの中には、ポルノ、トランスフォビア、ナチス、白人至上主義のコンテンツが含まれていたことが判明した。

「私たちは、生成型 AI テクノロジーと製品を開発、実装、保守、使用するすべての企業に対し、これらの安全設計原則の採用に取り組み、児童の性的虐待の素材、つまり児童の性的虐待の画像の作成と拡散の防止に献身的に取り組むことを示すことを強く求めます。生成 AI やその他の児童の性的虐待と搾取行為です」とソーン氏は結論付けました。

参考資料一覧

  1. https://www.aboutamazon.com/news/policy-news-views/amazon-csam-transparency-report-2023
  2. https://www.thorn.org/blog/generative-ai-principles/
  3. https://openai.com/blog/child-safety-adopting-sbd-principles
  4. https://blogs.microsoft.com/on-the-issues/2024/04/23/microsoft-thorn-all-tech-is-human-child-safety-generative-ai/

OpenAI、Google、その他の生成 AI リーダーが児童性的虐待の画像と闘うために力を合わせる・関連動画