Facebook に関する大論争は続いています。ウォール・ストリート・ジャーナルが掲載した新しい記事は、Facebook が自社の AI では憎悪に満ちたコンテンツや暴力的なコンテンツの最小限の部分さえ削除できないことを認識していることを強調しています。具体的には、アルゴリズムでは、一人称で録画されたビデオ、人種差別的なスピーチ、自動車事故、さらには闘鶏などの一連のコンテンツを検出したり区別したりできないためです。
Facebook は、被害を最小限に抑えることを目標としており、このソーシャル ネットワークが過去 3 年間でヘイトスピーチをほぼ 50% 削減することに成功したことを確認しました。 Facebookのインテグリティ担当バイスプレジデント、ガイ・ローゼン氏によると、この減少の多くは「改良され拡張されたAIシステム」のおかげだという。
しかし、アメリカの新聞が漏洩した文書は、フェイスブックがフェイクニュース、暴力的なコンテンツ、ヘイトスピーチの検出を担当する人間チームの一部を削減したことを明らかにしている。その代わりに、コンテンツの数を減らし、それが人工知能の使用によるものであると考えられる一連の措置を実行しました。しかし、Facebook 従業員の中には、これらのテクノロジーを使用しても、嫌がらせコンテンツの 3 ~ 5% しか除去されないと推定する人もいます。
では、明らかにソーシャル ネットワークのルールに違反しているものの、AI が正しく検出できなかった残りのコンテンツはどうなるでしょうか?これは単に表示頻度が下がるだけで、削除されません。フェイスブックがそれを認めている。
Facebook AI が疑わしいコンテンツを表示する頻度が減少
ローゼン氏はWSJの声明に対し、「コンテンツ削除だけに焦点を当てるのは、Facebookがヘイトスピーチとどう闘うかを考える上で間違った見方だ」と述べた。また、そのテクノロジーにより不審なコンテンツの配布を削減できることも強調しています。しかし、それで十分でしょうか?
コンテンツを自動的に削除するためのしきい値は高く設定されています。そうしないと、ヘイト スピーチのように見えてそうではないコンテンツでさらに間違いを犯し、ヘイト スピーチの経験を説明したり非難したりする人など、私たちが守ろうとしているまさにその人たちを傷つける危険性があります。
Facebookのインテグリティ担当副社長、ガイ・ローゼン氏はこう語る。
WSJは、 FacebookのAIですら区別できないコンテンツが存在し、誤ってラベル付けされていると主張している。たとえば、ニュージーランドのクライストチャーチ銃乱射事件は、加害者の一人称で生中継で録画された。 AIはさまざまなユーザーが投稿した一部の動画を「ペイントボールゲーム」や「洗車」として検出し、インターネットユーザーのフィードに表示される原因となった。
参考資料一覧
- https://www.wsj.com/articles/facebook-ai-enforce-rules-engineers-doubtful-artificial-intelligence-11634338184?st=fdxfcqdeo7a0g8a&reflink=desktopwebshare_twitter
- https://about.fb.com/news/2021/10/hate-speech-prevalence-dropped-facebook/
