Facebook でのコンテンツのモデレーションは、近年論争の中心となっている問題です。彼らのシステムはヘイトスピーチを排除しないという点で多くの不満を残しているだけでなく、マーク・ザッカーバーグ自身も言論の自由に依存してヘイトスピーチを容認している。現在、同社は人工知能をプロセスに統合することで埋め合わせをしようとしている。
The Vergeのレポートによると、Facebookはモデレーションプロセスに機械学習を導入する予定だという。一般的な考え方は、有害な投稿に優先順位を付けることです。そのため、アルゴリズムはバイラル性、重大度、ルール違反などの基準に基づいてモデレーション キューを分析し、並べ替えます。
この考えは、人間のモデレータを置き換えるのではなく、プロセスを合理化し、さらなる損害が発生する前に、モデレータによってレビューされるエントリーに優先順位を付けることです。 Facebook のモデレーション システムは、会社のルールに違反する投稿にフラグを立てます。分析後、エントリーを削除してアカウントをブロックするか、それともモデレーションキューに送信するかを決定します。
以前は、このモデルは人間がレビューできるようにキューを時系列順に整理していました。これにより、本当に重要なコンテンツの削除に遅れが生じました。今後、Facebookはユーザーから報告された有害な投稿や人工知能が選択した有害な投稿を優先することになる。
人工知能によるモデレーションは正確ではないが、Facebook はそれを認識している
Facebook のような大規模なプラットフォームのモデレーションを AI に任せるのは現実的ではありません。このテクノロジー企業は機械学習を使用するため、将来的には理論上、そのアルゴリズムはより効果的になるでしょう。同社のソフトウェアエンジニア、クリス・パロウ氏によると、自動化システムは、人間よりも優れている場合にのみ、人間の監督なしで動作することが許可されるという。
人工知能によるモデレーションの破壊の一例はYouTubeです。今年8月、同プラットフォームは自動検出アルゴリズムにより1140万本の動画を削除した。新型コロナウイルス感染症(COVID-19)のパンデミックにより、同社は従業員を置き去りにして自動化システムに依存した。
1 か月後、YouTube は、人工知能は意思決定が苦手であるため、人間のモデレーターに戻すと発表しました。アルゴリズムがうまく機能せず、YouTube は誤って削除された 16 万本以上の動画を復元する必要がありました。
YouTube が言及している利点の 1 つは、 AI が潜在的に有害なコンテンツをより迅速に検出することです。人間の管理と組み合わせることで、ソーシャル ネットワークを悩ませるフェイク ニュース、憎悪に満ちたコンテンツ、その他の悪の蔓延を阻止できる可能性があります。
Facebookはこの組み合わせを推進しようとするだろうが、コンテンツの削除に関しては内部ポリシーやその管理者自体にまだ改善の余地が残されている。
参考資料一覧
- https://www.theverge.com/2020/11/13/21562596/facebook-ai-moderation
