有害なプレイヤーはCall of Dutyの最大の問題の 1 つです。通報したり黙らせたりする仕組みはあるが、その措置が常に効果を発揮するとは限らない。これが、Activision が人工知能を使用して虐待行為と戦うツールのテストを開始した理由です。
Call of Dutyブログに公開された投稿の中で、Activision は新しい大規模なリアルタイム ボイス チャット モデレーション システムを実装すると発表しました。同社は、Modulate 社が開発したツールである ToxMod を使用します。このツールは、人工知能を使用して差別的な言葉遣い、ヘイトスピーチ、ハラスメント、 その他の有害な行為を特定します。
ToxMod は 3 つの段階で動作します。まず、音声チャットからのデータを分類および処理して、会話に注意が必要かどうかを判断します。特定のパラメータが満たされると、システムは口調、状況、知覚された感情を分析して行動の種類を決定します。これは機械学習モデルによって実現されており、Modulate は感情的で微妙なシグナルを理解し、ジョークと悪い行動を区別すると述べています。
「これらの分類モデルは、一見しただけで会話のすべてを理解することはできませんが、怒り、苦痛、攻撃性、さらにはより微妙な邪悪な意図の明らかな兆候を探すことができます」と、Modulate は文書の 1 つで述べています。最後に、このツールは最も有害なボイス チャットをエスカレーションして、モデレータが適切な措置を講じることができます。
Call of Duty はすべての言語の有害性と闘います
ToxMod はスペイン語を含む18 の言語を理解し、そのうち 2 つ以上の言語での会話の完全な文脈を理解できます。 Call of Dutyでは英語以外の言語で人々が人種差別的な侮辱を行うのをよく聞くため、これは重要です。
Modulate は、言語モデル、人工知能、および各言語をネイティブに流暢に操り、特定の有害な行為を識別できる人間の専門家を使用します。 「有害な行為との戦いはより微妙であり、言語の流暢さとその言語の母国の文化、さらにゲームやオンライン行動全般のサブカルチャーと心理学が必要です」と同社は述べている。
以前の投稿で、Modulate は、ToxMod が暴力的過激化や児童いじめなどの特定のリスク カテゴリを検出するとコメントしました。これは、繰り返される動作パターンを識別する検出アルゴリズムのおかげで可能になります。たとえば、ある機会にプレイヤーが過激な言葉を使用した場合、それは違反として分類されます。ただし、数週間にわたって繰り返したり強化した場合は、モデレータが評価するリスク カテゴリに追加されます。
人工知能は絶対的なものではない
ToxMod はCall of Dutyにおける不正行為に対する決定的な解決策ではないことに言及することが重要です。このツールは、14 か国語で利用できるテキストベースのフィルタリングや、ルールを守らないプレイヤーを報告するメカニズムなどを含むゲーム管理システムに統合されます。犯罪者を制裁するかどうかの最終決定は、毒性対策チームの手に委ねられます。
最初のベータは本日より開始され、北米ではCall of Duty: Modern Warfare IIおよびCall of Duty: Warzoneに統合されます。その後、11 月 10 日のCall of Duty: Modern Warfare IIIの発売により、一般向けに拡大されます。 Activision は、モデレーションは英語で開始されることを確認しましたが、スペイン語や他の言語も後日追加される予定です。
参考資料一覧
- https://uploads-ssl.webflow.com/64077e8d2a65516333416df9/64ecc579ac58a82d0b71b4d4_Modulate%20-%20What%20is%20Proactive%20Moderation.pdf
- https://www.modulate.ai/blog/player-risk-categories
- https://www.callofduty.com/blog/2023/08/call-of-duty-modern-warfare-warzone-anti-有毒性-progress-report
