2016 年 3 月 25 日、マイクロソフトのコーポレート バイス プレジデントであるピーター リーはマイクロソフトの公式ブログで公開れた文章を次のように始めました。 「私たちは、テイの意図せず攻撃的で有害なツイートを行ったことを深く遺憾に思います。このツイートは、私たちが何者であるか、私たちが何を支持しているのか、あるいは私たちがテイをどのようにデザインしているのかを表していません。」残念ながら、このチャットボットの名前は、Twitter でこの奇妙な事件を説明する見出しのトップを飾ったニックネームほど普及しないでしょう。 Microsoft の人種差別的で同性愛嫌悪的なボット

よく言われるように、テクノロジーには良いも悪いもありません。それは、ツールを何か良くも悪くも変える人々による使用です。そして、人種差別主義者の Tay ボットの結果としてMicrosoft と Twitter で起こった状況により、私たちの多くは、人工知能が多くの可能性を秘めたテクノロジーである一方で、Tay で犯したのと同じ間違いを犯さないように監視する必要があることを学びました。

Microsoft コーポレートバイスプレジデントの説明に戻ると、「Tay は、当社がオンライン ソーシャルの世界に投入した最初の AI アプリケーションではありませんでした。中国では、当社の Xiaoice チャットボットは約4,000 万人に使用されており、ストーリーや会話を楽しんでいます。」つまり、Xiaoice が中国でうまくいったのなら、なぜ Tay は米国でうまくいかないのでしょうか?

会話型 AI の作成の詳細

会話型 AI の作成の詳細

Xiaoiceは、マイクロソフト アジアがソフトウェア テクノロジー センターで開発した AI です。このプロジェクトは 2014 年に始まり、2018 年の夏にはすでに 6 番目のバージョンになっていました。もしくは6世代目。完全に成功です。同じ2018年にはすでに6億6,000万人のフォロワーがいたほどだ。そしてその後、彼は他の人々と話したり交流したりすること以外の仕事に専念するようになったとのこと。洋服のイメージやパターンのデザインなど。

しかし、最初に戻りましょう。中国で浮上している人工知能研究プロジェクトは非常に野心的なものである。 2013 年末に中国を拠点とする独立した研究開発チームが設立され、2014 年 9 月には日本に第 2 本社が設立されました。そして、そのすべての作業から、Xiaoice AI は歌、詩、ファッション デザインを作成し、さらにはテレビ番組やラジオ番組を提供してきました。そして現在、中国、日本、インドネシア、米国の 40 以上のプラットフォームに存在しています。つまり、 Facebook Messenger、LINE、WeChat、QQWeiboなどのアプリケーションで Xiaoice と対話できます。

Microsoft Asia で達成された成功を米国でも再現したいと考えたのは驚くべきことではありません。こうしてテイは生まれました。 「あなたについて考える」の頭字語。最悪の場合、人種差別主義者のボットとして知られることになる人物です。しかし、もともとそのアイデアは良かった。 18 歳から 24 歳までのアメリカの若者向けのチャットボットを作成します。そして、ピーター・リーが説明するように、彼らはさまざまな状況でテイをテストしたので、結果はポジティブな経験となった。それで、何が間違っていたのでしょうか?

Tay チャットボットのプロモーション例
Tay の公式ウェブサイトからのプロモーション画像
戦場、ツイッター

戦場、ツイッター

イーロン・マスク氏の混沌とし​​た Twitter への登場により、誰もがこのソーシャル ネットワークが消滅する前から懐かしんでいるようですが、Twitter には常に一定の悪い評判がありました。 InstagramTikTokなどの他のネットワークには「良い雰囲気」が溢れており、そのコンテンツは私たちが生きている現実を「甘やかす」ことに重点を置いていますが、 Twitter は皮肉や的外れな会話や非難があふれる場所となっています。

いずれにせよ、人工知能を Twitter に導入することは、かなりの意思表示でした。テイがあらゆるタイプのユーザーに対処する戦争シナリオに近い実験場。善意でやっている人もいます。その他、人間間のやり取りを荒らしたり酔わせたりする専門家もいます。あるいは、この場合、人間と機械の間でも。

そのため、Tay チャットボットの内部テストの後、責任者は Twitter 上でユーザー名@TayandYouを使用して対話できるようにしました。マイクロソフトのコーポレートバイスプレジデントであるピーター・リー氏の説明に再び戻ると、「接続してから最初の 24 時間で、一部の人々による組織的な攻撃がTay の脆弱性を悪用しました。」 Lee氏によると、この「脆弱性」により、Microsoftのチャットボットは「不適切な」言葉や画像をツイートする人種差別的で同性愛嫌悪的なボットになったという。

Tay チャットボットへの攻撃は 4Chan で発生しました
人間の魂の反映としての機械

人間の魂の反映としての機械

Tay チャットボットは、機械学習自然言語処理、ソーシャル ネットワークの 3 つの要素を統合した実験でした。最初の 2 つは実験の技術的な部分です。近年大きく進歩した人工知能の 2 つの研究分野。しかしマイクロソフトではソーシャルな部分を考慮していませんでした。ましてや、あるグループがチャットボットがどこまでできるかをテストしたいと考えていたなんてことはありません。

技術的な部分では、Microsoft を責めることはほとんどできません。彼らは、人々の発言から学習し、そこから人々のように表現するコンピューター プログラムを作成しました。残念ながら、この学習には「悪い会社」が混ざって、テイを人種差別主義者、性差別主義者、そして同性愛嫌悪のチャットボットに変えてしまいました。

後でわかったことですが、Twitter 事件のきっかけとなった組織的な行動は物議を醸したフォーラム4chanからのものでした。さらに、YouTuberによるその後の実験でも同様の結果が得られた。その際、AI は 4chan のコンテンツでトレーニングされました。その結果、約15,000 件の人種差別的な投稿が投稿されました。

4chan の投稿の 1 つでは、チャットボット Tay の Twitter アカウントにリンクしていました。そして、このフォーラムの残りのユーザーは、人種差別的、女性蔑視、同性愛嫌悪、さらには反ユダヤ主義的なコメントでボットを挑発するよう奨励されました。それぞれの家の最高のもの。具体的には、ほとんどのチャットボットに通常組み込まれている「Repeat after me」機能を利用しました。その機能と学習機能を組み合わせると、このような結果になりました。 Twitter には 95,000 件を超えるメッセージが投稿され、その多くは 18 歳から 24 歳の若い女性のように振る舞うべき AI に対する有害で非難的なものでした。

Microsoft Xiaoice は AI とチャットボットの分野での成功例です
地元の人や見知らぬ人から学んだ教訓

地元の人や見知らぬ人から学んだ教訓

幸いなことに、Tay は単なるチャットボットでした。戦争機械ではありません。つまり、架空のターミネーター物語が予言する終末的な未来はまだ到来していないのです。そしてそれはフィクションのままだろう。しかし、2016 年 3 月 23 日に起こった出来事のおかげで、 AI の専門家や外部の人々は多くのことを学ぶことができました。まず、AI は Web ページで何かが見つからないときに役立つこともありますが、同時に私たちを侮辱したり、人種差別や同性愛嫌悪の中傷を吐き出したりする可能性があることを学びました。

ピーター・リー氏は謝罪文を次のように締めくくった。その意味では、課題は技術的なものであると同時に社会的なものでもあります。 「私たちは技術的な悪用を制限するために最善を尽くしますが、間違いから学ばなければ、人間によるインタラクティブな悪用の可能性をすべて完全に予測することはできないことも承知しています。」

3 月 23 日に起きた出来事と、それに伴う 3 月 25 日のマイクロソフトによる謝罪の後、現在人種差別主義者で同性愛嫌悪のボットとして世界中で知られているチャットボット Tay が、Twitter 上で 2 番目の事件に巻き込まれました。これは 3 月 30 日、内部テスト中にボットが誤って Twitter に再び出現したときに起こりました。そして再び、テイは「自分のやるべきことをやり遂げた」。責任者がこれに気づき、物議を醸しているソーシャル ネットワークから削除したところ、傷つける攻撃的なメッセージが200,000 人以上のフォロワーに届いていました。

テイにとって残念だったのは、組織的なかどうかに関わらず、数十人の Twitter ユーザーによる攻撃が、Twitter を気分を害し傷つけるためのツールに変えてしまったことです。したがって、遅かれ早かれ、AI との連携を継続するという Microsoft の取り組みにより、人種差別主義のチャットボット Tay が忘れ去られるような新しい名前を立ち上げることになるのは避けられませんでした。彼の後任はゾーだった。 2016年末に発表されましたが、これはまた別の話です。

参考資料一覧

  1. https://www.microsoft.com/en-us/research/people/petelee/
  2. https://news.microsoft.com/apac/features/much-more-than-a-chatbot-chinas-xiaoice-mixes-ai-with-emotions-and-wins-over-millions-of-fans/

Twitter 上で 1 日も続かなかった人種差別的な Microsoft ボット・関連動画