イーロン・マスクは、覚醒した文化からツイッターを「解放」し、表現の自由として彼が理解しているものを押し付けるためにツイッターを買収しただけではない。実際、彼の計画はもっと野心的なものです。マスク氏は人工知能の利益のために巨大なデータベースであるツイッターからの情報を使用する計画を認めたため、買収の実際の影響はソーシャルプラットフォームからは程遠いものになるだろう。
具体的には、イーロン・マスク氏は Twitter データを使用して人工知能言語モデルをトレーニングしたいと考えています。はい、ChatGPT のようなツールの存在を許可したものと同様です。
あるTwitterユーザーは、この大御所の言葉を引用して次のようにコメントした。「私の意見では、イーロン・マスク氏はBasedAIで言語モデルをトレーニングするために、Twitterデータと人間のフィードバックによる強化学習、そしてTeslaのDojoスーパーコンピューターを使用する可能性が最も高い」。
よく知られているように、イーロン・マスクは Twitter でかなりアクティブなユーザーであり、通常はコミュニティからのいくつかの質問やコメントに答えています。この場合も例外ではありませんでした。マネージャーは単に「obv」(「明らかに」)と答えました。残念ながら、彼は将来の意図についてはこれ以上掘り下げませんでした。
Twitter データベースは間違いなく、人工知能言語モデルをトレーニングするための宝の山となり得ます。理由?人間が互いにコミュニケーションするための何百万もの表現があります。
そして、同様に重要なことは、これらの表現を生み出す背景があるということです。これにより、たとえばチャットボットが議論されているトピックに応じて異なる応答をすることが容易になります。たとえば、面白いミームについて声を上げることと、自然災害についての深刻な情報を提供することは同じではありません。この情報を学習源に変えると、大きな成果が得られることは間違いありません。
さて、 Twitter が有害性のあふれるソーシャル ネットワークであることは無視できません。イーロン・マスクが経営と所有権を引き継いで以来、ヘイトスピーチが増加していることは証明された事実ですらあります。しかし、その出来事が起こる前から、ソーシャル ネットワークはインターネット上に多くの不快な人々の拠点でもあることですでに知られていました。
上記に基づいて、次の疑問が生じます。Twitter データによってトレーニングされた人工知能言語モデルに本当に興奮する必要があるのでしょうか?彼らがBasedAIでどのようにそれを行うつもりであるかがわかるまでは、ゆっくり静観したほうがよいでしょう。
GPT-3 モデルと ChatGPT を担当する企業である OpenAI も、自社の学習鉱山の有害な言語に対処する必要がありました。
1月、 Timeの報道は、OpenAIがケニアの従業員に、学習テキスト内の有害な単語やフレーズを正確に検出する業務を委託していたということを暴露した。同社は、GPT-3 を駆動するデータベースに不適切な言葉が到達するのを防ぐことを目的としたセキュリティ ソフトウェアを開発しました。もちろん、問題は、最初の分析を手動で行う必要があるため、人間を使用する必要があることです。
イーロン・マスク氏とBasedAI氏もTwitter情報を使って同様のことを行うのではないかと思われる。そうでないと、これまでに作成された中で最も有害な言語モデルが近づいてきます。
参考資料一覧
- https://twitter.com/lorakolodny/status/1631043125991944197
