AI、具体的には ChatGPT を利用した新しい Bing は、 間違った答えを提供することもありユーザーと長時間会話することも苦手です。 Microsoft は、自社の検索エンジンを統合したチャットボットが、セッション中に 15 個以上の質問をされると、「繰り返し」になったり、役に立たない下品な回答を容易に「要求」されたりする可能性があることを確認しました。

Microsoftの声明は、 ChatGPTから侮辱や操作を受けたと主張する数人のユーザーからの批判を受けて出されたもので、ユーザーは腹を立てて一部の人々を嘘つきだと非難さえした。

同社は特に、人々がこのツールを「より一般的な世界の発見やソーシャルエンターテイメントのために」使用することを計画していなかった、と述べている。そして、以前の研究の結果、AI が反復的になる可能性があることが判明したとのことです。また、「必ずしも役に立つとは限らない」、または意図された論調に「一致していない」回答をするよう挑発されることもあります。彼らはまた、これには 2 つの理由があると考えています。

まず、非常に長いセッションにより、ChatGPT がどのような質問に答えているのか混乱してしまうと彼らは指摘しています。おそらく、ユーザーがトピックを変更し、AI がそれに関する十分なコンテキストを受け取っていないためです。 Microsoft は、チャットボットが質問をよりよく理解するためにそのコンテキストを簡単に「更新」したり、チャットを最初から開始したりできるツールを追加することで、この障害が解決されると考えています。

一方で、同社は、ユーザーが応答を求めている場合、「モデルが応答したり、そのトーンを反映しようとしたりする」場合があると述べています。だからこそ、AIは下品な話し方や不適切な口調で話すことができるのです。ただし、Microsoft は、ChatGPT をこの方法で応答させるには多くの指示が必要であることを強調しています。ただし、チャットボットがどのように応答すべきかをより正確にユーザーに制御する方法を研究していると主張しています。

 Microsoft は、Bing 上の ChatGPT が間違った答えを返す可能性があることを認識しており、すでに解決策に取り組んでいます。

Microsoft は、Bing 上の ChatGPT が間違った答えを返す可能性があることを認識しており、すでに解決策に取り組んでいます。

ChatGPT を使用した Bing |マイクロソフト | AI

同時に、Microsoft は、ChatGPT を利用した新しい Bing でも誤った回答が返される可能性があることを確認しました。実際、AI は公式デモンストレーション中に不正確な結果を提供しました。彼は、インターネットで簡単に見つけられる財務結果の数字さえでっち上げました。

これらの問題を回避するために、同社はChatGPTを利用したAIに送信されるデータ量を増やす計画であることを確認しました。これにより、より多くのコンテキストが得られ、情報を比較して、より正確な結果が得られます。

「財務報告書の数値など、より直接的で客観的な回答が必要なクエリについては、モデルに送信する根拠データを 4 倍に増やす予定です。」

ChatGPT を備えた新しい Bing はまだテスト段階にあることを忘れてはなりません。したがって、このスタイルのエラーはよく見つかります。

参考資料一覧

  1. https://blogs.bing.com/search/february-2023/The-new-Bing-Edge-–-Learning-from-our-first-week

Microsoft は、Bing 上で ChatGPT を使用して話しすぎると正気を失う可能性があることを確認しています・関連動画