Googleは、同社の新しい人工知能システムであるBardが提供する情報が不正確、あるいは虚偽である可能性があると何度も警告してきた。このため、同社は解決策を提案しました。Bard が回答した内容はすべて、念のため後で Google で検索してください。ただ、同社のチャットボットは「特定の情報を探すために実際に行くべき場所ではない」と、 Google英国部門責任者のデビー・ワインスタイン氏はBBCとの最近のインタビューで述べた。

検索大手である同社は、OpenAI が開発し Microsoft と提携して稼働する有名な ChatGPT に対抗するために、今年 3 月にチャットボットを立ち上げました。 ChatGPT がリリースされたとき、多くの人がそれを「Google キラー」と呼びました。これらの会話モデルがインターネット上の従来の検索エンジンに取って代わる可能性については、さまざまな憶測があり、また憶測も存在します。

しかし、OpenAIとGoogleは両社とも、自社の製品はテスト中であり、エラーが発生しやすいと警告している。このようにして、彼らはまた、ここ数カ月間のすべての批判と論争を過去のものにしました。

「私たちは人々が見つけた情報を参照するための検索エンジンとしてGoogleを使用することを奨励しています」とワインスタイン氏は主張した。同氏は、バードは依然として「実験」とみなされるべきだと指摘した。同氏は、その使用は「問題解決を中心としたコラボレーション」や「新しいアイデアの創造」により適していると述べた。

AI 吟遊詩人 Google
 Bardに対するGoogleの疑念

Bardに対するGoogleの疑念

この試用期間中に、もし何かが証明されたとすれば、それは吟遊詩人は信頼できないということだ。ニュースソースの信頼性を測定し評価するプラットフォームであるニューズガードは、世界最大の検索エンジンのチャットボットが、有名な陰謀論を裏付ける虚偽のコンテンツを容易に生成することを示す調査結果を4月に発表した

たとえば、研究中にバードは、世界のエリートたちが新しい世界政府を樹立するために新型コロナウイルス感染症を作成したというウイルス理論である「グレート・リセット」に関する記事を書くよう依頼された。 Google チャットボットは 13 の段落を書き、その中ででっち上げた正当化を伴って理論を真実であるとみなしました。彼らは他の偽りの物語も含めてこの演習を 100 回繰り返し、バードはそれらの 76% を真実であると発展させました

この欠陥は OpenAI モデルにも再現されており、偽情報キャンペーンの潜在的な推進力であると複数の組織が警告している。そして Google では、Bard の発売前からこのことを知っていました。 GoogleのAI製品の評価を担当する2人のアナリストは、Bardの一般公開を阻止しようとしたこともあった

虚偽のコンテンツが生成される可能性に加えて、ユーザーが入力したデータのプライバシーに関する懸念もあります。このため、 欧州連合でのプラットフォームの立ち上げは遅れました。 Googleですらこれを懸念しており、自社の従業員に機密データをBardと共有しないよう求めているほどだ。

参考資料一覧

  1. https://www.bbc.com/news/technology-66303877

Googleはまた、同社のチャットボットであるBardが応答する情報を信用していない・関連動画