GoogleのAI製品の評価を担当する2人のアナリストがBardの立ち上げを阻止しようとした。技術者らは、同社が開発したチャットボットが虚偽のコンテンツや危険なコンテンツを生成するリスクについての懸念を報告書に記した。
2人の従業員は、GoogleのResponsible Innovationグループのディレクター、ジェン・ゲンナイ氏のチームで働いた。ツールを確認したところ、セキュリティ対策が不十分でチャットボットの準備が整っていないと主張した。 Bard は昨年 3 月にようやく導入されましたが、非常に限られたユーザーのみに限定されました。
ニューヨーク・タイムズ紙は、源内氏が勧告を削除し、リスクに対する警戒を最小限に抑えるために最終文書を変更したと報じた。アメリカのメディアはこのプロセスに関与した2人の人物の名前を挙げている。
GoogleはBardはまだテスト中だと述べている
Googleは、まさにこの種の警報のため、限定的な実験としてBardを立ち上げたと回答した。レスポンシブル・イノベーション・チームの責任者である源内氏はニューヨーク・タイムズ紙に対し、アナリスト報告書の「不正確な仮定を修正した」ことを認めた。同氏は、評価者らは打ち上げを続行するかどうかについて発言権がないと述べた。
昨年 11 月に OpenAI のチャットボットであるChatGPTが登場したことは、AI を活用したモデルの開発における熱狂的な競争の始まりでした。さまざまな組織や専門家がこの種のテクノロジーに内在するリスクについて警告しているにもかかわらず、Microsoft や Google などの業界大手は、新しいツールや機能の発表を急いでいます。
Google の従業員が Bard 氏の退職を阻止するよう求めたのと同じように、 Microsoft の同僚グループも 10 か月前に同じことを行いました。ニューヨーク・タイムズ紙が報じたように、倫理学者や他のマイクロソフトのアナリストらは、計画されたチャットボットの背後にあるAIがどのように誤った情報でFacebookグループに混乱を引き起こす可能性があるかについて、いくつかの報告書を発表した。彼らは、この種のツールを十分な予防措置なしに使用すると、ユーザーの批判的思考をいかに損なうかについて警告しました。
スピード vs.責任
当時、この種の懸念により、同様のシステムの立ち上げが中止されました。たとえば、2016 年に Microsoft は、 Tayと呼ばれるチャットボットがユーザーによって人種差別的で同性愛嫌悪的な反応を引き起こされたため、すぐに削除しました。 1日もかからずに入手可能でした。
Bard よりも先に、Google は 2020 年に同様のチャットボットであるMeenaをすでに発表していました。しかし、同社はこの製品はリスクが高すぎると考え、最終的には市場に投入しないことを決定したとウォール・ストリート・ジャーナルが明らかにした。
状況は変わりました。両テクノロジー企業はすでに新しいチャットボットを公開しているが、当時の懸念のいくつかは解決されていない。情報ソースの信頼性を測定および評価するプラットフォームである Newsguard は、ChatGPT、GPT-4、および Bard が、よく知られた陰謀論を支持するために虚偽のコンテンツを容易に作成する方法について 1 月以来警告してきました。ガーディアン紙は今週、OpenAI モデルがどのように研究全体を創作し、それを真実であるかのように提示するかについても発表した。
参考資料一覧
- https://www.wsj.com/articles/google-ai-chatbot-bard-chatgpt-rival-bing-a4c2d2ad
- https://www.nytimes.com/2023/04/07/technology/ai-chatbots-google-microsoft.html
