サム・アルタム氏がOpenAIから解雇される数日前、同社の研究者は取締役会に書簡を送り、今後のAIの危険性について懸念を表明した。その中には「人類を脅かす可能性がある」ものも含まれているとロイター通信が明らかにした。

この件に詳しい2人の情報源から情報を裏付けた前述のメディアによると、研究者らは、一連の苦情の中でも特に、アルトマン氏が結果を最初に評価することなく非常に強力なAI製品を市場に投入したいと考えていると警告した。このため、取締役会は同氏を解雇する決定を下す可能性がありましたが、最終的には同氏は役職に戻りました。実際、取締役会はサム・アルトマン氏に対する信頼を失ったと主張し、11月17日に解任を認めた。

Altman の下で OpenAI が人類にとってどれほど有害であるかを考慮せずにリリースしようとした製品の 1 つは、汎用人工知能 (AGI) であるようです。同社は、Q* (Q-Star と発音) と呼ばれる社内プロジェクトを通じてこれを開発してきました。

特にこの AI は、さまざまな分野で人間に代わるのに十分な高度な自律タスクを実行できるようになります。

 OpenAIは人間と同等の知能レベルに達するAIを搭載

OpenAIは人間と同等の知能レベルに達するAIを搭載

ChatGPT の隣にある OpenAI ロゴ。
ChatGPT エラーはよくあります。

Q*プロジェクトを通じて開発されたAIは、数学的な問題を解決できるという点で際立っています。とりあえず、小学生レベルです。しかし、人工知能モデルはこの種の操作はあまり得意ではなく、むしろ執筆、コンテンツ生成、翻訳の能力において際立っていることを考えると、これはかなりの進歩である。

したがって、AI が正解が 1 つしかない数学の問題を理解して解決する方法を知っていれば、実質的に人間と同じレベルの知能を持つことになります。これは OpenAI 研究者を心配させていることです。実際、取締役会に送られた書簡の中で、取締役会はこのようなインテリジェントな AI の危険性について長い間議論されてきたと警告しています。また、とりわけ、これらのモデルが人類の破滅が彼らの最大の利益であると判断できるかどうかも疑問です。

ロイター通信によると、人工知能モデルの開発に焦点を当てたいくつかのチームは、より適切に推論し、科学的作業を実行できるように、現在のモデルの機能を改善することにも取り組んでいたという。

Sam Altman は4 日間 OpenAI を離れていました。現在、同社は従業員、投資家、経営陣からの圧力により彼を再び雇用した。彼らは、このスタートアップは彼なしでは何も進まないだろうと警告した。アルトマン氏が最高経営責任者(CEO)の地位に戻らない場合、何人かの経営者はマイクロソフトに退職すると脅したこともあった。

参考資料一覧

  1. https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/

Q-Star: 人類を脅かし、サム・アルトマンの解任を引き起こした可能性があるOpenAIの新しいAI・関連動画