メタは、人工知能の次期バージョンの発売を準備していることを認めた。テクノロジー大手は、次世代の大規模言語モデル (LLM) である Llama 3 が来月発表されることを明らかにしました。同社は具体的な日付については明らかにしなかったが、モデルに関するいくつかの重要な詳細と期待できる内容を明らかにした。
ロンドンで開催されたイベントで、メタ氏はラマ 3 が 2024 年 5 月に正式に発表されることを確認しました。 「来月以内に、できれば非常に短期間で、新しい次世代ベースモデルであるラマ 3 の展開を開始する予定です」とメタのグローバル担当プレジデントであるニック・クレッグ氏は述べています。マネージャーは、今年中に容量の異なるいくつかのモデルが登場し、間もなく発売されることを確認しました。
Meta は、パラメーターの数や GPT-4 や他の言語モデルとどのように競合するかなど、技術的な詳細については掘り下げませんでした。同社人工知能研究担当副社長のジョエル・ピノー氏は、LlamaのおかげでメタAIが世界で最も有用なスマートアシスタントになることが長期的な目標だと語った。
このテクノロジー企業は、Llama 3 がオープンソースになるかどうかも明らかにしませんでした。これは、前任者と異なる特徴です。しかし、 The Vergeとのインタビューで、マーク・ザッカーバーグ氏は、オープンソースライセンスへの取り組みと、それが人工知能の民主化において果たす役割を繰り返し述べました。
「ここでの最大の課題の 1 つは、本当に価値のあるものを構築すると、最終的には非常に集中したものになるということだと思いがちです」と Meta の共同創設者は語った。 「一方、それをよりオープンにすることで、機会と価値への不平等なアクセスから生じる可能性のあるあらゆる種類の問題に対処できます。」
ラマ 3 はメタにとって人工知能競争での地位を確立するための鍵となる
マーク・ザッカーバーグは数か月前にラマ 3 を発表したとき、メタの長期的な目標は汎用人工知能を構築することであると述べました。新しい言語モデルはその戦略のもう一歩であり、それを達成するために NVIDIA チップに数百万ドルを投資しました。ザッカーバーグ氏は、 2024 年末までに 340,000 個の H100 GPU を購入すると発表しました。これにより、総コンピューティング リソースは 600,000 個の H100 に相当します。
「私たちは、望む製品を構築するには、汎用人工知能向けに構築する必要があるという結論に達しました。優秀な研究者の多くは、より野心的な問題に取り組みたいと考えているため、それを伝えることが重要だと思います。」
メタ社CEOのマーク・ザッカーバーグ氏。
現在、同社は開発者が利用できる複数のオープンソース モデルを用意しています。その 1 つが Code Llama 70B です。これはプログラミングに焦点を当てた LLM で、70,000 万個のパラメータで構成されています。 HumanEval テストによると、 Llama 70B は GPT-4 をわずかに上回っています。
開発と研究の進歩により、Llama 3 はOpenAI や Google モデルの真の代替としての地位を確立するでしょう。ザッカーバーグ氏は「Llama 3では、最先端のものを構築し、最終的には業界をリードするモデルを構築することがわれわれの目標だ」と述べた。残る唯一の問題は、同社がテキスト、画像、音声、ビデオを処理できるマルチモーダル モデルを選択するかどうかです。
ロンドンのイベント中、メタ氏は画像生成の障害について警告した。 「レイテンシは、セキュリティや使いやすさとともに非常に重要です。創造的なコンテキストが何であれ、誇りを持って表現できる画像を生成するためです」と Meta のプロダクト ディレクター、Chris Cox 氏は述べています。
参考資料一覧
- https://www.theverge.com/2024/1/18/24042354/mark-zuckerberg-meta-agi-reorg-interview
