今年、Google は AI の面で後れを取ることを望んでいません。その証拠は、Gemini のようなモデルや、従業員の生産性を向上させるために社内で使用されている人工知能のようなモデルを絶えず発表していることです。同社は現在、開発者と研究者を対象としたオープン AI モデルの「ファミリー」であるGemma を導入しました。
ジェマはジェミニに似たAIです。 Googleが述べているように、新しいモデルは商用AIの作成に使用されたのと同じテクノロジーで構築されており、Googleの人工知能部門であるGoogle DeepMindの下で開発されました。違いは、Gemma はより基本的なタスク向けに設計されているため、Gemini よりも若干軽いことです。
また、オープン ソース モデルでもあるため、誰でもコードにアクセスしてレビューし、任意のプラットフォームに実装できます。 Gemma は、AI でサービスを強化したいと考えている開発者や専門家向けに設計されていると繰り返します。実際、このモデルに関する Google の規約では、「規模に関係なく、責任を持って商業利用し、すべての組織に配布する」ことが認められています。
Gemma は、AI のイノベーションを推進する開発者と研究者のオープン コミュニティ向けに設計されています。
ジェマはラマ-2よりも強力です
Google は、新しいモデルの 2 つのバージョン、Gemma 2B と Gemma 7B を発表しました。これらはサイズが異なり、さまざまなタイプのタスクに合わせて調整およびトレーニングされています。 Googleは、Gemmaは数学的演算やPythonによるコード生成など、事実上あらゆる側面において、 MetaのオープンソースAIであるLlama-2よりも強力なモデルであると主張している。
Gemma は、ラップトップ、ワークステーション、またはGoogle Cloudで使用できます。 Google は Nvidia とも提携しており、Nvidia はすべての AI プラットフォームを Gemma 向けに最適化することに取り組んでいます。 「開発者は、H100 Tensor コア GPU をベースにした Google Cloud A3 インスタンスや、141 GB の HBM3e メモリ (毎秒 4、8 テラバイト) を搭載した NVIDIA H200 Tensor コア GPU など、クラウド内の NVIDIA GPU 上で Gemma を実行することもできます。 Googleは今年実装する予定だ」と同社は述べた。
一方、Google は、開発者が責任を持って自社の製品にこれらのモデルを実装できるように、豊富なツールを作成しました。
参考資料一覧
- https://blogs.nvidia.com/blog/google-gemma-llm-rtx-ai-pc/
- https://blog.google/technology/developers/gemma-open-models/
