Meta は本日、画像内の個々の要素を選択できる人工知能 (AI) モデルを発表しました。彼らはそれを SAM (Segment Anything Model)と呼びました。その開発者は、このシステムによって人工視覚の重要な側面を民主化するつもりだと説明した。
この新しい AI は、 「セグメンテーション」として知られる機能を実現します。これは、画像内のどのピクセルが特定のオブジェクトに属しているかを識別する機能です。 SAM は非常に簡単に動作します。選択したい要素をクリックするか、その名前を書き込むだけです。デモでは、「猫」という単語をポイントすると、ツールが写真に写っている数匹の猫の周りにボックスを描画しました。
SAM の立ち上げには、これまでで最大のセグメンテーション データ セットであるSA-1B (Segment Anything 1-Billio) の発表が伴ったと Meta 氏は声明で述べています。この AI は、物体が何であるかについての「一般的な概念」を持つように訓練されており、あらゆる画像やビデオの中からあらゆる種類のものを見つけることができます。
実際の用途は何でしょうか?最もわかりやすい用途は写真編集です。しかしメタ氏は、将来的には、拡張現実のレンズを通して日用品を識別するために SAM が使用される可能性があると説明しています。このようにして、ユーザーはリマインダーや指示を受け取ることができます。同社はまた、科学画像分析における応用の可能性も強調した。
Meta の新しい AI である SAM はどのように機能しますか?
新しい AI モデルは、10 億を超える「セグメンテーション マスク」のデータ セットでトレーニングされています。これは、境界セクションによってオブジェクトを特定できるマシン ビジョン システムです。これにより、トレーニング中に観察したものを超えて、新しいタイプの要素を一般化できるようになります。 Meta は、SAM を使用すると、新しいスキンを 14 秒以内にインタラクティブに収集できることも強調しています。
Facebook と Instagran の親会社である Meta は、画像の分類、不適切なコンテンツのフィルタリング、ソーシャル ネットワークのユーザーへの投稿の提案などの社内タスクにすでに同様のテクノロジーを使用しています。 SAM モデルとデータセットは、非営利目的でダウンロードできます。独自の画像を使用してプロトタイプをテストしたいユーザーは、それが研究目的のみであることにも同意する必要があります。
CEOのマーク・ザッカーバーグ氏が説明したように、SAMの開発に加えて、Metaは、生成AIのより多くの「創造的なツール」をアプリケーションに統合することを今年の重要な目標に設定している。
同社は昨年2月、独自の言語モデルであるLLaMAの立ち上げを発表した。 ChatGPT (OpenAI 製) や Bard (Google 作成) とは異なり、Meta はその提案を「より小型で高性能な」ツールとして提示しました。これは、非営利ライセンスの下でも特定の研究グループに利用可能でした。
参考資料一覧
- https://segment-anything.com/demo
- https://ai.facebook.com/blog/large- language-model-llama-meta-ai/
- https://ai.facebook.com/blog/segment-anything-foundation-model-image-segmentation/
- https://セグメント何でも.com/
