インテルは、人工知能(AI) 向けに特別に設計された新しいチップファミリを導入しました。これらは、機械学習のニーズに応えて誕生した Intel Nervana Neural Network Processor (NNP) プロセッサです。

Intel CEOのブライアン・クルザニッチ氏は年次WSJDLiveカンファレンスの開会時に、「 Facebookが私たちと緊密に提携して、この次世代AIハードウェアを市場に投入する際に技術的専門知識を共有できることをうれしく思う」と語った。

同社のコンピュータ プロセッサとは異なり、新しいIntel Nervana NNP チップには、深層学習アルゴリズムのトレーニングと実行のために特別に設計された特定用途向け集積回路 (ASIC)が搭載されています。 Intel の人工知能担当副社長である Naveen Rao 氏は、「ディープラーニングの速度と計算効率は、このワークロード向けにカスタマイズされた ASIC によって大幅に向上します。」と説明しました。

最大のニュースの 1 つは、Intel が CPU に通常見られる標準キャッシュを削除し、特定のアルゴリズムでプロセッサのメモリを管理する特別なソフトウェアに置き換えられたことです。 「これにより、チップはディープラーニングの計算密度とパフォーマンスを新たなレベルに到達できるようになります」とラオ氏は述べた。

また、プロセッサの内部と外部の両方で高速相互接続ができるように設計されており、大規模な双方向データ転送を実行できます。つまり、これらのチップを多数組み合わせると、1 つの大きな仮想チップとして機能し、ますます大規模な深層学習モデルが可能になります。

ただし、Intel はFlexpoint と呼ばれる、より精度の低い形式の整数演算を使用していました。 「ニューラルネットワークはデータの『ノイズ』に対して非常に耐性があり、このノイズは解への収束に役立つこともあります」とラオ氏は付け加えた。同時に、より低い精度の数値を使用することで、設計者は並列性を高め、待ち時間を短縮し、帯域幅を増やすことができました

同社によれば、この新しいアーキテクチャの目標は、ハードウェア コンポーネントのプラントを可能な限り効率化することで、ディープ ラーニングのワークロードに対処できる十分な柔軟性と、高強度のコンピューティング要件に対処できる十分な拡張性を備えたプロセッサを開発することです。

昨年 8 月、 Intel は深層学習ハードウェアの新興企業である Nervana Systems を 3 億 5,000 万ドルで買収しました。その技術はこれらの新しいプロセッサと強く結びついています。 Intel Nervana NNP チップは今年後半に発売される予定で、同社はこれらの新しいプロセッサを中心とした製品ライン全体を発売する予定のようです。

NASA、宇宙探査にインテル人工知能を使用

参考資料一覧

  1. https://www.wsj.com/livecoverage/wsjdlive-conference-2017

インテル、人工知能向けに設計された新しいチップ ファミリを発表・関連動画