USA Spain Brazil Russia France Germany China Korea

Artificial Intelligence driven Marketing Communications

 
May 23, 2020 4:04 AM ET

2020年のAIチップ:エヌビディアと挑戦者


iCrowd Newswire - May 23, 2020

Nvidiaの新しいアンペアAIチップの発表によるほこりが落ち着いたので、舞台裏でスポットライトから離れてAIチップ市場を見てみましょう

Nvidiaの競合他社を含む少数の人々は、Nvidiaが今日のAIチップゲームでショットを呼び出しているという事実に異議を唱えるでしょう。NvidiaのメインイベントGTCで新しいアンペアAIチップの発表は、先週スポットライトを浴びた。

ZDNetを含め、十分なカバレッジがありました。ティエナンレイは、チップアーキテクチャ自体に関して、新しい、注目に値する詳細な分析を提供しました。Andrew Brustは、データエンジニアリング、分析、機械学習のための最も成功したオープンソースフレームワークの1つであるApache Sparkに対するNvidiaのサポートを拡大し、物事のソフトウェア側に焦点を当てました

パフォーマンス、経済性、ソフトウェアの観点から競争を比較することで、新しいアーキテクチャを視野に入れて、彼らが中断した場所から取り上げましょう。

NVIDIAのダブルボトムライン

レイの分析の要点は、新世代のチップでNvidiaの意図を捉えることを目的としています:ニューラルネットワークの操作が最初に一連の例で開発されるニューラルネットワークの「トレーニング」と、新しい着信データに基づいて予測が行われる段階の両方に役立つ1つのチップファミリーを提供することです。

レイは、これは、トレーニングや推論のために異なるNvidiaチップが異なるコンピュータシステムに現れる今日の状況からの逸脱であると指摘しています。彼は、Nvidiaが両方のタスクを行うことができるNvidiaベースのシステムを購入するのが最善であることをAIショップに経済的な議論をしたいと付け加えています。

「56台のサーバーの追加メモリ、CPU、および電源のオーバーヘッドをすべて得ることができます.「1つに崩壊した」とNvidia CEOのジェンセン・ホアンは述べた。「経済的価値の提案は本当にチャートから外れています、そしてそれは本当にエキサイティングなことです。

NvidiaのGPUエンジニアリング担当シニアVPであるジョナ・アルベンはアナリストに対し、NvidiaはすでにNvidiaの前世代チップであるVoltaを、火災を起こす可能性なく押し上げていたと語った。540億のトランジスタを搭載し、5ペタフロップスのパフォーマンス、またはVoltaの約20倍以上のパフォーマンスを実行できるアンペーレとさらに進みました。

2555435ebb25b4781b28-39429237-first-Nvidia-dgx-a100-at-argonne-national-laboratory-image-courtesy-argonne-national-laboratory.jpg

Nvidiaは二重のボトムラインの後です:より良いパフォーマンスとより良い経済学

だから、Nvidiaは二重のボトムラインの後です:より良いパフォーマンスとより良い経済学。最近の Nvidia は、Arm CPU のサポートも追加したことを思い出しましょう 。Armプロセッサのパフォーマンスは現時点ではインテルと同等ではないかもしれませんが、その質素なパワーニーズはデータセンターにとっても魅力的なオプションです。

ソフトウェア面では、Apache Sparkのサポートに加えて、Nvidiaは会話型AIサービスを構築するための新しいアプリケーションフレームワークであるJarvisを発表しました。インタラクティブでパーソナライズされたエクスペリエンスを提供するには、企業は自社製品や顧客の要件に固有のデータに基づいて言語ベースのアプリケーションをトレーニングする必要があります。

ただし、サービスをゼロから構築するには、AI の専門知識、大量のデータ、およびモデルをトレーニングするためのコンピューティング リソース、および新しいデータでモデルを定期的に更新するソフトウェアが必要です。Jarvisは、会話型AIのエンドツーエンドのディープラーニングパイプラインを提供することで、これらの課題に取り組むことを目指しています。

Jarvisには最先端のディープラーニングモデルが含まれており、これは、TensorRTを使用して推論のために最適化されたNvidia NeMoを使用してさらに微調整することができ、NVIdiaのGPU最適化ソフトウェアのカタログであるNGCで入手可能なヘルムチャートを使用してクラウドとエッジに展開されます。

インテルとグラフコア:知名度の高い挑戦者

逆に働いて、これは私たちがNvidiaのために何度も何度も指摘してきたものです:そのリードはハードウェアに横たわるだけではありません。実際、Nvidiaのソフトウェアとパートナーエコシステムは、競争が一致するのが最も難しい部分かもしれません。しかし、競争も動いています。一部の競合他社は、経済にNvidiaに挑戦するかもしれないし、他の人はパフォーマンスに挑戦するかもしれません。挑戦者が何をしているのか見てみましょう。

インテルはしばらくの間、ネルバナ技術に取り組んできました。2019年末、インテルはスタートアップのハバナラボを20億ドルで買収した際に波紋を呼んだ。アナリストのカール・フロイント氏は、買収後インテルはAIアクセラレーションをネルバナ技術からハバナ研究所に切り替えることに取り組んできました。

また、フロイントはソフトウェアスタックの重要性を強調しています。彼は、インテルのAIソフトウェアスタックはNvidiaに次ぐものであり、Xeon、Nervana、Movidius、さらにはNvidia GPUを含む多種多様なチップのサポート(抽象化を通じて)を提供するために階層化されていると指摘しています。ハバナラボは、トレーニング用のガウディと推論のためのゴヤの2つの別々のAIチップを備えています。

インテルは、ガウディとゴヤがNvidiaのチップと一致することを賭けています。昨年発表されたMLPerf推論ベンチマークの結果は、ゴヤにとって肯定的でした。しかし、NvidiaのアンペアとNvidiaの進化し続けるソフトウェアスタックに対してどのように運賃を引き受けるかを待つ必要があります。

graphcore-popvision.png</img class=”” src=”https://zdnet4.cbsistatic.com/hub/i/r/2020/05/21/647b1229-fb77-490f-aa1f-fa828620f86b/resize/1200xauto/ddab85c3d435416684dcef171b4bc5ca/graphcore-popvision.png” alt=”graphcore-popvision.png” width=”727″ >

高さ=”273″ データ元=”https://zdnet4.cbsistatic.com/hub/i/r/2020/05/21/647b1229-fb77-490f-aa 1f-fa828620f86b/サイズ変更/1200xauto/ddab85c3d435416684dcef171b4bc5ca/グラフコアポップビジョン.png”/>

AIチップチャレンジャーグラフコアは、ポプラ、そのソフトウェアスタックを強化しています

もう一人の有名な挑戦者はグラフコアです。英国に拠点を置くAIチップメーカーは、高性能とユニコーンのステータスのために、一から設計されたアーキテクチャを持っています。GraphCoreも忙しく、市場のフットプリントを拡大し、ソフトウェアに取り組んでいます。

デルのサーバーからマイクロソフトの Azure のクラウドやバイドゥの PaddlePaddle ハードウェア エコシステムまで、GraphCore には多くの重要な取引があります。GraphCoreはまた、独自のソフトウェアスタック、ポプラに取り組んでいます。先月、ポプラは新しいバージョンと新しい分析ツールを見ました.

インテルが追いつくために多くを持っている場合、それは確かにGraphCoreにも当てはまります。しかし、両方のベンダーも同様の軌道に乗っているようです。ハードウェアレベルでの革新を目指し、AIワークロード用にカスタム構築された新しい根本的に異なるアプローチでNvidiaに挑戦できることを願っています。同時に、ソフトウェアスタックに取り組み、市場でのプレゼンスを構築します。

ソフトウェア ソリューションを使用した AI ハードウェアの小数化を実行します: AI

最後に、知名度が低く、異なるアプローチを持つ挑戦者が数人います。スタートアップRun:AIは最近ステルスモードを終了し、非正統的なソリューションのように聞こえるものに対して1,300万ドルの資金が発表されました:Run:AIは別のAIチップを提供するのではなく、機械学習ワークロードの実行をスピードアップするためのソフトウェア層を提供しています。

同社はAWSと密接に協力しており、VMwareテクノロジーパートナーです。そのコアバリュー・プロポジションは、異なるAIワークロードとさまざまなハードウェア・チップの間のギャップを埋め、本当に効率的で高速なAIコンピューティング・プラットフォームを実行するための管理プラットフォームとして機能することです。

Run:AIは最近、Kubernetesディープラーニングワークロードのためのその分数GPU共有を発表しました。推論などのスケールでの軽量 AI タスクを目的とした、分数 GPU システムにより、データ サイエンスと AI エンジニアリング チームは、複数のワークロードを 1 つの GPU で同時に実行できるため、コストが削減されます。

abstraction-layer-runai.png

Run:AIはAIワークロードを実行しているハードウェアの上に抽象化層として機能します

Omri Geller、Run:AI共同創業者兼CEOはZDNetに、NvidiaがGPUを「分数化」するか、単一のGPU内で別々のジョブを実行するという発表は、GPUハードウェアにとって革命的であると語った。Geller氏は、特に推論ワークロードに対して、このニーズを持つ多くの顧客を見てきたと述べています: GPUの完全なコンピューティングとメモリを必要としないジョブにフルGPUを利用するのはなぜですか?

ゲラー 彼女は言いました:

「しかし、ハードウェアレベルよりもソフトウェアスタックで管理が容易であると考えており、その理由は柔軟性です。ハードウェアスライスは、静的な量のメモリとコンピューティングコアを持つ「小さなGPU」を作成しますが、ソフトウェアソリューションは、GPUを任意の数の小さなGPUに分割し、それぞれが選択されたメモリフットプリントとコンピューティングパワーを備えています。

さらに、ソフトウェアソリューションによるフラクタイジングは、アンペレサーバーだけでなく、GPUやAIアクセラレータで可能であり、最新のものだけでなく、企業のすべてのコンピューティングリソースのTCOを改善します。これは、実際には、Run:AIの分数GPU機能が可能にするものです。

インアッセルを使用した FPGAS のアクセシビリティレイヤー

InAccelはギリシャ語のスタートアップであり、単純なプログラミングモデルを使用してFPGAリソースのクラスタ間で大きなデータセットを分散高速化できるFPGAマネージャを提供するという前提を中心に構築されています。創業者兼CEOのクリス・カクリスはZDNetに、特にAIワークロードに関して、FPGA対GPUの利点に関するいくつかの議論があると語った

Kachris 氏は、FPGA は、場合によっては、より優れたエネルギー効率 (パフォーマンス/ワット) を提供でき、ディープ ニューラル ネットワーク (NN) の GPU と比較して、より低い待ち時間を実現できると指摘しました。NDN の場合、Kachris は追加し続け、FPGA は低いバッチ サイズを使用して高いスループットを実現でき、その結果、レイテンシが大幅に低下します。遅延とエネルギー効率が重要なアプリケーションでは、FPGAが優先される可能性があります。

しかし、FPGAクラスタのスケーラブルな展開は依然として困難であり、これはInAccelが解決しようとしている問題です。同社のソリューションは、FPGAクラスタのスケーラブルな展開を提供することを目指しており、FPGAの世界に対するOSのような層である抽象化が欠落していることを証明しています。InAccelのオーケストレーターは、FPGAクラスタの導入、瞬時のスケーリング、自動化されたリソース管理を容易に行うことができます。

fpga-manager-small-1-768x887.png

FPGA は、バッチ サイズが低い場合に高いスループットを実現できるため、遅延が少なくなっています。彼らの展開は依然として複雑であり、InAccelはそこで支援することを目指しています。

カクリスはInAccelをVMware / Kubernetes、またはFPGAの世界のためにRun.ai/ビットフュージョンになぞらえました。彼はまた、InAccelがソフトウェア開発者にとってFPGAを容易にする、と主張した。また、IntelやXilinxのようなFPGAベンダーは、強固なエコシステムの重要性を認識し、エコシステムの拡大に役立つ強力なアライアンスを形成していると指摘しました。

「クラウド ベンダーは、異なるプラットフォームに長所と短所を持つため、多様で異種のインフラストラクチャを提供する必要があるようです。これらのベンダーのほとんどは、完全に異種のリソース (CPUS、GPUS、FPGA、専用アクセラレータ) を提供し、ユーザーが最適なリソースを選択できるようにします。

AWS や Alibaba などのいくつかのクラウドベンダーは、潜在的な利点を見ているため、FPGA の導入を開始しました。しかし、FPGAの導入は、ユーザーがFPGAツールのフローに精通している必要があるため、依然として困難です。ソフトウェア開発者は、使い慣れたPaaSとSaaSモデルと高レベルのフレームワーク(Spark、Skcikit-learn、Keras)を使用してFPGAのすべての利点を得ることができ、FPGAのクラウドへの展開をはるかに簡単にします。

ベットをヘッジする

この分野のリーダーになるには、高速チップ以上の時間がかかります。経済学は、潜在的なユーザーが考慮する必要がある側面の1つであり、エコシステムとソフトウェアは別のものです。すべてを考慮に入れて、Nvidiaはまだああのように思えます

競争のエアド。

しかし、これは単一文化のように見え始めていることにも注目してください。イノベーションは、さまざまな場所から、さまざまな形や形で来ています。これはエヌビディアのアルベンも認めたものです。クラウド ベンダー、サーバー ベンダー、アプリケーション ビルダーが注目しているように思えるのは確かです。

AIチップ市場で賭けをヘッジすることは賢明なことかもしれません。

Contact Information:

George Anadiotis



Tags:    Japanese, United States, Wire