概要
データの普及と、それによって推進されるアプリケーションは、大きな変化を生み出しています。これらの変化には、AIワークロードと効率的かつオンデマンドで対話できるシステムを構築するための専門性が必要です。
システム設計者にとって、これは従来の性能加速戦略がもはや通用しない可能性を意味します。CPU/GPUベースの設計はムーアの法則の減速を管理するのに役立ってきましたが、これらのプロセッサアーキテクチャは、自動化および推論アプリケーションに固有のリアルタイムデータ要件に追いつくのが難しくなっています。これは、より厳格な非データセンターシナリオで特に顕著です。価格性能電力要件を満たすという増大する課題と相まって、性能加速がコンピューティング、ストレージ、および接続性を考慮することがこれまで以上に重要になっています。これらのすべての要素は、システム性能に有害な環境的課題がある堅牢な設定であっても、データ生成ポイントの近くでワークロードを効果的に統合するために必要です。
ここで、データ集約型アプリケーションの性能障壁を排除するためにM.2フォームファクタアクセラレータが活躍します。強力な設計オプションであるM.2アクセラレータは、AIワークロードの正確な要件に合致するドメイン固有の価値をシステムアーキテクトに提供します。CPU/GPU技術を使用する同等のシステムと比較して、M.2ベースのシステムは推論モデルを大幅に高速かつはるかに効率的に管理できます。これらの向上は、より多くのシステムが困難な非伝統的なシナリオに導入され、目的別に構築されたシステムが計り知れない機会を提供する堅牢なエッジに最適な革新的なシステム設計を推進しています。ここには、汎用組み込みコンピュータと、M.2アクセラレーションモジュールのようなより現代的なアクセラレーションオプションを利用して推論アルゴリズムを処理するように設計されたコンピュータとの明確な差別化があります。
M.2とドメイン固有アーキテクチャを深掘り
アクセラレータは、長年にわたりエレクトロニクス業界を牽引してきたムーアの法則の減速によって生じたギャップを埋め、必要な膨大なデータ処理を実現します。この長年にわたる原則は、チップ上のトランジスタ数が18〜24か月ごとに倍増すると主張しています。しかし、AIに関して言えば、業界の専門家はムーアの法則の衰えの兆候をすぐに指摘します。シリコンの進化だけでは、AIアルゴリズムとそれらが要求する処理性能をサポートすることはできません。性能、コスト、およびエネルギー要件のバランスを取るには、はるかに専門化されたドメイン固有アーキテクチャ(DSA)を特徴とする新しいアプローチが必要です。
綿密に定義されたワークロードを実行するようにカスタマイズされたDSAは、ディープラーニングのトレーニングとディープラーニングの推論を促進する性能を確保するための基本的な原則を提供します。M.2アクセラレータを例にとると、DSAはCPU/GPU技術に依存するネットワークよりも15〜30倍高速(30〜80倍優れたエネルギー効率)で推論モデルを駆動します。汎用GPUは高度なAIアルゴリズムに必要な膨大な処理能力を提供できますが、エッジ展開、特に遠隔地や不安定な環境には適していません。GPU自体の初期費用に加えて、消費電力、サイズ、および熱管理の欠点は、さらに大きな運用コストにつながります。M.2アクセラレーションモジュールと特殊なアクセラレータ(例えばGoogleのTPU)は、電力効率が高く、コンパクトで、より小さなフォームファクタとより少ない電力予算でエッジで驚異的な性能で機械学習アルゴリズムを実行するために専用に構築されています。

M.2 を選ぶ理由
次世代フォームファクターインターフェースとしても知られるM.2は、柔軟性と堅牢な性能を提供するためにIntelによって開発されました。M.2は、Serial ATA(SATA 3.0)、PCI Express(PCIe 3.0および4.0)、USB 3.0など、いくつかの信号インターフェースをサポートしています。さまざまなバスインターフェースを備えたM.2拡張スロットは、異なる性能アクセラレータ、ストレージプロトコル、I/O拡張モジュール、およびワイヤレス接続に高度に適応できます。
M.2は、SATAおよびNVMe (Non-Volatile Memory Express)ストレージプロトコルをサポートすることで、レガシーと現代の両方の互換性も提供します。レガシー標準SATAにはAHCI(Advanced Host Controller Interface)が含まれ、IntelによってHDD(ハードディスクドライブ)ストレージの回転する金属ディスクを介したデータ操作を最適化するストレージプロトコルとして定義されています。NVMeは、NANDチップ(フラッシュ)ストレージとPCI Express Laneを最大限に活用して、非常に高速なSSD(ソリッドステートドライブ)ストレージを実現するために設計された代替手段を提供します。
性能アクセラレータもM.2フォームファクタを採用し、その強力でコンパクトなインターフェースの恩恵を受けています。これには、AIアクセラレータ、メモリアクセラレータ、ディープラーニングアクセラレータ、推論アクセラレータなどが含まれます。このような特殊なプロセッサはAIワークロード専用であり、電力対性能比が向上しています。
より多くの環境でリアルタイムデータ性能によるAIのロック解除
データは今日のビジネス革新、そしてより重要なことに、認知機械知能を提供する能力の鍵です。高度なテレマティクスやスマートキオスク、工場の現場、あるいは駅や空港などのインフラ施設での乗客および監視サービスを強化するなど、データは私たちの周りにあふれており、リアルタイムで発見、取得、評価、使用できるときに最も価値があります。
数多くの業界が、新しいサービスを創造し、ビジネス上の意思決定を強化するためにデータを最大限に活用しようと躍起になっていますが、多くの厳密な産業環境では、データセンターレベルでの小さな自動化タスクやAIタスクの処理は、真の価値を提供するには非効率すぎます。この従来の集中型コンピューティング構造では、過剰ではあるものの必要なコンピューティング、帯域幅、ストレージリソースの使用により、消費電力とコストが高すぎます。さらに、高遅延はパフォーマンスに悪影響を与え、不十分なデータプライバシーは別の頭痛の種となります。
データの増加とエッジコンピューティング環境の複雑さが相まって、AIコンピューティングフレームワークは汎用CPU/GPUオプションから、M.2標準を使用するドメイン固有アーキテクチャに基づいた特殊なアクセラレータへと移行しています。これらは、より小型で電力効率の高いオプションです。これは、複雑で現実的であり、なくならないデータ課題に対処するための戦略です。IoT(モノのインターネット)およびIIoT(産業用IoT)デバイスの数が増加するにつれて、それらが生成するデータの量と速度も増加します。アプリケーションの設計者と開発者は、データソースにより近く、目の前のタスクのために特別に構築されたパフォーマンスアクセラレーションに対する緊急の必要性を認識する必要があります。これは特に、エッジコンピューティングハードウェアがデータ処理に対処し、データセンターやクラウドにおける関連負担を軽減するために展開されているためです。
このブログ記事はもともとEdgeIRによって公開されました。こちらをクリックして公開されたゲスト投稿をご覧ください。
