
コンピュータは、今日の機械になるまでに長い歴史をたどってきましたが、今日見られるコンピュータの多くは、CPU、GPU、メモリ、ストレージといった最小限の類似した設計構造に従っています。今日に至るまで、コンピュータの設計について私たちが知っていることの多くは、コンピュータが機能するために不可欠なこれらのコンポーネントに基づいています。各コンポーネントは独自の役割と機能をもたらし、コンピュータが一定のパフォーマンスを発揮できるようにしています。GPUの場合、この特定のコンポーネントは、非常に特殊でユニークなパズルのピースへと進化してきました。
GPUは、グラフィックをレンダリングするという当初の目的を超え、特に今日のAIや機械学習アプリケーションにおいて、並列処理タスクに不可欠なツールとなって久しいです。これらのアプリケーションの急速な成長に伴い、GPUは、インダストリー4.0の自動化やロボット工学で現在見られる重いワークロードの要求に対応するための主要コンポーネントとして、急速に人気を集めています。コンピュータにGPUを搭載することで、これらのシステムは、従来のCPU単独で行える処理よりも強力な処理を可能にする、強化されたパフォーマンスをもたらします。GPUは、多数の計算を同時に実行することに優れており、ニューラルネットワークのトレーニングやエッジAI推論の基本となるタスクに最適です。
GPU技術は並列処理の基盤であるため、NVIDIAは今日に至るまで、強力なグラフィックカードの背後にある半導体技術の主要な設計者の1つです。同社はCUDAコア技術を設計し、世界中のユーザーが独自のグラフィック処理ユニットにアクセスして、ビデオゲームから重いワークロードのAIソフトウェアまで、あらゆるものを実行できるように提供してきました。インダストリー4.0は、特に今日台頭しているAI技術の大きなブームにより、GPUがもたらす強力な影響から恩恵を受けています。今日の市場でAIアプリケーションがますます多くを占めるようになり、より多くの組み込みアプリケーションが、GPUや同様のパフォーマンスアクセラレータのようなヘテロジニアス・ドメイン固有のコンピューティングアーキテクチャの新しい方法を利用しようとしています。
しかし、多くの産業用アプリケーションが常に直面する1つの厄介な問題は、特にGPUにおける放熱電力と熱に関する自然な物理学です。GPUは大きく、多くの熱を発生させ、多くの電力を消費します。今日の市場に出回っている多くのコンシューマ向けGPUは、産業用コンピュータには通常適さないほどの莫大な電力消費量を持ち、何らかの能動冷却方法に頼らざるを得ません。
Premioは35年にわたるハードウェアメーカーとして、堅牢な産業用コンピューティングにおける電力効率と性能のバランスというこの課題に取り組んできました。Jetson Orinは、今日の新しいエッジAIコンピューティングの波に対応する最先端のソリューションを、私たちのようなメーカーに提供するための道を開きます。Jetson Orinにより、Premioは堅牢なエッジにおけるリアルタイムAI処理と低遅延データテレメトリの課題に対応し、電力効率と性能の新たな基準を確立することができます。
Jetsonとは?
NVIDIAは、AIとエッジコンピューティングの実装において、特にGPUが関わる場合に多くの産業現場が直面している課題を認識しました。AIアプリケーションが従来のデータセンターやクラウド環境を超えて拡大する中で、デメリットなしにAIをエッジデバイスにシームレスに統合できる専用プラットフォームへのニーズが高まっていました。NVIDIAはAIを民主化し、多くの産業用アプリケーションにとってよりアクセスしやすいソリューションを創出しようとしました。その動機は、開発者、研究者、あらゆる規模の企業が、大規模なコンピューティングインフラストクチャに通常伴う複雑さなしに、AIの力を活用できるようにすることでした。
その結果生まれたのが、NVIDIAのJetsonプラットフォームです。これは、ディープラーニングとコンピュータビジョンの変革的な機能をエッジデバイスや、より不安定で遠隔の環境にもたらすように設計された組み込みAIコンピューティングデバイスのファミリーです。その核となるJetsonシリーズは、高性能GPU、専用AIハードウェア、包括的なソフトウェアスタックを独自に組み合わせることで、実際のシナリオでインテリジェントなアプリケーションを展開できるようにします。従来のx86システムが抱える課題が、NVIDIAが世界中の多くの人が現在直面している一般的な課題を軽減するシステムを開発する努力を推進する道を開きました。
Jetsonモジュールの理解
主要な設計の独自性:
NVIDIA Jetsonの各製品は、GPU、CPU、メモリ、電源管理、高速インターフェースなどを含む完全なSystem on Module (SoM)です。 これらのコンポーネントは、電力効率を維持しながら高性能なAI推論を提供するために最適化されており、エッジデバイスが複雑なAIアルゴリズムを効率的に実行できるようにします。すべての重要な部品を1つのモジュールに統合することで、NVIDIA Jetsonは、多くのエッジデバイスに求められるパフォーマンスや電力効率を犠牲にすることなく、より小型でスペースに制約のあるソリューションに統合できます。
Jetsonプラットフォームをさらに際立たせているのは、NVIDIA独自の設計思想でもあります。NVIDIAは、Jetsonを特殊なハードウェアの単なる一部としてではなく、JetsonデバイスでのAI開発に特化したツールのエコシステムも構築しています。これには、TensorFlowやNVIDIA独自のTensorRTなどの人気のあるAIフレームワークのサポート、コンピュータビジョンやディープラーニング用のライブラリやAPIが含まれます。 さらに、NVIDIAのオープンソースソフトウェアと包括的なドキュメントへの取り組みは、コミュニティがプラットフォームの継続的な改善に貢献し、その恩恵を受けることができる協調的なエコシステムを育んでいます。 NVIDIAのJetpack SDKは、Jetson製品にとって最も包括的なライブラリであり、エンドツーエンドのAIソリューション構築のための完全なソリューションを顧客に提供します。
Jetsonのユニークな設計
Jetsonプラットフォームを際立たせているのは、その生身の計算能力だけでなく、独自の設計哲学でもあります。NVIDIAは、ハードウェアとソフトウェアの両面を考慮し、シームレスな開発体験を創出するために、全体的なアプローチでJetsonデバイスを設計しました。
Jetson Orinモジュールラインアップ
NVIDIA Jetsonデバイスの最新製品は、Jetson Orinラインアップ(2023年3月発売)で、リアルタイム処理、データテレメトリ、豊富なI/O柔軟性を必要とするさまざまなエッジAIワークロードに対応するために、3つの異なるフォームファクターを提供しています。
|
|
Jetson Orin AGXシリーズ |
Jetson Orin NXシリーズ |
Jetson Orin Nanoシリーズ |
|||
|
Jetson AGX Orin 64GB |
Jetson AGX Orin 32GB |
Jetson Orin NX 16GB |
Jetson Orin NX 8GB |
Jetson Orin Nano 8GB |
Jetson Orin Nano 4GB |
|
|
AI性能 |
275 TOPS |
200 TOPS |
100 TOPS |
70 TOPS |
40 TOPS |
20 TOPS |
|
GPU |
2048コアNVIDIA AmpereアーキテクチャGPU(64 Tensorコア搭載) |
1792コアNVIDIA AmpereアーキテクチャGPU(56 Tensorコア搭載) |
1024コアNVIDIA AmpereアーキテクチャGPU(32 Tensorコア搭載) |
1024コアNVIDIA AmpereアーキテクチャGPU(32 Tensorコア搭載) |
512コアNVIDIA AmpereアーキテクチャGPU(16 Tensorコア搭載) |
|
|
GPU最大周波数 |
1.3 GHz |
930MHz |
918MHz |
765MHz |
625MHz |
|
|
CPU |
12-core Arm® Cortex®-A78AE v8.2 64-bit CPU |
8-core Arm® Cortex®-A78AE v8.2 64-bit CPU |
8-core Arm® Cortex®-A78AE v8.2 64-bit CPU |
6-core Arm® Cortex®-A78AE v8.2 64-bit CPU |
6-core Arm® Cortex®-A78AE v8.2 64-bit CPU |
|
|
3MB L2 + 6MB L3 |
2MB L2 + 4MB L3 |
2MB L2 + 4MB L3 |
1.5MB L2 + 4MB L3 |
1.5MB L2 + 4MB L3 |
||
|
CPU Max Frequency |
2.2 GHz |
2.2 GHz |
2 GHz |
1.5 GHz |
||
Jetson AGX Orinモジュール
Jetson AGX Orinモジュールは、AI性能を最大275 TOPSまで提供し、消費電力は15Wから60Wまで設定可能です。これはJetson Orinラインナップのフラッグシップモデルであり、最高の性能と機能を提供します。自律走行車、ロボット工学、産業オートメーション、スマートシティなどの分野における要求の厳しいAIアプリケーション向けに設計されています。AGX Orinモジュールは、リアルタイムAI推論、センサーフュージョン、高性能コンピューティングを必要とするアプリケーションに適した強力な処理能力を提供します。
Jetson Orin NXモジュール
Jetson Orin NXモジュールは、最小のJetsonフォームファクタで最大100 TOPSのAI性能を提供し、消費電力は10Wから25Wまで設定可能です。ミッドレンジオプションとして位置づけられるOrin NXモデルは、性能、電力効率、コスト効率のバランスを提供します。スマートカメラ、ドローン、インテリジェント家電、組み込みAIシステムなど、幅広いAIエッジコンピューティングアプリケーションに適しています。Orin NXモジュールは、AGXモジュールと比較して、よりコンパクトで費用対効果が高いながらも、かなりの処理能力を提供します。
Jetson Orin Nanoモジュール
Jetson Orin Nanoシリーズモジュールは、最小のJetsonフォームファクタで最大40 TOPSのAI性能を提供し、消費電力は7Wから15Wまで選択可能です。Orin Nanoは、Jetson Orinラインナップのエントリーレベルモデルであり、AI処理能力を必要としつつも、低消費電力と低コストが優先されるアプリケーションを対象としています。エッジAIデバイス、IoT(モノのインターネット)デバイス、およびスペース、電力、コストの制限が重要な要素となるその他の組み込みシステムに適しています。
アプリケーション
Jetsonプラットフォームの汎用性は、さまざまな業界にわたる無数のアプリケーションへの道を開きます。注目すべき実装例をいくつか紹介します。
適切なツールを選ぶ
NVIDIA Jetsonは、必ずしもGPUを処理能力の源として排除するものではありません。むしろ、AIコンピューティングタスクにソリューションを実装する方法を決定する際に、システムインテグレーターやOEMに選択肢を増やすものです。産業用アプリケーションには、常に考慮すべき特定の要因があります。GPUがJetsonよりも有益な選択肢となる場合や、その逆の場合も多くあります。
- GPU: 大規模なニューラルネットワークのトレーニングや、膨大な計算能力を必要とする複雑なAIアルゴリズムの実行には、GPUを選択します。GPUは、大規模な並列処理と純粋な計算能力が最重要となるシナリオで優れています。
- Jetson: 低遅延、電力効率、コンパクトなフォームファクタが重要となるエッジでのAIアプリケーション展開には、Jetsonデバイスを選択します。Jetsonは、リアルタイム推論を必要とし、小型でリソースに制約のあるデバイスへの統合が求められるシナリオで優れています。
- その他のAIアクセラレータ(TPU) - 別の選択肢として、GPUやJetsonよりもテンソル処理ユニットの方が好ましいという全く異なる方向性も考えられます。多くの場合、x86からARMへの移行が有益であるよりも有害であることが判明するアプリケーションがあります。これらのアクセラレータは、GPUとNVIDIA Jetsonの両方にとって、低消費電力で高速な代替手段となります。
各タイプのパフォーマンスアクセラレータ間の違いと利点について詳しく知るには、GPU、TPUなどの主な差別化要因を掘り下げた完全な概要をご覧ください。
まとめ
AIコンピューティングのダイナミックな状況において、GPUとNVIDIA Jetsonプラットフォームはともに不可欠な役割を果たしており、それぞれ異なる要件とユースケースに対応しています。これらのテクノロジーの強みとアプリケーションを理解することで、開発者とエンジニアは、イノベーションを推進し、多様な領域で人工知能の可能性を最大限に引き出すために、それらを効果的に活用することができます。GPUの並列処理能力を活用する場合でも、JetsonでAIをエッジに直接展開する場合でも、AIコンピューティングの未来は可能性に満ちており、社会の改善のために探求され、活用されるのを待っています。
Premioの最新Jetson Orin AIエッジコンピューターラインナップは、Jetson Orinのデザインを活用し、頑丈なファンレスエッジAI産業用コンピューターの新しいファミリーを提供しています。JCOシリーズは、Premio初のARMベースアーキテクチャを採用したラインで、エントリーレベル (JCO-1000-ORN)、ミッドレベル (JCO-3000-ORN)、およびハイパフォーマンス (JCO-6000-ORN) の3つの拡張可能なモデルを提供し、頑丈なエッジでのリアルタイムAIコンピューティングを実現します。