ClickCease
  • カート
  • アカウント
  • 1-800-977-3646
  • Translation missing: ja.localization.language_label

  • 製品
    • エッジ&組み込みハードウェア

    • Jetson AIエッジコンピュータ

      極めて堅牢。EDGEBoostテクノロジー搭載。サイズ展開も柔軟に対応。

      NVIDIA Rugged Edge AI:

      JCO-6000シリーズ
      高性能AIエッジコンピュータ
      JCO-3000シリーズ
      ミッドレンジAIエッジコンピュータ
      JCO-1000シリーズ
      エントリーレベルのAIエッジコンピュータ
    • X86超堅牢コンピュータ

      極めて堅牢。EDGEBoostテクノロジー搭載。サイズ展開も柔軟に対応。

      インテル ラギッドエッジAI:

      RCO-6000シリーズ
      産業用コンピュータ
      RCO-3000シリーズ
      小型フォームファクターコンピュータ
      RCO-1000シリーズ
      ファンレスミニコンピュータ
    • X86 & Arm®
      セミラギッドコンピュータ

      半堅牢型。性能重視。拡張可能なサイズ。

      インテルのインダストリアルエッジAI:

      BCO-6000-RPLシリーズ
      産業用コンピュータ
      BCO-3000-RPLシリーズ
      小型フォームファクターコンピュータ
      BCO-1000-ADLNシリーズ
      ファンレスコンパクトコンピュータ

      インテルとArm®の産業用エッジAI:

      BCO-500シリーズ
      ファンレスミニコンピュータ
    • 特殊コンピュータ

      特殊な堅牢な用途向け:

      DCO-1000シリーズ
      DINレール式ファンレスコンピュータ
      ACO-6000シリーズ
      鉄道および車載コンピューター
      WCO-3000シリーズ
      防水コンピューター

      特殊な産業用途:

      VCO-6000シリーズ
      マシンビジョンコンピュータ
      KCOシリーズ
      浅型産業用コンピュータ

      スーパーキャパシタUPSエナジーパック:

      ECO-1000 Supercapacitor
      ECO-1000シリーズ スーパーキャパシタ
    • 産業用マザーボードおよびSBC
      ATX
      Micro-ATX
      Mini-ITX
      3.5インチSBC
      2.5インチ PICO-ITX
      1.8インチ FEMTO-ITX
    • 産業用タッチパネル

      産業用タッチパネルPC:

      SIOシリーズ IP66/69K防水仕様タッチスクリーンコンピュータ
      HIOシリーズ IP65 オープンフレーム タッチスクリーンコンピュータ
      VIOシリーズ IP65モジュラーパネルPCおよびモニター
      AIOシリーズ IP65 オールインワンタッチスクリーンコンピュータおよびモニター

      産業用タッチモニター:

      FIOシリーズ IP65 オープンフレーム産業用タッチスクリーンモニター
      産業用液晶モニター
    • クラウド&ストレージハードウェア

    • データセンター用ラックサーバー

      オンプレミスデータセンター

      LLMシリーズ エッジAIサーバー

      クラウドデータセンター

      AMD高可用性サーバー
      AMDフラッシュストレージサーバー
      AMD高密度サーバー
      インテル高可用性サーバー
      インテル フラッシュストレージサーバー
      インテル高密度サーバー
      デュアルSASエキスパンダーJBOD
    • 製品の見積もりを依頼する
  • 市場

    自動化とロボット工学

    効率性・安全性・精度

    AGVおよびAMRロボティクス 製造自動化 鉱業自動化

    AIとアナリティクス

    知能・意思決定・学習

    AIファクトリー 生成AIとオンプレミスLLM 医療推論分析 フィジカルAI

    インフラストラクチャとエッジ

    接続性・信頼性・セキュリティ

    産業用IoTゲートウェイ 堅牢なエッジコンピューティング 堅牢なNVR監視システム

    モビリティ&トランスポート

    モビリティ・自律性・資格認定

    自動運転車のデータストレージ インテリジェント鉄道 車両フリートテレマティクス

    スマートシティ

    アクセシビリティ・回復力

    災害および緊急事態管理 キオスク端末

    健康管理

    認証(UL/医療機器)

    医療推論分析

    鉱業

    認証(堅牢性)

    鉱業自動化
  • ソリューション
    • コンピューティングシステム
    • ARM®ベースの産業用コンピュータ
    • 組み込みコンピュータ
    • NVIDIA Jetsonソリューション
    • x86超堅牢コンピュータ
    • x86セミラギッドコンピュータ
    • x86 AIエッジ推論コンピュータ
    • エッジコンピュータ
    • 産業用IoTゲートウェイ
    • ファンレスミニコンピュータ
    • 特殊コンピュータ
    • 産業用タッチパネル
    • 産業用マザーボードおよびシングルボードコンピュータ
    • データセンター用ラックサーバー
    • テクノロジー
    • エッジAI向けGPUアクセラレーション
    • EDGEBoostノード
    • EDGEBoost I/Oモジュール
    • リモート帯域外管理
    • 産業用PC向けファンレス冷却システム
    • 5G対応ファンレスコンピューティング
    • Hailo-8™ エッジAIアクセラレーション
    • AWS IoT Greengrass
    • トラステッドプラットフォームモジュール2.0
    • スーパーキャパシタによる電源バックアップ
    • DPUアクセラレーションサーバー
    • Ignition®対応ソフトウェア搭載PC
    • OEM/ODMサービス
    • 顧客擁護者
    • 柔軟な製造
    • ライフサイクル管理
    • 製品エンジニアリング
    • 品質保証
    • 顧客サービス
  • ブログ
    意思決定ツールキット
    事例研究
    インサイト
    ポッドキャスト&ウェビナー
    プレスリリース
    イベント
    電子書籍とホワイトペーパー
    メディアハブ

    最新記事:

    Enabling Reliable Storefront Digital Signage with Wide-Temperature Edge Computing
    Enabling Reliable Storefront Digital Signage with Wide-Temperature Edge Computing
    Improving Public Transit Communication with Super-Rugged Industrial IoT Gateway Computers
    Improving Public Transit Communication with Super-Rugged Industrial IoT Gateway Computers
    Agentic AI Edge Computing: Powering Autonomous Intelligence with Premio Platforms
    Agentic AI Edge Computing: Powering Autonomous Intelligence with Premio Platforms
    Improving SMT Line Quality Control with Real-Time AI Inspection with Premio's Industrial GPU Computer
    Improving SMT Line Quality Control with Real-Time AI Inspection with Premio's Industrial GPU Computer
  • 会社
    • 私たちについて
    • 採用情報
    • 資格認定
    • 企業の社会的責任
    • イベント
    • プレスリリース
    • 返品・交換・修理(RMA)
  • リソース
    • 意思決定ツールキット
    • 電子書籍とホワイトペーパー
    • メディアハブ
    • 事例研究
    • ポッドキャスト&ウェビナー
  • お問い合わせ
  • カート
  • アカウント
  • Translation missing: ja.localization.language_label

    産業用タッチパネルPCおよびモニター

    HMI統合用IP規格準拠タッチスクリーンコンピュータ

    製品を見る

    スーパーキャパシタ技術

    ミッションクリティカルなエッジコンピューティング向け

    詳細はこちら

    NVIDIA Jetson Orin

    JCOシリーズAIエッジコンピュータ

    製品を見る

    DPU アクセラレーテッドサーバー

    現代のデータセンター向けに設計されたハードウェア

    クラウドからエッジまで、データ分析の洞察力

    エンタープライズクラウドプロバイダーからの要求が、高性能な処理、ストレージ、接続性を求めるにつれ、専用設計のハードウェアサーバーは、従来のスケールアウトアーキテクチャが膨大な量のデータにアクセス、転送、保存する方法を変革するでしょう。新しいハードウェアアーキテクチャは、データセンターからエッジに至るまで、現代の要求を満たすために最新のテクノロジーを必要とします。従来のラックマウントサーバー設計は、新たな波の機械知能で使用されるリアルタイムデータの、より高速で効率的な処理を可能にするために、急速に変化しています。

    DPUアクセラレーションサーバーは、データセンターアーキテクチャにおける最新技術の融合をもたらし、データセンターネットワークからエッジに至るまで、驚異的なコンピューティング能力、効率性、拡張性に関する新たなパフォーマンスベンチマークを実現します。


    データ処理。パフォーマンスの高速化は重要です。

    Performance Increase

    高性能コンピューティング(HPC)

    インダストリー4.0とスマートプロダクションのアイコンセット。スマート産業革命、自動化、ロボットアシスタント、クラウド、イノベーション。ストックイラスト[変換済み]

    機械学習

    プレミオ_アイコン_製品概要

    ディープラーニング

    プレミオ_アイコン_製品概要

    データ分析 Web 2.0

    プレミオ_アイコン_製品概要

    クラウド管理

    プレミオ_アイコン_製品概要

    大容量データストレージ


    FlacheStreams DPUアクセラレーションサーバー

    FlashStreamsのDPUアクセラレーション対応ラックマウントサーバーは、CPU、GPU、DPUといった最新技術を活用した新しいアーキテクチャを実現する高性能サーバーです。この専用設計サーバーは、パブリッククラウド、プライベートクラウド、ハイブリッドクラウドといった現代のインフラストラクチャにおいて、驚異的なハードウェアアクセラレーションのバランスを必要とする、最も複雑なデータセンターワークロードに対応します。

    物理的な:

    • 2Uラックマウントシャーシ
    • DPUカード用ホットスワップ対応キャリアトレイ12種類
    • シングルAMD EPYCまたはデュアルAMD EPYCまたはIntelスケーラブルプロセッサ

    接続性:

    • 最大36個の25Gb/sネットワークアクセラレータポート
    • ピアツーピア通信用96レーンPCIeスイッチボード×2
    • ギガビットイーサネット対応RJ45 LANポート×2、IPMI管理用RJ45ポート×1

    拡張性:

    • 最大18個のDPU、または14個のDPUと2台のフルハイト・ダブル幅350W GPGPUまで拡張可能
    • 最大300TB以上のNVMe SSDストレージをサポート
    • CPUコア数:8コアから128コアまで
    • 最大18個の8 Armv8 A72コア(64ビット)DPUアクセラレータ

    ハードウェアアクセラレーション:

    • 圧縮および減圧加速
    • NVMe-oF™アクセラレーション
    • SR-IOV
    • TCP/IPトランスポートオフロード

    製品コレクション:

    FlacheSAN2N12C-DM 2U 12 デュアル AMD EPYC DPU サーバー

    • 最大128コアのAMD EPYC Milan CPUを2基搭載
    • 4TB RDIMM 3200MHz
    • PCIe拡張カードスロット×16
    製品を見る

    FlacheSAN2N12C-UM 2U 12 シングル AMD EPYC DPU サーバー

    • 最大64コアのAMD EPYC Milan CPU 1基
    • 4TB RDIMM 3200MHz
    • PCIe拡張カードスロット×16
    製品を見る

    FlacheSAN2N12C-D5 2U 12デュアルIntelスケーラブルプロセッサーDPUサーバー

    • Intel スケーラブル CPU x 2
    • 16DIMM RDIMM 2933MHz
    • PCIe拡張カードスロット×16
    製品を見る

    DPUアクセラレーション対応サーバーはどのように構成できますか?

    ネットワークアプリケーション:

    SmartNIC/FPGA/アクセラレータをサポートし、CPUの負荷を軽減してネットワークスループットを向上させ、レイテンシを低減します。

    ストレージアプリケーション:

    NVMe SSDデバイス用のPCIe 3.0 x8アドオンカードスロットを12個搭載し、最大300TBのデータを保存できます。

    計算機アプリケーション:

    128個のAMD EPYCコア(64コア×2)、2つのダブル幅GPU、および最大18個のDPUコンピューティングSSDにより、顧客は最も計算負荷の高いアプリケーションを実行できます。

    HPCアプリケーション:

    96レーンのスイッチボードを2枚搭載し、それぞれ12枚のPCIe x8アドオンカードと4枚のPCIe x16アドオンカードに分岐させることで、SmartNICとSSDがピアツーピアDMAを介して相互に通信できるシステムを実現しています。これにより、不要なデータ移動を排除し、レイテンシを低減して処理能力を向上させています。


    データセンターにおけるハードウェアアクセラレーション

    現在もデータセンターは主にx86 CPUベースのコンピューティングによって支えられています。しかし、ムーアの法則が半導体技術革新にとって大きな課題となっているため、データセンターのインフラストラクチャは、既存のハードウェアから性能を引き出すための新しい技術と手法を必要としています。今日のデータセンターソリューションは、AI駆動型アプリケーションにおける高速処理、ストレージ、ネットワーク、セキュリティといった計算能力の要求に対応するため、さまざまなパフォーマンス加速技術に依存しています。

    • X86サーバーの売上高は2020年第4四半期に209億3000万ドルに達し、サーバー売上高全体の92.8%を占めた(IDC調べ)。
    • 最新のデータセンターインフラストラクチャは、パフォーマンス重視のスケールアウトアーキテクチャを実現するために、CPU、GPU、DPU、FPGAなどのハードウェア技術を使用しています。

    当初、GPUはAIワークロードの高速化に利用されていました。現在では、計算ストレージデバイスとデータ処理ユニットがデータセンターに導入され、ハードウェアアーキテクチャ全体でリソースの利用効率が向上しています。CPU、GPU、そしてDPUはワークロードを高速化し、従来のプロセッサのオーバーヘッドを軽減することで、貴重なCPUリソースを他の重要なアプリケーションに解放します。今日、データセンターで広く利用されているパフォーマンスアクセラレータには、マルチコアプロセッサ、GPU(グラフィックス処理ユニット)、計算ストレージデバイス、DPU(データ処理ユニット)などがあり、これらが連携してパフォーマンスを向上させ、不要なボトルネックを解消します。

    詳細はこちら

    汎用性の高い高性能プロセッサ:X86マルチコアプロセッサ

    マルチコアプロセッサはデータセンターで非常に人気があります。データセンターサーバーのCPUが持つコア数が多いほど、1サイクルあたりに実行できるプログラム命令の数が増えるからです。そのため、ほとんどのデータセンターサーバーにはマルチコアCPUが搭載されており、エンタープライズアプリケーションにより多くのCPU処理能力を提供することで、サーバーのパフォーマンスを向上させています。

    ディープラーニングと機械知能:GPU(グラフィックス処理ユニット)

    GPUは、機械学習や深層学習のトレーニングといったAIワークロードの実行に非常に優れているため、データセンターにおいてパフォーマンスアクセラレータとして広く利用されています。これは、GPUが数千個のコアを搭載しており、多数の計算を並列処理できるため、複雑なワークロードの完了にかかる時間を大幅に短縮できるからです。

    計算NANDフラッシュストレージ:超高速NVMe

    高性能サーバーは、コンピュテーショナルストレージデバイスを搭載することで、サーバーのCPUからストレージデバイスへデータ処理をオフロードし、ホストCPUのリソースに頼ることなくストレージ機能を高速化できます。これは、ストレージレベルに組み込まれた処理およびメモリ技術によって実現され、サーバーは超低遅延でリアルタイムにデータを処理できます。

    よりスマートなNIC:DPU(データ処理ユニット)

    データ処理ユニット(DPU)は、ストレージ、ネットワーク、セキュリティといった機能をホストサーバーのCPUからDPUにオフロードできるため、データセンターサーバーに導入されつつあります。これにより、CPUの処理能力が解放され、エンタープライズアプリケーションやオペレーティングシステムの実行に利用できるようになります。


    新たな解決策を必要とする主要なトレンド

    問題点:データセンターにおける他の重要なデータ処理およびストレージの管理にCPUリソースが浪費され、ボトルネックが発生している。

    ソリューション:スマートNIC、FPGA、GPU、そしてDPUが、驚異的なパフォーマンスと超低遅延を実現する新しいハードウェアアーキテクチャを形成しています。

    5GとPCIe Gen 4によって生成されるデータ量の急速な増加に伴い、膨大なデータを処理するにはエッジコンピューティングが不可欠となっています。SmartNIC FPGAやDPUと呼ばれる専用のアドオンカードは、ネットワークタスクの処理に特化することでワークロードを軽減し、CPUをより汎用的なワークロードに効率的に活用できるようにします。DPUのメリットについて詳しく知りたい方は、PremioのRugged Edge Survival Podcastをご覧ください。

    詳細はこちら

    これらのDPUは、今後のコンピューティングにおける3つの主要な柱の1つとなるでしょう。CPUは汎用コンピューティング用、GPUは高速コンピューティング用、そしてDPUはデータセンター内でデータを移動させ、データ処理を行う役割を担います。

    NVIDIAのCEO、ジェンセン・フアン


    DPU(データ処理ユニット)ベースのSmartNICとは何ですか?

    DPU(データ処理ユニット)は、高性能ネットワークインターフェースと組み合わせて使用​​されることが多い、新しいタイプのプログラマブルプロセッサです。ホストサーバーのCPUがネットワークデータを処理する処理をDPUに直接オフロードすることで、貴重なCPUリソースを解放し、データセンター内の他のミッションクリティカルなアプリケーションの管理に活用できます。例えば、DPUはネットワークインターフェースカード上で、ネットワーク、ストレージ、セキュリティ管理機能を直接高速化するように最適化されています。

    DPUはホストCPUの利用率を30%から50%削減できる。

    DPUは、データ管理とワークロードを効率的に制御するためのスマートNICとして機能します。

    DPUはCPUを迂回し、ディープラーニングアプリケーションにおけるGPUアクセラレーションに必要なデータを解読することができる。

    PCIe Gen 4対応

    DPUは、高性能アクセラレータをサーバーに接続するための標準インターフェースであるPCIe 4.0 Peripheral Component Interconnect Express(PCIe)をサポートしています。

    詳細はこちら

    • DPUは、以下のようないくつかの主要コンポーネントで構成されています。
    • 高性能でソフトウェアプログラマブルなマルチコアARMプロセッサが、他のSoCコンポーネントと密接に連携している。

    • DPUがネットワークを介してデータを解析、処理、効率的に転送できるようにする高性能ネットワークインターフェース

    • ネットワーク、ストレージ、セキュリティ、AIワークロードをサーバーのCPUからDPUにオフロードする、柔軟でプログラム可能なアクセラレーションエンジンの豊富なセット。

    DPUの機能

    データセキュリティ

    100GbEから200GbEまでの高速ネットワーク接続

    CPU不要の高速パケット処理

    高性能マルチコアプロセッサ

    パフォーマンスアクセラレーター

    データおよびローカルストレージの管理

    詳細はこちら

    データセンターおよびエッジコンピューティングインフラストラクチャにおいて、DPUが重要な理由とは?

    DPUは、貴重なサーバーCPUリソースを他の汎用処理に解放できるため、データセンターやエッジネットワークにとって重要です。DPUスマートNICは、サーバーホストCPUと一切やり取りすることなくデータパケットを管理することで、特定のネットワークボトルネックの負荷を軽減します。また、多くの新しいエッジコンピューティングアプリケーションでは、リアルタイムの機械学習や深層学習アルゴリズムのトレーニングのために、受信データの強力なハードウェアアクセラレーションが求められています。

    ネットワーク仮想化

    x86 CPUと比較して、ネットワーク仮想化をより効率的にサポートします。SRIOV、vFirewall、OVS、オーバーレイネットワークトラフィックのカプセル化など、CPUからネットワークワークロードをオフロードします。

    パケットペーシング

    送信パケットを制限することで、より安定したネットワークトラフィックを確保しつつ、同じスループットと品質を維持し、コンテンツのスムーズな配信を実現します。

    5Gトラフィックルーティング性能の向上

    vRAN、フロントホールI/O、前方誤り訂正、高精度タイムスタンプ、eCPRIウィンドウ処理、リアルタイム伝送ハードウェアアクセラレーションをサポートします。

    詳細はこちら

    信頼できるSmartNIC、FPGA、およびDPUパートナー

    NVIDIAは、業界をリードするConnectXネットワークアダプタ、強力なマルチコアプロセッサ、およびその他多数のパフォーマンスアクセラレータを単一のパッケージに統合した、再プログラム可能なNVIDIA Mellanox BlueField 2データ処理ユニット(DPU)を提供しています。これにより、組織はデバイスを再プログラムして最新のアルゴリズムを実行できます。

    詳細はこちら

    ザイリンクスは、FPGAをベースとしたAlveoシリーズのSmartNICカードを提供しており、ハードウェアアクセラレーションを実現し、不要なデータ転送を回避します。ザイリンクスAlveoは、機械学習推論、データ分析、ビデオトランスコーディングなど、計算負荷の高いアプリケーションの高速化に対応しています。

    詳細はこちら

    詳細はこちら

    DPUアクセラレーションサーバーにPremioを選ぶ理由

    主要エンタープライズ市場向けサーバーハードウェアの設計、エンジニアリング、製造(ODM)における専門知識

    • 高性能コンピューティング、スケールアウトデータストレージ、機械学習および深層学習、パブリッククラウドおよびプライベートクラウド管理のワークロード向けに専用設計されたサーバー製品
    • サーバーおよびストレージアーキテクチャにおける30年以上にわたる豊富な設計経験(パフォーマンス、ストレージ、高速接続向け)
    • 米国におけるグローバルなターンキー製造およびサポートインフラストラクチャにより、サーバーおよびストレージソリューションのスケーラブルな大規模展開を加速
    • 高性能ワークロード向けに設計された、コンピューティング、ストレージ、接続性に関するIoTおよびデータセンター技術に関する深い理解
    • 北米市場におけるサーバーおよびストレージソリューションの規制試験とコンプライアンスに関する選択肢
    詳細はこちら

    よくある質問

    GPUがCPUからGPUへ数学的に負荷の高いタスクをオフロードするために使用されたのと同様に、DPU(データ処理ユニット)はCPUからDPUへネットワーク機能とストレージ機能をオフロードするために使用され、CPUの貴重なリソースを日常的なネットワーク機能やストレージ機能の処理から解放します。

    CPUはコンピュータの頭脳であり、汎用コンピューティングを処理する役割を担っています。GPUは、並列処理能力によって人工知能のための深層学習などの特定のワークロードを高速化できるため、データセンターで重要な役割を果たしています。DPUは、ホストCPUのリソースを使用せずにミッションクリティカルなデータを処理・解読できるため、時間とレイテンシを節約できることから、データセンターへの導入が進んでいます。

    すべてのサーバーにDPUが搭載されているわけではありません。実際、サーバーが実行するネットワーク機能やストレージ機能の高速化に対する需要の高まりを受けて、DPUアクセラレーションサーバーがデータセンターに導入され始めています。ワークロードやアプリケーションによっては、DPUは最新のデータセンターインフラストラクチャに大きなメリットをもたらす可能性があります。

    DPUを搭載したサーバーの主な利点は、データ解析、データ処理、データ転送といった処理をホストサーバーのCPUからGPUにオフロードできるため、CPUを様々なエンタープライズアプリケーションに解放できる点にある。

    DPUは、強力なマルチコアプロセッサとアクセラレーションエンジンを搭載しており、AI、機械学習、セキュリティ、通信、ストレージ、その他多くの現代のデータセンターアプリケーションに最適です。


    トップへ戻る
    読み込み中...

    お問い合わせ

    お問い合わせ

    お問い合わせ

    つながりを保ちましょう

    • 私たちについて
    • 私たちについて
    • 製品
    • サービス
    • ブログ
    • 資格認定
    • 企業の社会的責任
    • 利用規約
    • プライバシーポリシー
    • 品質方針
    • 環境政策
    • サービス
    • 顧客擁護者
    • フレキシブル製造
    • ライフサイクル管理
    • 製品エンジニア
    • オンデマンド物流
    • 品質保証
    • 顧客サービス
    • サポート
    • お問い合わせ
    • バーチャルファクトリーポータル

    Premio Inc.

    • 918 Radecki Court, City of Industry, CA 91748, United States
    • 626.839.3100   |   800.977.3646
    • sales@premioinc.com

    Premio Taiwan Inc.

    • 18F, No.176, Jianyi Road, Zhonghe District, New Taipei City 235603, Taiwan
    • 886.2.7731.7888
    • sales@premioinc.com

    CAGE: 0P210 / UEID: Y4N2TTTE7HD5

    2026 Premio Inc. All Rights Reserved