LLM-1U-RPLシリーズは、リアルタイム大規模言語モデル(LLM)推論向けに設計された1UエッジAIサーバーで、生成AIをローカルで実行できます。高度なGPUを搭載し、最大400億パラメータのモデルをサポートすることで、クラウドに依存することなく、低遅延、セキュア、オンプレミスのAI処理を実現します。産業現場、フィールド拠点、またはエンタープライズデータセンターに導入することで、AIをデータにより近づけることができます。製品概要を見る...
LLM-1U-RPL 1U Edge AIラックマウントサーバー(第12/13世代インテル® Core®プロセッサーおよびQ670Eチップセット搭載)
通常価格 total regular price: $0.00
このウェビナーでは、クラウドからオンプレミスのLLM導入への移行をスムーズに進める方法を学び、PremioのオンプレミスLLMシリーズがこの移行を支援するためにどのように設計されているかを確認できます。詳細はこちら ...
LLM-1U-RPLは、オンプレミスエッジへの導入を戦略的に設計されており、センサーデータがクラウドに送信される前の最終コンピューティングレイヤーとして機能します。この重要な接点に位置するLLM-1Uは、ローカルAI推論、データ主権、プライバシー、および信頼性といった利点をもたらします。詳細はこちら
奥行きの短い1Uサイズの筐体で設計されたLLM-1Uシリーズは、マイクロデータセンター、制御室、モバイルエンクロージャーなど、スペースに制約のある設置場所にもシームレスに適合します。
LLM-1U-RPLは、インテルの高性能ハイブリッドアーキテクチャを活用し、レイテンシを最小限に抑え、効率を最大化しながら、負荷の高い産業用ワークロードを効率化します。
第13世代インテル® Core™ E
プロセッサー
最大
24コア&32スレッド
最大
8個のPコアと16個のEコアを搭載した高性能ハイブリッドアーキテクチャ
デュアルチャネルDDR4
最大64GB
LLM-1U-RPLシリーズはワークステーションクラスのGPUをサポートしており、オンプレミスのLLMおよびgenAI向けに高性能な推論処理を実現すると同時に、熱管理とフォームファクタの効率性を確保します。
GPUサポートに加え、PCIe 4.0拡張機能は、高スループットネットワークやその他の産業用拡張カードを利用したハイスペックな導入に必要な柔軟性を提供します。
• PCIe 4.0 x16スロット x1
フル帯域幅アクセラレータ向け
• PCIe 4.0 x8スロット×2
複数のアドオン拡張カード用
LLM-1Uシリーズは、多様かつ大量のセンサーデータを統合することで、IIoTカメラ、センサー、デバイスとのシームレスな統合に不可欠な接続性を提供します。
パフォーマンスが重視されるワークロード向けに、LLM-1U-RPLは高速NVMeに加え、メンテナンスやデータアクセスを容易にする交換可能なSATAベイをサポートしています。
LLM-1Uシリーズは、冗長電源とスマート冷却ファンを搭載し、重要なエッジAI環境における中断のない運用とメンテナンスの簡素化を実現します。
ホットスワップ対応600W電源ユニット(1+1)
ホットスワップ対応ファン
LLM-1Uシリーズは、特にエッジ環境における物理的なセキュリティ、改ざん防止、データ整合性を確保するための、複数のハードウェアレベルの保護機能を備えています。
セキュリティベゼル
シャーシ侵入検知スイッチ
TPM 2.0
UL安全規格およびIEC 62443-4-1サイバーセキュリティ認証を取得するため、厳格な試験と検証を実施しました。LLM-1Uシリーズは、ミッションクリティカルな環境における導入時の安心感と信頼性を保証します。