ホーム » HPCソリューション » NVIDIA DGX Station パーソナル AI スーパーコンピュータ

NVIDIA® DGX Station™ パーソナル AI スーパーコンピュータ

NVIDIA DGX Station の受注を開始します

HPCシステムズは、新世代 Volta アーキテクチャ採用のDeep Learning向けGPU NVIDIA® Tesla® V100 を4基搭載したパーソナル AI スーパーコンピュータ「NVIDIA DGX STATION」の受注を開始します。

最先端のAI開発向けパーソナルスーパーコンピュータ

dgx-station-product-image

データサイエンスチームは、ディープラーニング、データ分析の革新を、より速く実現するために、コンピューティングパフォーマンスを求めています。
これまで、AI スーパーコンピューティングはデータセンターに限定され、ディープニューラルネットワークを開発し、テストするための実験は、多くの研究者にとって敷居が高いものが有りました。
そこでディープラーニングを試すことができる、AI スーパーコンピューティングのパワーを、手の届くところで実現できるソリューションを開発しました。

AI開発環境を研究者のデスクに

NVIDIA DGX Station はオフィス向けに設計されており、デスク下で400個のCPUに匹敵する計算能力を得ることができ、消費電力はCPUクラスターの20分の1以下、騒音レベルは一般的なワークステーションの10分の1以下に抑えられています。
データサイエンティストとAI研究者は、最適化されたディープラーニングソフトウェアを手にすることができ、また汎用的なデータ分析ソフトウェアを高性能な計算環境で即座に実行することが可能で、研究開発の生産性を飛躍的に向上させることができます

ディープラーニングを早く始めよう

NVIDIA DGX Station は研究者が独自にディープラーニングプラットフォームを構築するという限界を打ち破ります。
フレームワーク、ライブラリ、ドライバを最適化するためには、専門知識と労力が必要です。NVIDIA DGX Stationを導入することで、研究者はシステムインテグレーションやソフトウェアエンジニアリングに貴重な時間と費用を奪われることなく、ディープラーニングトレーニングや実験に費やすことができます。
NVIDIA DGX Station は、AI 研究をスタートできるプラグインが用意されています。わずか1日で、パワーアップしたディープニューラルネットワークのトレーニングを経験できます。

デスクからデータセンターまで ~ソフトウェアスタックがもたらす生産性~

software_stack

ディープラーニングプラットフォームでは、ソフトウェアエンジニアリングの専門知識が必要となり、ディープラーニングの性能を最大限引き出すようにフレームワークを最適化し、オープンソースソフトウェアの安定版を待つ時間を確保する必要があり、これは数千万円の初期ハードウェアコストを無駄にすることと同じです。
NVIDIA DGX Station には、すべてのDGXソリューションと同じソフトウェアスタックが含まれています。NVIDIAのエンジニアによって最適化され、毎月更新される人気のディープラーニングフレームワークを利用することも、この革新的なシステムなら可能です。また、NVIDIA DIGITS ディープラーニング、サードパーティによるアクセラレーションソリューション、NVIDIAディープラーニングSDK(cuDNN、cuBLAS等)、CUDA ツールキット、マルチGPU通信ライブラリ NCCL、NVIDIAドライバへのアクセスも可能です。

NVIDIA Dockerを搭載したコンテナテクノロジーをベースに構築することで、ディープラーニングのソフトウェアスタックを統合し、ワークフローを簡素化しました。データセンターやクラウドにモデルを展開する場合には、再コンパイルの必要がありません。DGX Station で実行されているのと同じ環境を保って、DGX-1またはクラウドに簡単に移行できます。

スーパーコンピューティングのパフォーマンスをデスクで

NVIDIA DGX Station は、ワークステーション型にもかかわらず、スーパーコンピュータに匹敵する驚異的なパフォーマンスと、水冷システムによる静音性を実現しています。
NVIDIA DGX Stationは、次世代NVLinkや、Tensor コアアーキテクチャなどの革新技術を内包したNVIDIA Tesla V100アクセラレータを4基実装した唯一無二のパーソナル AI スーパーコンピュータです。



主な特徴

パフォーマンス
dgx-station-bmt.png
Tensor(多次元配列)演算処理のための専用コア「Tensorコア」
tensor コア解説
システム解説
システム解説

システム仕様

DGX Station 仕様
GPUs 4x Tesla V100
演算性能 [FP16] 480
GPU メモリ 64GB total system
NVIDIA Tensor コア 2,560
NVIDIA CUDA コア 20,480
CPU Intel Xeon Processor E5-2698 v4 (20コア, 2.2GHz, 50MB L3Cache, 9.60GT/s QPI, 14nm, TDP135W) 
システムメモリ 256GB LRDIMM DDR4
ストレージ Data: 3x 1.92TB SSD RAID0
OS: 1x 1.92TB SSD
ネットワーク Dual 10Gb LAN
ソフトウェア Ubuntu Desktop Linux OS, DGX 推奨GPUドライバ, CUDA Toolkit
※詳細はソフトウェアスタックをご確認ください
ディスプレイ 3x DisplayPort, 4K resolution
静音性 35dB(A) 以下
システム重量 88lbs / 40kg
システムサイズ (mm) D518 x W256 x H639
最大消費電力 1500W
運用温度 10-30℃
搭載GPU 仕様
製品名 Tesla V100
GPU アーキテクチャ GV100 (Volta)
製造プロセス 12nm
NVIDIA Tensor コア 640
NVIDIA CUDA コア 5120
コアクロック (GPU Boost時) 1455MHz
半精度浮動小数点演算性能 [FP16] 120TFLOPS
単精度浮動小数点演算性能 [FP32] 15TFLOPS
倍精度浮動小数点演算性能 [FP64] 7.5TFLOPS
メモリ容量 16GB
メモリインターフェイス 4096-bit HBM2
メモリ帯域幅 900GB/s
NVLink帯域幅 (双方向) ※ 200GB/s
L2キャッシュ 6MB
L1キャッシュ 10MB
総レジスタファイル 20480KB
最大消費電力 300W

※NVIDIA® Tesla® V100 for NVLink-enabled Servers に高速インターコネクト「NVLink」を6リンク備えていますが、DGX Station におけるGPU間接続リンク数は4リンクとなっております。NVLinkによるGPU間の接続帯域幅は1リンクあたり双方向50GB/s。4リンク合計で双方向200GB/sとなります。

製品カタログのダウンロード


NVIDIA Partner Network(NPN)に認定されました

HPCシステムズはNVIDIA Partner Network(NPN)に認定されました。

NPN_logo

NPNとは、NVIDIA社 の Solution Provider 向けの Program です。Solution Providerは、VAR(Value Added Reseller:付加価値再販業者)と呼ばれるパートナー企業が対象となります。

弊社は、Accelerated Computing の Preferred Solution Partner に認定されました。これによってNVIDIAの社との連携が強化され、これまで以上に質の高い製品、サービスをお客様へご提供することが可能になりました。

お問い合わせ

NVIDIA DGX STATION のご注文・お問い合わせは以下のフォームよりお願いいたします。

お問い合わせフォーム

■ 電話・FAXでのお問い合わせ

number

【免責事項】