GPU搭載製品ラインナップ

ホーム » HPCソリューション » GPU搭載製品ラインナップ » HPC5000-XBWGPU8R2G 特長

| 特長 | 仕様 | 価格 | 対応アプリケーション | 製品一覧 | 製品カタログ |

HPC5000-XBWGPU8R2Gの特長

2Uサイズの筐体にNVIDIA® Tesla® シリーズGPUを8基搭載可能
HPC(ハイパフォーマンス・コンピューティング)を加速するハイエンドマルチGPUサーバー
HPC5000-XBWGPU8R2G_main_small HPC5000-XBWGPU8R2G
HPC5000-XBWGPU8R2Gは、インテル® Xeon® プロセッサー E5-2600 v4 ファミリーと、NVIDIA® Tesla® シリーズGPUに対応したハイエンドマルチGPUサーバーです。
2Uサイズの省スペースなラックマウント筐体に、最大2CPU(44コア)、1TBメモリ、2.5型 SAS/SATA HDDを8台、GPUカードを8基搭載可能です。
HPC5000-XBWGPU8R2G_main_banner HPC5000-XBWGPU8R2G_front_banner HPC5000-XBWGPU8R2G_rear_banner HPC5000-XBWGPU8R2G_node_topview_banner HPC5000-XBWGPU8R2G_GPU-slot_banner NVIDIA_Tesla_K80_banner

製品の特長

■ 2Uサイズの筐体にNVIDIA® Tesla® シリーズGPUを最大8基搭載可能

8xTesla_imageHPC5000-XBWGPU8R2Gは、2Uサイズの省スペースなラックマウント筐体にNVIDIA® Tesla® シリーズGPUを最大8基搭載可能です。
GPGPUとは、General-Purpose computing on Graphics Processing Units の略で、GPUの演算資源を汎用の計算に応用する技術のことです。NVIDIA社が提供するGPGPU専用の統合開発環境 CUDA(クーダ)によって、単純なデータを一度に大量に処理することに非常に高いパフォーマンスを発揮します。

■ インテル® Xeon® プロセッサー E5-2600 v4 ファミリーを最大2CPU(44コア)搭載可能badge-xeon

HPC5000-XBWGPU8R2Gは、14nm世代の最新CPU、インテル® Xeon® プロセッサー E5-2600 v4 ファミリーを最大2CPU(44コア)搭載可能です。

インテル® Xeon® プロセッサー E5-2600 v4 ファミリーの仕様
プロセッサー・
ナンバー
コア数 動作周波数 AVX時
動作周波数
Last Level
Cache
QPIリンク速度 DDR4周波数 TDP 1CPUのピーク性能
(倍精度)
E5-2699A v4 22 2.4GHz N/A 55MB 9.6GT/s 2400 / 2133 / 1866 / 1600 145W N/A
E5-2699 v4 2.2GHz 1.8GHz 55MB 9.6GT/s 2400 / 2133 / 1866 / 1600 145W 633.6Gflops
E5-2697 v4 18 2.3GHz 2.0GHz 45MB 9.6GT/s 2400 / 2133 / 1866 / 1600 145W 576.0Gflops
E5-2695 v4 18 2.1GHz 1.7GHz 45MB 9.6GT/s 2400 / 2133 / 1866 / 1600 120W 489.6Gflops
E5-2697A v4 16 2.6GHz 2.2GHz 40MB 9.6GT/s 2400 / 2133 / 1866 / 1600 145W 563.2Gflops
E5-2683 v4 16 2.1GHz 1.7GHz 40MB 9.6GT/s 2400 / 2133 / 1866 / 1600 120W 435.2Gflops
E5-2690 v4 14 2.6GHz 2.1GHz 35MB 9.6GT/s 2400 / 2133 / 1866 / 1600 135W 470.4Gflops
E5-2680 v4 14 2.4GHz 1.9GHz 35MB 9.6GT/s 2400 / 2133 / 1866 / 1600 120W 425.6Gflops
E5-2660 v4 14 2.0GHz 1.7GHz 35MB 9.6GT/s 2400 / 2133 / 1866 / 1600 105W 380.8Gflops
E5-2687W v4 12 3.0GHz 2.6GHz 30MB 9.6GT/s 2400 / 2133 / 1866 / 1600 160W 499.2Gflops
E5-2650 v4 12 2.2GHz 1.8GHz 30MB 9.6GT/s 2400 / 2133 / 1866 / 1600 105W 345.6Gflops
E5-2640 v4 10 2.4GHz 2.0GHz 25MB 8.0GT/s 2133 / 1866 / 1600 90W 320.0Gflops
E5-2630 v4 10 2.2GHz 1.8GHz 25MB 8.0GT/s 2133 / 1866 / 1600 85W 288.0 Gflops
E5-2667 v4 8 3.2GHz 2.6GHz 25MB 9.6GT/s 2400 / 2133 / 1866 / 1600 135W 332.8Gflops
E5-2620 v4 8 2.1GHz 1.8GHz 20MB 8.0GT/s 2133 / 1866 / 1600 85W 230.4Gflops
E5-2609 v4 8 1.7GHz 1.7GHz 20MB 6.4GT/s 1866 / 1600 85W 217.6Gflops
E5-2643 v4 6 3.4GHz 2.8GHz 20MB 9.6GT/s 2400 / 2133 / 1866 / 1600 135W 268.8Gflops
E5-2603 v4 6 1.7GHz 1.7GHz 15MB 6.4GT/s 1866 / 1600 85W 163.2Gflops
E5-2637 v4 4 3.5GHz 3.2GHz 15MB 9.6GT/s 2400 / 2133 / 1866 / 1600 135W 204.8Gflops
E5-2623 v4 4 2.6GHz 2.2GHz 10MB 8.0GT/s 2133 / 1866 / 1600 85W 140.8Gflops

■ 最大1.5TBメモリ搭載可能

HPC5000-XBWGPU8R2Gは、DDR4-2400対応メモリスロットを24本搭載し、64GBメモリモジュールを使用すると最大1.5TBのメモリ容量を確保することができます。

■ 2.5型HDDを最大8台搭載可能

HPC5000-XBWGPU8R2G_hdd

HPC5000-XBWGPU8R2Gは、2.5型のHDDを8台まで搭載することができます。HDDは前面からアクセスできるホットスワップエンクロージャに収納され、レバー操作で交換が可能であるため、メインテナンス作業が容易に行えます。


■ 高い変換効率を誇る80PLUS PLATINUM認証取得電源を搭載80plus_platinum_logo

HPC5000-XBWGPU8R2Gは、80PLUS PLATINUM認証を取得した高効率な電源を搭載しています。
80PLUS認証とは、交流から直流への変換効率を保証するものです。80PLUS PLATINUM認証は、負荷率20%/50%/100%でそれぞれ90%/92%/89%という高い変換効率基準をクリアしたものだけに与えられます。

■ IPMI2.0 (Intelligent Platform Management Interface 2.0) が高度な遠隔監視、操作を実現

標準搭載されたIPMI2.0機能は専用のLANポートを備え、リモートによる温度、電力、ファンの動作、CPUエラー、メモリーエラーの監視を可能にします。また電源のオンオフ、コンソール操作を遠隔から行うことができます。これらの機能によりシステムの信頼性、可用性を高め、ダウンタイムとメインテナンス費用を圧縮することを可能にします。

複雑なCUDAのマシンのセットアップが不要

uda_logomark

HPC5000-XBWGPU8R2Gは、OSとCUDA Toolkitをプリインストールした状態でお届けしますので、すぐに計算を開始することができます。


【新発売】 Volta アーキテクチャGPU NVIDIA® Tesla® V100

TESLA-V100-PCIe画像

NVIDIA® Tesla® V100は、AI、HPC、およびグラフィクスを高速化するために構築された世界最先端のデータ センター GPU です。最新の GPU アーキテクチャ NVIDIA Volta™ を採用した Tesla V100 は、単一の GPU で CPU 100 個分のパフォーマンスを実現し、データサイエンティスト、研究者、エンジニアがかつては不可能だった課題に取り組むことを可能にします。

Tesla® V100 for PCI-e-Based Servers 仕様
GPU アーキテクチャ GV100 (Volta)
製造プロセス 12nm
NVIDIA Tensor コア 640
NVIDIA CUDA コア 5120
コアクロック (GPU Boost時) ~1370MHz
Tensor演算性能 112TFLOPS
半精度浮動小数点演算性能 [FP16] 28TFLOPS
単精度浮動小数点演算性能 [FP32] 14TFLOPS
倍精度浮動小数点演算性能 [FP64] 7TFLOPS
メモリ容量 16GB
メモリインターフェイス 4096-bit HBM2
メモリ帯域幅 900GB/s
L2キャッシュ 6MB
L1キャッシュ 10MB
最大消費電力 250W
放熱機構 Passive(ファン無し)

AI トレーニング

data-center-tesla-v100-training-performance-chart625-d

音声認識から、仮想パーソナル アシスタントのトレーニング、ロボットカーに運転を教えることまで、データサイエンティストは AI を使用し、ますます複雑な課題に取り組んでいます。この種の問題の解決には、複雑さが指数関数的に増加しつつあるディープラーニング モデルのトレーニングを実用的な時間内に行う必要があります。

640 個の Tensor コアを搭載した Tesla V100 は、ディープラーニング性能で 100 テラフロップスの壁を突破した世界初の GPU です。従来のシステムではコンピューティング リソースを数週間消費していた AI モデルが、今では数日でトレーニングできるようになりました。このトレーニング時間の劇的な削減により、まったく新しい世界の問題が AI によって解決できるようになりました。

AI 推論

data-center-tesla-v100-inference-performance-chart-625-ut@2x

画像認識や音声認識、自然言語処理、画像検索、個人に合わせたレコメンデーションなど、AI 対応サービスのあらゆるフレームワークで超高速で効率的な推論を実行できるようになります。Tesla V100 GPU は CPU サーバーの 30 倍の推論性能を実現します。スループットと効率性のこの大きな飛躍は、AI サービスのスケールアウトを現実的なものにします。



ハイパフォーマンスコンピューティング

data-center-tesla-v100-hpc-performance-chart-625-d

HPC は現代科学の基礎となる柱です。天気予報から創薬、新しいエネルギー源の発見まで、研究者は大型の計算システムを使用して世界をシミュレーションし、予測しています。AI は従来の HPC を拡張し、研究者が大量のデータを分析できるようにします。シミュレーションだけでは現実を完全に予測できないような洞察が短期間で得られます。

Tesla V100 は、AI と HPC を統合するために設計されています。科学的シミュレーションのための計算科学と、データから洞察を見つけるためのデータ科学の両方に優れた HPC システムのプラットフォームを提供します。統一されたアーキテクチャで NVIDIA CUDA コアと Tensor コアを組み合わせることにより、Tesla V100 GPU を装備したサーバー 1 台で数百台の汎用 CPU サーバーに匹敵する能力が実現し、従来の HPC および AI ワークロードに活用できます。現在、すべての研究者とエンジニアが AI スーパーコンピューターを利用して、最も困難な作業に取り組むことができます。

Pascal アーキテクチャGPU NVIDIA® Tesla® P100

NVIDIA_Tesla_K80画像

新しい NVIDIA® Pascal™ アーキテクチャの導入により、Tesla® P100はHPCやハイパースケールワークロードに対する最高水準の性能を獲得し、ディープラーニングの刺激的な可能性を切り拓くのに最適なアーキテクチャです。
また、Tesla® P100は半導体からソフトウェアまで新しい発想で構成され、随所に革新的な技術を使用しており、それぞれの先駆的テクノロジがパフォーマンスの劇的な飛躍をもたらし、世界最速の計算ノード開発を推進しています。

Tesla® P100 for PCI-e-Based Servers 仕様
CUDAコア 3584
CUDAコア周波数 1.126GHz(GPU Boost時最大1.303GHz)
半精度浮動小数点数演算性能 16.14TFLOPS(GPU Boost時 18.68TFLOPS)
単精度浮動小数点数演算性能 8.07TFLOPS(GPU Boost時 9.34TFLOPS)
倍精度浮動小数点数演算性能 4.04TFLOPS(GPU Boost時 4.67TFLOPS)
メモリ容量 (ECCオフ) 16 GB, 12 GB
メモリバンド幅 732GB/s (16GB), 549GB/s (12GB)
消費電力 250W
放熱機構 Passive(ファン無し)
TESLA P100 アクセラレータの特徴と利点

Tesla P100 は半導体からソフトウェアまで新しい発想で構成され、随所に革新的な技術を使用しています。それぞれの先駆的テクノロジがパフォーマンスの劇的な飛躍をもたらし、世界最速の計算ノード開発を推進しています。

Pascal アーキテクチャによる指数関数的なパフォーマンス向上
exponential-performance-leap

新しい NVIDIA Pascal™ アーキテクチャの導入により、Tesla P100 は HPC やハイパースケールワークロードに対する最高水準の性能を獲得しました。18.7 TFLOPSにも及ぶ半精度浮動小数点演算性能(FP16)を備えた本製品は、ディープラーニングの刺激的な可能性を切り拓きます。


CoWoS と HBM2 がもたらす、かつてない効率
unprecedented-efficiency

Tesla P100 は HBM2 テクノロジを実装した CoWoS (Chip on Wafer on Substrate) を組み込んで、コンピューティングとデータを同一パッケージに統合し、前世代の 3 倍を超えるメモリ性能を実現しています。


簡潔なプログラミングを可能にするページマイグレーションエンジン
page-migration-engine

ページマイグレーションエンジンのおかげで、開発者はデータの動きを管理することに気をとられず、コンピューティング性能のチューニングに集中できます。GPU の物理メモリサイズを超えて、最大 2 TBまでアプリケーションを展開できるようになりました。

CUDA対応アプリケーション

多くのアプリケーションが続々とCUDAに対応しています。HPCシステムズのHPC5000-XBWGPU8R2Gなら、CUDA化されたアプリケーションの活用に最適です。

HPCクラスターを届いたその日から利用

HPCシステムズが提供するSystem Integration Packをご利用いただければ、用途に合わせた最適な構成選択を行い、オペレーティングシステムのインストール、ネットワーク設定からNTPによるクラスター内の時刻設定のセットアップ、NISによるユーザ認証情報の一括管理やNFSによるホーム領域の共有をはじめMPIセットアップやジョブ管理システムのセットアップなどHPCクラスターに必要なセットアップを済ませたうえでお届けしています。お客様は導入したその日から性能・安定性・操作性の高い計算機ソリューションを利用して研究、業務に専念することができます。

各種アプリケーションに対応

科学技術計算やCAE解析の各種アプリケーションについて社内で動作検証・性能確認を行い、環境設定まで含めてセットアップしています。ご導入にあたってお手持ちのインプットを使用したベンチマークテストも可能です。アプリケーションに合わせて最適なシステム構成をご提案いたします。

関連情報

【免責事項:外部リンクについて】弊社は本サイトへリンクを張っている第三者のサイト(以下、外部リンクといいます)の確認を行っておりません。また弊社は外部リンクの内容およびお客さまの外部リンクの使用に関連して発生したいかなる損害に対しても責任を負いません。 本サイトから第三者のサイトへリンクしていることが、当該サイトの商品やサービスを保証するものでもなく、また外部リンクにある情報は、 弊社が保証したものでも、認めたものでもありません。あらかじめご了承くださいますようお願いします。

お問い合わせ

■ フォームからのお問い合わせ

お問い合わせは以下のフォームよりお願いいたします。うまく送信されない場合は、メールでお問い合わせください。

お問い合わせフォーム

■ 電話・FAXでのお問い合わせ

number

【免責事項】