NVIDIA®Tesla®

ホーム » HPCソリューション » GPU搭載製品ラインナップ » HPC5000-XBWGPU4R1S-PCL 特長

| 特長 | 仕様 | 価格 | 製品一覧 | 製品カタログ |

HPC5000-XBWGPU4R1S-PCL

Pascal アーキテクチャ採用の新世代GPU「Tesla P100」を4基搭載
HPC、Deep Learning に威力を発揮するハイエンドGPUサーバー
HPC5000-XBWGPU4R1S-PCL_main02_small

HPC5000-XBWGPU4R1S-PCL

HPC5000-XBWGPU4R1S-PCLは、Pascal™ アーキテクチャ採用の新世代GPU、NVIDIA® Tesla® P100を搭載するハイエンドGPUラックマウントサーバーです。
1Uサイズの省スペースなラックマウント筐体に、NVIDIA® Tesla® P100 NVLink対応モデルを4基、インテル® Xeon® プロセッサー E5-2600 v4 ファミリーを2CPU、メモリを1TB、2.5型HDD/SSDを2台まで搭載することができます。

HPC5000-XBWGPU4R1S-PCLの特長

HPC5000-XBWGPU4R1S-PCL_main_banner HPC5000-XBWGPU4R1S-PCL_front_banner HPC5000-XBWGPU4R1S-PCL_rear_banner Tesla-P100_for_NVLink-enabled_Servers_banner HPC5000-XBWGPU4R1S-PCL_mb_banner HPC5000-XBWGPU4R1S-PCL_topview_banner

製品の特長

■ NVIDIA® Tesla® P100 NVLink対応モデルを4基搭載可能nvidia-tesla-logo

HPC5000-XBWGPU4R1S-PCLは、新アーキテクチャ「Pascal」をベースとした最新の数値演算アクセラレータ NVIDIA® Tesla® P100 NVLink対応モデルを2基または4基搭載することができます。


■ インテル® Xeon® プロセッサー E5-2600 v4 ファミリーを2CPU搭載badge-xeon

HPC5000-XBWGPU4R1S-PCLは、14nm世代のインテル® Xeon® プロセッサー E5-2600 v4 ファミリーを2CPU搭載しています。最上位モデルのE5-2699 v4(22コア, 2.2GHz)を選択することで、最大44コアまで実装することができます。

※搭載可能なCPUモデル(プロセッサー・ナンバー)に制限があります。詳細はお問い合わせください。

インテル® Xeon® プロセッサー E5-2600 v4 ファミリーの仕様
プロセッサー・
ナンバー
コア数 動作周波数 AVX時
動作周波数
Last Level
Cache
QPIリンク速度 DDR4周波数 TDP 1CPUのピーク性能
(倍精度)
E5-2699A v4 22 2.4GHz N/A 55MB 9.6GT/s 2400 / 2133 / 1866 / 1600 145W N/A
E5-2699 v4 2.2GHz 1.8GHz 55MB 9.6GT/s 2400 / 2133 / 1866 / 1600 145W 633.6Gflops
E5-2697 v4 18 2.3GHz 2.0GHz 45MB 9.6GT/s 2400 / 2133 / 1866 / 1600 145W 576.0Gflops
E5-2695 v4 2.1GHz 1.7GHz 45MB 9.6GT/s 2400 / 2133 / 1866 / 1600 120W 489.6Gflops
E5-2697A v4 16 2.6GHz 2.2GHz 40MB 9.6GT/s 2400 / 2133 / 1866 / 1600 145W 563.2Gflops
E5-2683 v4 2.1GHz 1.7GHz 40MB 9.6GT/s 2400 / 2133 / 1866 / 1600 120W 435.2Gflops
E5-2690 v4 14 2.6GHz 2.1GHz 35MB 9.6GT/s 2400 / 2133 / 1866 / 1600 135W 470.4Gflops
E5-2680 v4 2.4GHz 1.9GHz 35MB 9.6GT/s 2400 / 2133 / 1866 / 1600 120W 425.6Gflops
E5-2660 v4 2.0GHz 1.7GHz 35MB 9.6GT/s 2400 / 2133 / 1866 / 1600 105W 380.8Gflops
E5-2687W v4 12 3.0GHz 2.6GHz 30MB 9.6GT/s 2400 / 2133 / 1866 / 1600 160W 499.2Gflops
E5-2650 v4 2.2GHz 1.8GHz 30MB 9.6GT/s 2400 / 2133 / 1866 / 1600 105W 345.6Gflops
E5-2640 v4 10 2.4GHz 2.0GHz 25MB 8.0GT/s 2133 / 1866 / 1600 90W 320.0Gflops
E5-2630 v4 2.2GHz 1.8GHz 25MB 8.0GT/s 2133 / 1866 / 1600 85W 288.0 Gflops
E5-2667 v4 8 3.2GHz 2.6GHz 25MB 9.6GT/s 2400 / 2133 / 1866 / 1600 135W 332.8Gflops
E5-2620 v4 2.1GHz 1.8GHz 20MB 8.0GT/s 2133 / 1866 / 1600 85W 230.4Gflops
E5-2609 v4 1.7GHz 1.7GHz 20MB 6.4GT/s 1866 / 1600 85W 217.6Gflops
E5-2643 v4 6 3.4GHz 2.8GHz 20MB 9.6GT/s 2400 / 2133 / 1866 / 1600 135W 268.8Gflops
E5-2603 v4 1.7GHz 1.7GHz 15MB 6.4GT/s 1866 / 1600 85W 163.2Gflops
E5-2637 v4 4 3.5GHz 3.2GHz 15MB 9.6GT/s 2400 / 2133 / 1866 / 1600 135W 204.8Gflops
E5-2623 v4 2.6GHz 2.2GHz 10MB 8.0GT/s 2133 / 1866 / 1600 85W 140.8Gflops

■ 最大1TBメモリ搭載可能

HPC5000-XBWGPU4R1S-PCLは、64GBメモリモジュール(DDR4 LRDIMM-2400 Registered ECC)を16本のメモリスロットに搭載する事で最大1TBのメモリ容量を確保します。メモリ性能を必要とする大規模な計算でパフォーマンスを発揮します。

■ 2.5型 HDD/SSDを2台まで搭載可能

HPC5000-XBWGPU4R1S-PCLは、2.5型 HDD/SSDを2台まで搭載可能です。

※標準構成では240GB SSDを2台搭載しています。

■ 最上位 80PLUS TITANIUM 認証を取得した高効率電源を搭載80plus_titanium_logo

HPC5000-XBWGPU4R1S-PCLは、80PLUSで最上位ランクの80PLUS TITANIUM認証を取得した高効率な電源を搭載しています。80PLUS認証とは、交流から直流への変換効率を保証するものです。80PLUS TITANIUM認証は、負荷率10%/20%/50%/100%でそれぞれ90%/92%/94%/90%という高い変換効率基準をクリアしたものだけに与えられます。

■ 冗長化電源搭載による高い障害耐性

HPC5000-XBWGPU4R1S-PCLは、100Vから240Vに対応した2000W電源ユニットを2個搭載し、一方の電源ユニットに障害が発生した場合でもサーバーの運転を継続するための電力を充分に供給できる冗長性を持っています。これにより万が一の電源ユニット障害によるダウンタイムを最小限に抑えることが出来ます。

■ IPMI2.0 (Intelligent Platform Management Interface 2.0) が高度な遠隔監視、操作を実現

標準搭載されたIPMI2.0機能は専用のLANポートを備え、リモートによる温度、電力、ファンの動作、CPUエラー、メモリーエラーの監視を可能にします。また電源のオンオフ、コンソール操作を遠隔から行うことができます。これらの機能によりシステムの信頼性、可用性を高め、ダウンタイムとメインテナンス費用を圧縮することを可能にします。

深層学習に必要な主なソフトウェアのインストールサービスが付属します

本製品には、深層学習に必要な主なソフトウェアのインストールサービス※が付属します。

※ライセンス許諾契約手続きはお客様ご自身でお願いいたします。詳しくはお問い合わせください。

Pascal アーキテクチャGPU NVIDIA® Tesla® P100

新しい NVIDIA® Pascal™ アーキテクチャの導入により、Tesla® P100はHPCやハイパースケールワークロードに対する最高水準の性能を獲得し、ディープラーニングの刺激的な可能性を切り拓くのに最適なアーキテクチャです。
また、Tesla® P100は半導体からソフトウェアまで新しい発想で構成され、随所に革新的な技術を使用しており、それぞれの先駆的テクノロジがパフォーマンスの劇的な飛躍をもたらし、世界最速の計算ノード開発を推進しています。

                 
GPU Tesla P100 for NVLink-enabled Servers
アーキテクチャー Pascal
CUDAコア 3584
コアクロック 1.328GHz(GPU Boost時最大1.480GHz)
倍精度浮動小数点演算性能 4.76TFLOPS(GPU Boost時 5.30TFLOPS)
単精度浮動小数点演算性能 9.52TFLOPS(GPU Boost時 10.61TFLOPS)
半精度浮動小数点演算性能 19.04TFLOPS(GPU Boost時 21.22TFLOPS)
NVLink 帯域幅 160GB/s(双方向)※
PCIe x16 帯域幅 32GB/s(双方向)
メモリ容量 16GB
メモリ帯域幅 732GB/s
消費電力 300W

※NVIDIA® Tesla® P100 for NVLink-enabled Servers(GP100)は、高速インターコネクト「NVLink」を4リンク備えています。NVLinkによるGPU間の接続帯域幅は1リンクあたり双方向40GB/s。4リンク合計で双方向160GB/sとなります。

Tesla® P100とNVLinkによってデータセンターアプリケーションのパフォーマンスが最大で50倍向上
世界最先端のデータセンター GPU

自動運転を制御する人工知能。未来の気候変動の予測。癌を治療する画期的な薬剤。世の中には解決すべき最重要課題がいくつもありますが、いずれも膨大な計算量を必要とします。現代のデータセンターは汎用の計算ノードを何台も相互接続して運用しており、重要なハイパフォーマンスコンピューティング (HPC) やハイパースケールワークロードに対する性能が十分とは言えません。
NVIDIA® Tesla® P100 GPU は、前例のない最先端のデータセンターアクセラレータです。
新たに開発されたNVIDIA Pascal™ GPU アーキテクチャにより、汎用ノード数百台分を超える性能を持つ世界最速の計算ノードが誕生しました。少ない台数で高い性能をもたらす超高速ノードにより、データセンターではスループットを大幅に向上 させる一方で、コストを削減できます。
400を超える HPC アプリケーション (上位 10 個のうち 9 つが含まれています) に加え、すべてのディープラーニングフレームワークが高速化されるため、HPC のどのお客様も自社のデータセンターにアクセラレータを展開できます。

TESLA P100 アクセラレータの特徴と利点

Tesla P100 は半導体からソフトウェアまで新しい発想で構成され、随所に革新的な技術を使用しています。それぞれの先駆的テクノロジがパフォーマンスの劇的な飛躍をもたらし、世界最速の計算ノード開発を推進しています。

Pascal アーキテクチャによる指数関数的なパフォーマンス向上
exponential-performance-leap

新しい NVIDIA Pascal™ アーキテクチャの導入により、Tesla P100 は HPC やハイパースケールワークロードに対する最高水準の性能を獲得しました。18.7 TFLOPSにも及ぶ半精度浮動小数点演算性能(FP16)を備えた本製品は、ディープラーニングの刺激的な可能性を切り拓きます。


CoWoS と HBM2 がもたらす、かつてない効率
unprecedented-efficiency

Tesla P100 は HBM2 テクノロジを実装した CoWoS (Chip on Wafer on Substrate) を組み込んで、コンピューティングとデータを同一パッケージに統合し、前世代の 3 倍を超えるメモリ性能を実現しています。


簡潔なプログラミングを可能にするページマイグレーションエンジン
page-migration-engine

ページマイグレーションエンジンのおかげで、開発者はデータの動きを管理することに気をとられず、コンピューティング性能のチューニングに集中できます。GPU の物理メモリサイズを超えて、最大 2 TBまでアプリケーションを展開できるようになりました。


NVIDIA NVLink を介した大規模アプリケーション
applications-massive-scale

相互接続は往々にしてパフォーマンスを低下させます。革命的な NVIDIA NVLink™ 高速相互接続は、現存するクラス最高のテクノロジに比べて 5 倍のパフォーマンスを発揮し、複数の GPU にまたがるアプリケーションの展開を支えます。

注: このテクノロジは、PCIe 向けの Tesla P100 では利用できません。


CUDA対応アプリケーション

多くのアプリケーションが続々とCUDAに対応しています。HPCシステムズのHPC5000-XBWGPU4R1S-PCLなら、CUDA化されたアプリケーションの活用に最適です。

HPCクラスターを届いたその日から利用

HPCシステムズが提供するSystem Integration Packをご利用いただければ、用途に合わせた最適な構成選択を行い、オペレーティングシステムのインストール、ネットワーク設定からNTPによるクラスター内の時刻設定のセットアップ、NISによるユーザ認証情報の一括管理やNFSによるホーム領域の共有をはじめMPIセットアップやジョブ管理システムのセットアップなどHPCクラスターに必要なセットアップを済ませたうえでお届けしています。お客様は導入したその日から性能・安定性・操作性の高い計算機ソリューションを利用して研究、業務に専念することができます。

Deep Learning(深層学習)とは

neuron_image

Deep Learning(深層学習)とは、多層構造のニューラルネットワークの機械学習の事を指します。ニューラルネットワークは、人の神経細胞(ニューロン)のネットワークのことです。

機械学習とは、「ある程度の数のサンプルデータ集合を入力して解析を行い、そのデータから有用な規則、ルール、知識表現、判断基準などを抽出し、アルゴリズムを発展させる。」ということをコンピュータが行うことです。

DeepLearning_image

学習課程を簡単に説明すると、まずモデル化したニューラルネットワークにサンプルデータを入力します。次に出力データと実際の分類との誤差を算出し、誤差が小さくなるように、すべてのパーセプトロン(モデル化したニューロン)に対して重みと閾値を計算していきます。これを繰り返していくことで、ニューラルネットワークがサンプルデータの分類ルールを学習していきます。

多量の画像データが手軽に手に入るインターネットの拡充、多量の画像データを処理するコンピュータの処理速度の向上と普及が、最近の深層学習研究を盛り上げています。

関連情報

【免責事項:外部リンクについて】弊社は本サイトへリンクを張っている第三者のサイト(以下、外部リンクといいます)の確認を行っておりません。また弊社は外部リンクの内容およびお客さまの外部リンクの使用に関連して発生したいかなる損害に対しても責任を負いません。 本サイトから第三者のサイトへリンクしていることが、当該サイトの商品やサービスを保証するものでもなく、また外部リンクにある情報は、 弊社が保証したものでも、認めたものでもありません。あらかじめご了承くださいますようお願いします。

お問い合わせ

■ フォームからのお問い合わせ

お問い合わせは以下のフォームよりお願いいたします。うまく送信されない場合は、メールでお問い合わせください。

お問い合わせフォーム

■ 電話・FAXでのお問い合わせ

number

【免責事項】