NVIDIA®Tesla®

ホーム » HPCソリューション » GPU搭載製品ラインナップ » HPC5000-XBWGPU4R1S-PCL 特長

| 特長 | 仕様 | 製品一覧 | 製品カタログ |

HPC5000-XBWGPU4R1S-PCL

Pascal アーキテクチャ採用の新世代GPU「Tesla P100」を4基搭載
HPC、Deep Learning に威力を発揮するハイエンドGPUサーバー
HPC5000-XBWGPU4R1S-PCL_main02_small

HPC5000-XBWGPU4R1S-PCL

HPC5000-XBWGPU4R1S-PCLは、Pascal™ アーキテクチャ採用の新世代GPU、NVIDIA® Tesla® P100を搭載するハイエンドGPUラックマウントサーバーです。
1Uサイズの省スペースなラックマウント筐体に、NVIDIA® Tesla® P100 NVLink対応モデルを4基、インテル® Xeon® プロセッサー E5-2600 v4 ファミリーを2CPU、メモリを1TB、2.5型HDD/SSDを2台まで搭載することができます。

HPC5000-XBWGPU4R1S-PCLの特長

HPC5000-XBWGPU4R1S-PCL_main_banner HPC5000-XBWGPU4R1S-PCL_front_banner HPC5000-XBWGPU4R1S-PCL_rear_banner Tesla-P100_for_NVLink-enabled_Servers_banner HPC5000-XBWGPU4R1S-PCL_mb_banner HPC5000-XBWGPU4R1S-PCL_topview_banner

製品の特長

■ NVIDIA® Tesla® P100 NVLink対応モデルを4基搭載可能nvidia-tesla-logo

HPC5000-XBWGPU4R1S-PCLは、新アーキテクチャ「Pascal」をベースとした最新の数値演算アクセラレータ NVIDIA® Tesla® P100 NVLink対応モデルを2基または4基搭載することができます。


■ インテル® Xeon® プロセッサー E5-2600 v4 ファミリーを2CPU搭載badge-xeon

HPC5000-XBWGPU4R1S-PCLは、14nm世代のインテル® Xeon® プロセッサー E5-2600 v4 ファミリーを2CPU搭載しています。最上位モデルのE5-2699 v4(22コア, 2.2GHz)を選択することで、最大44コアまで実装することができます。

※搭載可能なCPUモデル(プロセッサー・ナンバー)に制限があります。詳細はお問い合わせください。

インテル® Xeon® プロセッサー E5-2600 v4 ファミリーの仕様
プロセッサー・
ナンバー
コア数 動作周波数 AVX時
動作周波数
Last Level
Cache
QPIリンク速度 DDR4周波数 TDP 1CPUのピーク性能
(倍精度)
E5-2699A v4 22 2.4GHz N/A 55MB 9.6GT/s 2400 / 2133 / 1866 / 1600 145W N/A
E5-2699 v4 2.2GHz 1.8GHz 55MB 9.6GT/s 2400 / 2133 / 1866 / 1600 145W 633.6Gflops
E5-2697 v4 18 2.3GHz 2.0GHz 45MB 9.6GT/s 2400 / 2133 / 1866 / 1600 145W 576.0Gflops
E5-2695 v4 2.1GHz 1.7GHz 45MB 9.6GT/s 2400 / 2133 / 1866 / 1600 120W 489.6Gflops
E5-2697A v4 16 2.6GHz 2.2GHz 40MB 9.6GT/s 2400 / 2133 / 1866 / 1600 145W 563.2Gflops
E5-2683 v4 2.1GHz 1.7GHz 40MB 9.6GT/s 2400 / 2133 / 1866 / 1600 120W 435.2Gflops
E5-2690 v4 14 2.6GHz 2.1GHz 35MB 9.6GT/s 2400 / 2133 / 1866 / 1600 135W 470.4Gflops
E5-2680 v4 2.4GHz 1.9GHz 35MB 9.6GT/s 2400 / 2133 / 1866 / 1600 120W 425.6Gflops
E5-2660 v4 2.0GHz 1.7GHz 35MB 9.6GT/s 2400 / 2133 / 1866 / 1600 105W 380.8Gflops
E5-2687W v4 12 3.0GHz 2.6GHz 30MB 9.6GT/s 2400 / 2133 / 1866 / 1600 160W 499.2Gflops
E5-2650 v4 2.2GHz 1.8GHz 30MB 9.6GT/s 2400 / 2133 / 1866 / 1600 105W 345.6Gflops
E5-2640 v4 10 2.4GHz 2.0GHz 25MB 8.0GT/s 2133 / 1866 / 1600 90W 320.0Gflops
E5-2630 v4 2.2GHz 1.8GHz 25MB 8.0GT/s 2133 / 1866 / 1600 85W 288.0 Gflops
E5-2667 v4 8 3.2GHz 2.6GHz 25MB 9.6GT/s 2400 / 2133 / 1866 / 1600 135W 332.8Gflops
E5-2620 v4 2.1GHz 1.8GHz 20MB 8.0GT/s 2133 / 1866 / 1600 85W 230.4Gflops
E5-2609 v4 1.7GHz 1.7GHz 20MB 6.4GT/s 1866 / 1600 85W 217.6Gflops
E5-2643 v4 6 3.4GHz 2.8GHz 20MB 9.6GT/s 2400 / 2133 / 1866 / 1600 135W 268.8Gflops
E5-2603 v4 1.7GHz 1.7GHz 15MB 6.4GT/s 1866 / 1600 85W 163.2Gflops
E5-2637 v4 4 3.5GHz 3.2GHz 15MB 9.6GT/s 2400 / 2133 / 1866 / 1600 135W 204.8Gflops
E5-2623 v4 2.6GHz 2.2GHz 10MB 8.0GT/s 2133 / 1866 / 1600 85W 140.8Gflops

■ 最大1TBメモリ搭載可能

HPC5000-XBWGPU4R1S-PCLは、64GBメモリモジュール(DDR4 LRDIMM-2400 Registered ECC)を16本のメモリスロットに搭載する事で最大1TBのメモリ容量を確保します。メモリ性能を必要とする大規模な計算でパフォーマンスを発揮します。

■ 2.5型 HDD/SSDを2台まで搭載可能

HPC5000-XBWGPU4R1S-PCLは、2.5型 HDD/SSDを2台まで搭載可能です。

※標準構成では240GB SSDを2台搭載しています。

■ 最上位 80PLUS TITANIUM 認証を取得した高効率電源を搭載80plus_titanium_logo

HPC5000-XBWGPU4R1S-PCLは、80PLUSで最上位ランクの80PLUS TITANIUM認証を取得した高効率な電源を搭載しています。80PLUS認証とは、交流から直流への変換効率を保証するものです。80PLUS TITANIUM認証は、負荷率10%/20%/50%/100%でそれぞれ90%/92%/94%/90%という高い変換効率基準をクリアしたものだけに与えられます。

■ 冗長化電源搭載による高い障害耐性

HPC5000-XBWGPU4R1S-PCLは、100Vから240Vに対応した2000W電源ユニットを2個搭載し、一方の電源ユニットに障害が発生した場合でもサーバーの運転を継続するための電力を充分に供給できる冗長性を持っています。これにより万が一の電源ユニット障害によるダウンタイムを最小限に抑えることが出来ます。

■ IPMI2.0 (Intelligent Platform Management Interface 2.0) が高度な遠隔監視、操作を実現

標準搭載されたIPMI2.0機能は専用のLANポートを備え、リモートによる温度、電力、ファンの動作、CPUエラー、メモリーエラーの監視を可能にします。また電源のオンオフ、コンソール操作を遠隔から行うことができます。これらの機能によりシステムの信頼性、可用性を高め、ダウンタイムとメインテナンス費用を圧縮することを可能にします。

深層学習に必要なソフトウェアのインストールサービスが付属します

本製品には、深層学習に必要な主なソフトウェアのインストールサービスが付属します。お客さまは面倒なインストール作業に拘束されることなく、納品後すぐにお使いいただけます。

OSと開発環境
ubuntu-icon nvidia-cuda-icon nvidia-digits-icon docker-icon
Ubuntu 16.04 LTS(標準)
CentOS 7(オプション)
GPUで高速化されたソフトウェアを作成するためのコンパイラーやライブラリ、ツールなどを含む統合開発環境 ディープニューラルネットワークの構築がすばやく簡単に行えるソフトウェア コンテナ型の仮想化環境を提供するソフトウェア
フレームワーク
caffe-icon caffe2-icon chainer-icon cntk-icon
画像認識用途で多く用いられるディープラーニングフレームワーク CaffeをベースにNVIDIAとFacebookが共同で開発したディープラーニングフレームワーク Preferred Networksが開発したディープラーニングフレームワーク Microsoftが公開しているディープラーニングフレームワーク
mxnet-icon pytorch-icon TensorFlow-icon torch-icon
大規模なクラウドでの分散学習を目的に設計されたディープラーニングフレームワーク Torchから派生したディープラーニングフレームワーク GoogleのAI開発環境を一般向けにカスタマイズしたディープラーニングフレームワーク 古くからあるディープラーニングフレームワーク
ライブラリ
Keras-icon OpenCV-icon theano-icon
TensorFlow,CNTK,Theanoをより使いやすくするニューラルネットワークライブラリ(オプション) 画像処理、 機械学習のための主要なオープンソースライブラリ(オプション) Python用数値計算ライブラリ
Deep Learning SDK
cuBLAS-icon cuDNN-icon cuSPARSE-icon DeepStreamSDK-icon
CPUのみのBLASライブラリよりも6倍〜17倍速いGPU高速化されたBLAS機能 畳み込み、活性化関数、テンソル変換を含むディープニューラルネットワークアプリケーション用の高性能ビルディングブロック 自然言語処理などのアプリケーションに最適なGPU高速化された疎行列線形代数サブルーチン 変換と推論のためのGPU高速化された高水準C++ APIとランタイム
NCCL-icon TensorRT-icon    
マルチGPU深層学習訓練を加速する集合通信ルーチン(All-gather,Reduce,Broadcastなど) 本番展開のための高性能な推論ランタイム    

※本サービスはお客さまに変わってソフトウェアのインストールを当社が代行するものです。ご利用の際は開発元の規約に従い使用してください。
※ライセンス許諾契約手続きはお客さまご自身でお願いいたします。詳しくはお問い合わせください。

※NVIDIA® Tesla® V100 for NVLink-enabled Serversは、高速インターコネクト「NVLink」を6リンク備えています。NVLinkによるGPU間の接続帯域幅は1リンクあたり双方向50GB/s。6リンク合計で双方向300GB/sとなります。

AI トレーニング

data-center-tesla-v100-training-performance-chart625-d

音声認識から、仮想パーソナル アシスタントのトレーニング、ロボットカーに運転を教えることまで、データサイエンティストは AI を使用し、ますます複雑な課題に取り組んでいます。この種の問題の解決には、複雑さが指数関数的に増加しつつあるディープラーニング モデルのトレーニングを実用的な時間内に行う必要があります。

640 個の Tensor コアを搭載した Tesla V100 は、ディープラーニング性能で 100 テラフロップスの壁を突破した世界初の GPU です。従来のシステムではコンピューティング リソースを数週間消費していた AI モデルが、今では数日でトレーニングできるようになりました。このトレーニング時間の劇的な削減により、まったく新しい世界の問題が AI によって解決できるようになりました。

AI 推論

data-center-tesla-v100-inference-performance-chart-625-ut@2x

画像認識や音声認識、自然言語処理、画像検索、個人に合わせたレコメンデーションなど、AI 対応サービスのあらゆるフレームワークで超高速で効率的な推論を実行できるようになります。Tesla V100 GPU は CPU サーバーの 30 倍の推論性能を実現します。スループットと効率性のこの大きな飛躍は、AI サービスのスケールアウトを現実的なものにします。



ハイパフォーマンスコンピューティング

data-center-tesla-v100-hpc-performance-chart-625-d

HPC は現代科学の基礎となる柱です。天気予報から創薬、新しいエネルギー源の発見まで、研究者は大型の計算システムを使用して世界をシミュレーションし、予測しています。AI は従来の HPC を拡張し、研究者が大量のデータを分析できるようにします。シミュレーションだけでは現実を完全に予測できないような洞察が短期間で得られます。

Tesla V100 は、AI と HPC を統合するために設計されています。科学的シミュレーションのための計算科学と、データから洞察を見つけるためのデータ科学の両方に優れた HPC システムのプラットフォームを提供します。統一されたアーキテクチャで NVIDIA CUDA コアと Tensor コアを組み合わせることにより、Tesla V100 GPU を装備したサーバー 1 台で数百台の汎用 CPU サーバーに匹敵する能力が実現し、従来の HPC および AI ワークロードに活用できます。現在、すべての研究者とエンジニアが AI スーパーコンピューターを利用して、最も困難な作業に取り組むことができます。

NVIDIA® Tesla® V シリーズ 性能評価

CUDA対応アプリケーション

多くのアプリケーションが続々とCUDAに対応しています。HPCシステムズのHPC5000-XBWGPU4R1S-PCLなら、CUDA化されたアプリケーションの活用に最適です。

HPCクラスターを届いたその日から利用

HPCシステムズが提供するSystem Integration Packをご利用いただければ、用途に合わせた最適な構成選択を行い、オペレーティングシステムのインストール、ネットワーク設定からNTPによるクラスター内の時刻設定のセットアップ、NISによるユーザ認証情報の一括管理やNFSによるホーム領域の共有をはじめMPIセットアップやジョブ管理システムのセットアップなどHPCクラスターに必要なセットアップを済ませたうえでお届けしています。お客様は導入したその日から性能・安定性・操作性の高い計算機ソリューションを利用して研究、業務に専念することができます。

Deep Learning(深層学習)とは

neuron_image

Deep Learning(深層学習)とは、多層構造のニューラルネットワークの機械学習の事を指します。ニューラルネットワークは、人の神経細胞(ニューロン)のネットワークのことです。

機械学習とは、「ある程度の数のサンプルデータ集合を入力して解析を行い、そのデータから有用な規則、ルール、知識表現、判断基準などを抽出し、アルゴリズムを発展させる。」ということをコンピュータが行うことです。

DeepLearning_image

学習課程を簡単に説明すると、まずモデル化したニューラルネットワークにサンプルデータを入力します。次に出力データと実際の分類との誤差を算出し、誤差が小さくなるように、すべてのパーセプトロン(モデル化したニューロン)に対して重みと閾値を計算していきます。これを繰り返していくことで、ニューラルネットワークがサンプルデータの分類ルールを学習していきます。

多量の画像データが手軽に手に入るインターネットの拡充、多量の画像データを処理するコンピュータの処理速度の向上と普及が、最近の深層学習研究を盛り上げています。

関連情報

【免責事項:外部リンクについて】弊社は本サイトへリンクを張っている第三者のサイト(以下、外部リンクといいます)の確認を行っておりません。また弊社は外部リンクの内容およびお客さまの外部リンクの使用に関連して発生したいかなる損害に対しても責任を負いません。 本サイトから第三者のサイトへリンクしていることが、当該サイトの商品やサービスを保証するものでもなく、また外部リンクにある情報は、 弊社が保証したものでも、認めたものでもありません。あらかじめご了承くださいますようお願いします。

お問い合わせ

■ フォームからのお問い合わせ

お問い合わせは以下のフォームよりお願いいたします。うまく送信されない場合は、メールでお問い合わせください。

お問い合わせフォーム

■ 電話・FAXでのお問い合わせ

number

【免責事項】