NVIDIA®Tesla®

ホーム » HPCソリューション » GPU搭載製品ラインナップ » HPC5000-XSLGPU16R10S-NVL 特長

| 特長 | 仕様 | 製品一覧 | 製品カタログ |

HPC5000-XSLGPU16R10S-NVL

NVIDIA® HGX-2 プラットフォームを採用したウルトラハイエンドGPUサーバー
HPC5000-XSLGPU16R10S-NVL_main_small

HPC5000-XSLGPU16R10S-NVL

HPC5000-XSLGPU16R10S-NVL は、 NVIDIA® HGX-2 プラットフォーム を採用した ウルトラハイエンド GPU サーバーです。 Volta 世代の最高峰 GPU、NVIDIA® Tesla® V100 SXM3 32GB を16基搭載し、GPU 間の相互接続には NVLink™ 2.0 に基づく革新的なテクノロジ NVSwitch が実装され、理論ピーク性能は 2PFLOPS(Tensor FLOPS) に及びます。
HPC5000-XSLGPU16R10S-NVL を用いることで、AIとHPCのワークロードを劇的に加速させることができます。

HPC5000-XSLGPU16R10S-NVLの特長

HPC5000-XSLGPU16R10S-NVL_main_banner HPC5000-XSLGPU16R10S-NVL_node_open_banner HPC5000-XSLGPU16R10S-NVL_front_banner HPC5000-XSLGPU16R10S-NVL_rear_banner HPC5000-XSLGPU16R10S-NVL_rear_banner HPC5000-XSLGPU16R10S-NVL_rear_banner

製品の特長

HGX-2 プラットフォーム の特長

■ AI と HPC のための世界で最も高性能なコンピューティングプラットフォームnvidia-tesla-logo

AI と HPC が世界を変える、インテリジェンスの新時代が到来しました。自動運転車両から地球気象シミュレーションまで、解決に膨大な計算処理資源を要する新しい課題が現れています。

NVIDIA HGX-2 は高精度演算処理のパワーと低精度演算処理のスピードを組み合わせることで、柔軟かつ強力な 1つのプラットフォームを形成し、大きな課題を解決します。

■ 世界最大の GPU を実現badge-xeon

16 基の NVIDIA® Tesla® V100 GPU と NVIDIA NVSwitch™ を搭載した HGX-2 は、前例のない演算処理能力、帯域幅、メモリ トポロジを備え、モデルを高速かつ効率的にトレーニングします。16 基の Tesla V100 GPU は統合された 1 個の 2 petaFLOP アクセラレータとして動作し、合計 GPU メモリは 512GB になります。

「世界最大の GPU」として機能し、演算処理能力を最も必要とする作業負荷に対応できます。

 

■ 次世代 AI の高速パフォーマンスの動力となるbadge-xeon

AI モデルは急激に複雑化しており、その動作には大容量のメモリ、複数の GPU、GPU 間の超高速接続を必要とします。すべての GPU と統合メモリを接続した NVSwitch によって HGX-2 は先進的な AI を短時間でトレーニングするために新しいモデルを処理するパワーを発揮します。1 台の HGX-2 は 300 基の CPU を搭載したサーバーの代わりになります(ResNet50、90epoch時)。コストを大幅に節約し、置き場所を取らず、データ センターの省エネ化に貢献します。

■ 最高のパフォーマンスを誇る HPC スーパーノードbadge-xeon

HPC アプリケーションは、秒単位で膨大な数の計算を実行する演算処理能力を備えた強力なサーバーノードを必要とします。各ノードの演算処理密度を高めることで、必要なサーバーの数が劇的に減ります。結果的に、データ センターの消費電力が大幅に減少し、TCOが大きく削減されます。高次元の行列計算を行うためには、計算を容易に実行するためにプロセッサは多数の隣接プロセッサからデータを取得する必要があります。そこで、NVSwitch で GPU を接続することが理想的となります。1 台の HGX-2 サーバーは CPU のみのサーバー 60 台に匹敵します(粒子物理アプリケーションMILCの場合)。

■ 全帯域幅コンピューティングのための NVSwitchbadge-xeon

NVSwitch を利用すると、すべての GPU が最大 2.4 TB/s の帯域幅で他のすべてのGPUと通信できます。これにより、AI と HPC が直面するGPU間帯域という最大級の問題を解決します。すべての GPU が 計 512GB の HBM2 メモリに自由にアクセスし、最大級のデータセットを処理します。1 台の統合サーバー ノードを可能にする NVSwitch は、AI と HPC の複雑なアプリケーションを劇的に加速します。

HPC5000-XSLGPU16R10S-NVL の特長

■ NVIDIA® Tesla® V100 NVLink対応モデルを16基搭載badge-xeon

HPC5000-XSLGPU16R10S-NVLは、新アーキテクチャ「Volta」をベースとした最新の数値演算アクセラレータ NVIDIA® Tesla® V100 SXM3(NVLink対応モデル)を16基搭載しています。 GPU 間の相互接続には NVLink™ 2.0 に基づく革新的なテクノロジ NVSwitch が実装され、理論ピーク性能は 2PFLOPS(Tensor FLOPS) に及びます。


■ インテル® Xeon® スケーラブル・プロセッサーを2CPU搭載載badge-xeon

HPC5000-XSLGPU16R10S-NVLは、 14nm世代のインテル® Xeon® スケーラブル・プロセッサーを2CPU搭載しています。最上位モデルのXeon® Platinum 8180を選択することで、最大56コアまで実装することができます。

■ 最大3.0TBメモリ搭載可能

HPC5000-XSLGPU16R10S-NVLは、128GBメモリモジュールを24本のメモリスロットに搭載する事で最大3.0TBのメモリ容量を確保します。メモリ性能を必要とする大規模な計算でパフォーマンスを発揮します。

■ U.2 NVMe ドライブを16台搭載可能badge-xeon

HPC5000-XSLGPU16R10S-NVLは、 U.2 NVMe ドライブ(2.5型)を16台、2.5型 HDD/SSDを6台、さらにM.2 NVMe ドライブを2個搭載できる充実したストレージフォームファクタを備えています。

■ 10Gb Ethernet ポート を標準搭載

10Gb Ethernet ポートを2ポート標準搭載しており、外部ストレージ等への高速なアクセスを実現します。

■ 最上位 80PLUS TITANIUM 認証を取得した高効率電源を搭載80plus_titanium_logo

HPC5000-XSLGPU16R10S-NVLは、80PLUSで最上位ランクの80PLUS TITANIUM認証を取得した高効率な電源を搭載しています。80PLUS認証とは、交流から直流への変換効率を保証するものです。80PLUS TITANIUM認証は、負荷率10%/20%/50%/100%でそれぞれ90%/92%/94%/90%という高い変換効率基準をクリアしたものだけに与えられます。

■ 冗長化電源搭載による高い障害耐性

HPC5000-XSLGPU16R10S-NVLは、3000W電源ユニットを6個搭載し、一方の電源ユニットに障害が発生した場合でもサーバーの運転を継続するための電力を充分に供給できる冗長性を持っています。これにより万が一の電源ユニット障害によるダウンタイムを最小限に抑えることが出来ます。

■ IPMI (Intelligent Platform Management Interface) が高度な遠隔監視、操作を実現

標準搭載されたIPMI機能は専用のLANポートを備え、リモートによる温度、電力、ファンの動作、CPUエラー、メモリーエラーの監視を可能にします。また電源のオンオフ、コンソール操作を遠隔から行うことができます。これらの機能によりシステムの信頼性、可用性を高め、ダウンタイムとメインテナンス費用を圧縮することを可能にします。

深層学習に必要なソフトウェアのインストールサービスが付属します

本製品には、深層学習に必要な主なソフトウェアのインストールサービスが付属します。お客さまは面倒なインストール作業に拘束されることなく、納品後すぐにお使いいただけます。

OSと開発環境
ubuntu-icon nvidia-cuda-icon nvidia-digits-icon docker-icon
Ubuntu 16.04 LTS(標準)またはCentOS 7(オプション対応) GPUで高速化されたソフトウェアを作成するためのコンパイラーやライブラリ、ツールなどを含む統合開発環境 ディープニューラルネットワークの構築がすばやく簡単に行えるソフトウェア コンテナ型の仮想化環境を提供するオープンソースソフトウェア
フレームワーク
caffe-icon caffe2-icon chainer-icon cntk-icon
画像認識用途で多く用いられるディープラーニングフレームワーク CaffeをベースにNVIDIAとFacebookが共同で開発したディープラーニングフレームワーク Preferred Networksが開発したディープラーニングフレームワーク Microsoftが公開しているディープラーニングフレームワーク
mxnet-icon pytorch-icon TensorFlow-icon torch-icon
大規模なクラウドでの分散学習を目的に設計されたディープラーニングフレームワーク Torchから派生したディープラーニングフレームワーク GoogleのAI開発環境を一般向けにカスタマイズしたディープラーニングフレームワーク 古くからあるディープラーニングフレームワーク
ライブラリ
Keras-icon OpenCV-icon theano-icon
TensorFlow,CNTK,Theanoをより使いやすくするニューラルネットワークライブラリ(オプション対応) 画像処理、 機械学習のための主要なオープンソースライブラリ(オプション対応) Python用数値計算ライブラリ
Deep Learning SDK
cuBLAS-icon cuDNN-icon cuSPARSE-icon DeepStreamSDK-icon
CPUのみのBLASライブラリよりも6倍〜17倍速いGPU高速化されたBLAS機能 畳み込み、活性化関数、テンソル変換を含むディープニューラルネットワークアプリケーション用の高性能ビルディングブロック 自然言語処理などのアプリケーションに最適なGPU高速化された疎行列線形代数サブルーチン 変換と推論のためのGPU高速化された高水準C++ APIとランタイム
NCCL-icon TensorRT-icon    
最大8つのGPUのマルチGPU深層学習訓練を加速するAll-gather,Reduce,Broadcastなどの集合通信ルーチン 本番展開のための高性能な推論ランタイム    

※本サービスはお客さまに変わってソフトウェアのインストールを当社が代行するものです。ご利用の際は開発元の規約に従い使用してください。
※ライセンス許諾契約手続きはお客さまご自身でお願いいたします。詳しくはお問い合わせください。

Volta アーキテクチャGPU NVIDIA® Tesla® V100

NVIDIA® Tesla® V100は、AI、HPC、およびグラフィクスを高速化するために構築された世界最先端のデータ センター GPU です。最新の GPU アーキテクチャ NVIDIA Volta™ を採用した Tesla V100 は、単一の GPU で CPU 100 個分のパフォーマンスを実現し、データサイエンティスト、研究者、エンジニアがかつては不可能だった課題に取り組むことを可能にします。

AI トレーニング

data-center-tesla-v100-training-performance-chart625-d

音声認識から、仮想パーソナル アシスタントのトレーニング、ロボットカーに運転を教えることまで、データサイエンティストは AI を使用し、ますます複雑な課題に取り組んでいます。この種の問題の解決には、複雑さが指数関数的に増加しつつあるディープラーニング モデルのトレーニングを実用的な時間内に行う必要があります。

640 個の Tensor コアを搭載した Tesla V100 は、ディープラーニング性能で 100 テラフロップスの壁を突破した世界初の GPU です。従来のシステムではコンピューティング リソースを数週間消費していた AI モデルが、今では数日でトレーニングできるようになりました。このトレーニング時間の劇的な削減により、まったく新しい世界の問題が AI によって解決できるようになりました。

AI 推論

data-center-tesla-v100-inference-performance-chart-625-ut@2x

画像認識や音声認識、自然言語処理、画像検索、個人に合わせたレコメンデーションなど、AI 対応サービスのあらゆるフレームワークで超高速で効率的な推論を実行できるようになります。Tesla V100 GPU は CPU サーバーの 30 倍の推論性能を実現します。スループットと効率性のこの大きな飛躍は、AI サービスのスケールアウトを現実的なものにします。



ハイパフォーマンスコンピューティング

data-center-tesla-v100-hpc-performance-chart-625-d

HPC は現代科学の基礎となる柱です。天気予報から創薬、新しいエネルギー源の発見まで、研究者は大型の計算システムを使用して世界をシミュレーションし、予測しています。AI は従来の HPC を拡張し、研究者が大量のデータを分析できるようにします。シミュレーションだけでは現実を完全に予測できないような洞察が短期間で得られます。

Tesla V100 は、AI と HPC を統合するために設計されています。科学的シミュレーションのための計算科学と、データから洞察を見つけるためのデータ科学の両方に優れた HPC システムのプラットフォームを提供します。統一されたアーキテクチャで NVIDIA CUDA コアと Tensor コアを組み合わせることにより、Tesla V100 GPU を装備したサーバー 1 台で数百台の汎用 CPU サーバーに匹敵する能力が実現し、従来の HPC および AI ワークロードに活用できます。現在、すべての研究者とエンジニアが AI スーパーコンピューターを利用して、最も困難な作業に取り組むことができます。

NVIDIA® Tesla® V シリーズ 性能評価


CUDA対応アプリケーション

多くのアプリケーションが続々とCUDAに対応しています。HPCシステムズのHPC5000-XSLGPU16R10S-NVLなら、CUDA化されたアプリケーションの活用に最適です。

HPCクラスターを届いたその日から利用

HPCシステムズが提供するSystem Integration Packをご利用いただければ、用途に合わせた最適な構成選択を行い、オペレーティングシステムのインストール、ネットワーク設定からNTPによるクラスター内の時刻設定のセットアップ、NISによるユーザ認証情報の一括管理やNFSによるホーム領域の共有をはじめMPIセットアップやジョブ管理システムのセットアップなどHPCクラスターに必要なセットアップを済ませたうえでお届けしています。お客様は導入したその日から性能・安定性・操作性の高い計算機ソリューションを利用して研究、業務に専念することができます。

Deep Learning(深層学習)とは

neuron_image

Deep Learning(深層学習)とは、多層構造のニューラルネットワークの機械学習の事を指します。ニューラルネットワークは、人の神経細胞(ニューロン)のネットワークのことです。

機械学習とは、「ある程度の数のサンプルデータ集合を入力して解析を行い、そのデータから有用な規則、ルール、知識表現、判断基準などを抽出し、アルゴリズムを発展させる。」ということをコンピュータが行うことです。

DeepLearning_image

学習課程を簡単に説明すると、まずモデル化したニューラルネットワークにサンプルデータを入力します。次に出力データと実際の分類との誤差を算出し、誤差が小さくなるように、すべてのパーセプトロン(モデル化したニューロン)に対して重みと閾値を計算していきます。これを繰り返していくことで、ニューラルネットワークがサンプルデータの分類ルールを学習していきます。

多量の画像データが手軽に手に入るインターネットの拡充、多量の画像データを処理するコンピュータの処理速度の向上と普及が、最近の深層学習研究を盛り上げています。

関連情報

【免責事項:外部リンクについて】弊社は本サイトへリンクを張っている第三者のサイト(以下、外部リンクといいます)の確認を行っておりません。また弊社は外部リンクの内容およびお客さまの外部リンクの使用に関連して発生したいかなる損害に対しても責任を負いません。 本サイトから第三者のサイトへリンクしていることが、当該サイトの商品やサービスを保証するものでもなく、また外部リンクにある情報は、 弊社が保証したものでも、認めたものでもありません。あらかじめご了承くださいますようお願いします。

お問い合わせ

■ フォームからのお問い合わせ

お問い合わせは以下のフォームよりお願いいたします。うまく送信されない場合は、メールでお問い合わせください。

お問い合わせフォーム

■ 電話・FAXでのお問い合わせ

number

【免責事項】