Deep Learning (深層学習) 向け製品

ホーム » HPCソリューション » Deep Learning(深層学習)向け製品ラインナップ » HPC5000-XSLGPU4TS-DL 特長

| 特長 | 仕様 | 製品一覧 | 製品カタログ |

HPC5000-XSLGPU4TS-DLの特長

NVIDIA® Tesla® シリーズGPUを最大4基搭載可能
Deep Learning(深層学習)向けGPUワークステーション
HPC5000-XSLGPU4TS-DL_main_small HPC5000-XSLGPU4TS-DL
HPC5000-XSLGPU4TS-DLは、インテル® Xeon® スケーラブル・プロセッサーと、NVIDIA® Tesla® シリーズGPUに対応したDeep Learning(深層学習)向けGPUワークステーションです。通常、数時間から数日を要する深層学習の計算時間を大幅に短縮することができます。
4Uラックマウントにも対応するタワー筐体に、最大2CPU(56コア)、1TBメモリ、3.5型 SAS/SATA HDDを8台、GPUカードを4基搭載可能です。
なお、本製品には深層学習に必要なソフトウェアのインストールサービスが付属します。
HPC5000-XSLGPU4TS-DL_main_banner HPC5000-XSLGPU4TS-DL_front HPC5000-XSLGPU4TS-DL_rear_banner TESLA-V100-PCIe_banner

製品の特長

■ NVIDIA® Tesla® シリーズGPUを最大4基搭載可能nvidia-tesla-logo

HPC5000-XSLGPU4TS-DLは、Tesla® シリーズGPUを最大4基まで搭載可能です。
通常、数時間から数日を要する深層学習の計算時間を大幅に短縮することができます。


■ インテル® Xeon® スケーラブル・プロセッサーを2CPU搭載badge-xeon

HPC5000-XSLGPU4TS-DLは、14nm世代のインテル® Xeon® スケーラブル・プロセッサーを2CPU搭載しています。

■ 最大1TBメモリ搭載可能

HPC5000-XSLGPU4TS-DLは、64GBメモリモジュールを16本のメモリスロットに搭載する事で最大1TBのメモリ容量を確保します。メモリ性能を必要とする大規模な計算でパフォーマンスを発揮します。

■ 前面からアクセスできるHDDエンクロージャに最大8台の3.5型 HDDが搭載可能

HPC5000-XSLGPU4TS-DLは、3.5型 SAS/SATA HDDを最大8台搭載可能です。HDDは前面からアクセスできるホットスワップエンクロージャに収納され、レバー操作で交換できるため、メインテナンス作業が容易に行えます。

■ 最上位 80PLUS TITANIUM 認証を取得した高効率電源を搭載80plus_titanium_logo

HPC5000-XSLGPU4TS-DLは、80PLUSで最上位ランクの80PLUS TITANIUM認証を取得した高効率な電源を搭載しています。80PLUS認証とは、交流から直流への変換効率を保証するものです。80PLUS TITANIUM認証は、負荷率10%/20%/50%/100%でそれぞれ90%/92%/94%/90%という高い変換効率基準をクリアしたものだけに与えられます。

■ 冗長化電源搭載による高い障害耐性

HPC5000-XSLGPU4TS-DLは、100Vから240Vに対応した2200W電源ユニットを2個搭載し、一方の電源ユニットに障害が発生した場合でもサーバーの運転を継続するための電力を充分に供給できる冗長性を持っています。これにより万が一の電源ユニット障害によるダウンタイムを最小限に抑えることが出来ます。

■ IPMI2.0 (Intelligent Platform Management Interface 2.0) が高度な遠隔監視、操作を実現

標準搭載されたIPMI2.0機能は専用のLANポートを備え、リモートによる温度、電力、ファンの動作、CPUエラー、メモリーエラーの監視を可能にします。また電源のオンオフ、コンソール操作を遠隔から行うことができます。これらの機能によりシステムの信頼性、可用性を高め、ダウンタイムとメインテナンス費用を圧縮することを可能にします。

■ 横置きで4Uラックマウントにも対応するタワー筐体

HPC5000-XSLGPU4TS-DLは、4Uラックマウントに対応したタワー筐体です。19インチラックマウントキット(別売り)を使用することにより、必要に応じてラックにマウントすることができます。

深層学習に必要なソフトウェアのインストールサービスが付属します

本製品には、深層学習に必要な主なソフトウェアのインストールサービスが付属します。お客さまは面倒なインストール作業に拘束されることなく、納品後すぐにお使いいただけます。

OSと開発環境
ubuntu-icon nvidia-cuda-icon nvidia-digits-icon docker-icon
Ubuntu 16.04 LTS(標準)
CentOS 7(オプション)
GPUで高速化されたソフトウェアを作成するためのコンパイラーやライブラリ、ツールなどを含む統合開発環境 ディープニューラルネットワークの構築がすばやく簡単に行えるソフトウェア コンテナ型の仮想化環境を提供するソフトウェア
フレームワーク
caffe-icon caffe2-icon chainer-icon cntk-icon
画像認識用途で多く用いられるディープラーニングフレームワーク CaffeをベースにNVIDIAとFacebookが共同で開発したディープラーニングフレームワーク Preferred Networksが開発したディープラーニングフレームワーク Microsoftが公開しているディープラーニングフレームワーク
mxnet-icon pytorch-icon TensorFlow-icon torch-icon
大規模なクラウドでの分散学習を目的に設計されたディープラーニングフレームワーク Torchから派生したディープラーニングフレームワーク GoogleのAI開発環境を一般向けにカスタマイズしたディープラーニングフレームワーク 古くからあるディープラーニングフレームワーク
ライブラリ
Keras-icon OpenCV-icon theano-icon
TensorFlow,CNTK,Theanoをより使いやすくするニューラルネットワークライブラリ(オプション) 画像処理、 機械学習のための主要なオープンソースライブラリ(オプション) Python用数値計算ライブラリ
Deep Learning SDK
cuBLAS-icon cuDNN-icon cuSPARSE-icon DeepStreamSDK-icon
CPUのみのBLASライブラリよりも6倍〜17倍速いGPU高速化されたBLAS機能 畳み込み、活性化関数、テンソル変換を含むディープニューラルネットワークアプリケーション用の高性能ビルディングブロック 自然言語処理などのアプリケーションに最適なGPU高速化された疎行列線形代数サブルーチン 変換と推論のためのGPU高速化された高水準C++ APIとランタイム
NCCL-icon TensorRT-icon    
マルチGPU深層学習訓練を加速する集合通信ルーチン(All-gather,Reduce,Broadcastなど) 本番展開のための高性能な推論ランタイム    

※本サービスはお客さまに変わってソフトウェアのインストールを当社が代行するものです。ご利用の際は開発元の規約に従い使用してください。
※ライセンス許諾契約手続きはお客さまご自身でお願いいたします。詳しくはお問い合わせください。

【新発売】 Volta アーキテクチャGPU NVIDIA® Tesla® V100
TESLA-V100-PCIe画像

NVIDIA® Tesla® V100は、AI、HPC、およびグラフィクスを高速化するために構築された世界最先端のデータ センター GPU です。最新の GPU アーキテクチャ NVIDIA Volta™ を採用した Tesla V100 は、単一の GPU で CPU 100 個分のパフォーマンスを実現し、データサイエンティスト、研究者、エンジニアがかつては不可能だった課題に取り組むことを可能にします。

Tesla® V100 for PCI-e-Based Servers 仕様
GPU アーキテクチャ GV100 (Volta)
製造プロセス 12nm
NVIDIA Tensor コア 640
NVIDIA CUDA コア 5120
コアクロック (GPU Boost時) 1370MHz
Tensor演算性能 112TFLOPS
単精度浮動小数点演算性能 [FP32] 14TFLOPS
倍精度浮動小数点演算性能 [FP64] 7TFLOPS
メモリ容量 16GB, 32GB
メモリインターフェイス 4096-bit HBM2
メモリ帯域幅 900GB/s
L2キャッシュ 6MB
L1キャッシュ 10MB
最大消費電力 250W
放熱機構 Passive(ファン無し)

AI トレーニング

data-center-tesla-v100-training-performance-chart625-d

音声認識から、仮想パーソナル アシスタントのトレーニング、ロボットカーに運転を教えることまで、データサイエンティストは AI を使用し、ますます複雑な課題に取り組んでいます。この種の問題の解決には、複雑さが指数関数的に増加しつつあるディープラーニング モデルのトレーニングを実用的な時間内に行う必要があります。

640 個の Tensor コアを搭載した Tesla V100 は、ディープラーニング性能で 100 テラフロップスの壁を突破した世界初の GPU です。従来のシステムではコンピューティング リソースを数週間消費していた AI モデルが、今では数日でトレーニングできるようになりました。このトレーニング時間の劇的な削減により、まったく新しい世界の問題が AI によって解決できるようになりました。

AI 推論

data-center-tesla-v100-inference-performance-chart-625-ut@2x

画像認識や音声認識、自然言語処理、画像検索、個人に合わせたレコメンデーションなど、AI 対応サービスのあらゆるフレームワークで超高速で効率的な推論を実行できるようになります。Tesla V100 GPU は CPU サーバーの 30 倍の推論性能を実現します。スループットと効率性のこの大きな飛躍は、AI サービスのスケールアウトを現実的なものにします。



ハイパフォーマンスコンピューティング

data-center-tesla-v100-hpc-performance-chart-625-d

HPC は現代科学の基礎となる柱です。天気予報から創薬、新しいエネルギー源の発見まで、研究者は大型の計算システムを使用して世界をシミュレーションし、予測しています。AI は従来の HPC を拡張し、研究者が大量のデータを分析できるようにします。シミュレーションだけでは現実を完全に予測できないような洞察が短期間で得られます。

Tesla V100 は、AI と HPC を統合するために設計されています。科学的シミュレーションのための計算科学と、データから洞察を見つけるためのデータ科学の両方に優れた HPC システムのプラットフォームを提供します。統一されたアーキテクチャで NVIDIA CUDA コアと Tensor コアを組み合わせることにより、Tesla V100 GPU を装備したサーバー 1 台で数百台の汎用 CPU サーバーに匹敵する能力が実現し、従来の HPC および AI ワークロードに活用できます。現在、すべての研究者とエンジニアが AI スーパーコンピューターを利用して、最も困難な作業に取り組むことができます。



推論を加速する NVIDIA® Tesla® P40

Tesla® P40は、ディープラーニングのワークロードに最高のスループットを実現します。8ビット演算(INT8)命令で1秒あたり47テラ・オペレーション(TOPS)の推論パフォーマンスを誇り、Tesla® P40アクセラレーターを8個搭載したサーバーは、140個以上のCPUを搭載したサーバーと同等のパフォーマンスを発揮します。

Tesla® P40 仕様
CUDAコア 3840
CUDAコア周波数 1.303GHz(GPU Boost時最大1.531GHz)
半精度浮動小数点数演算性能
単精度浮動小数点数演算性能 10.01TFLOPS(GPU Boost時 11.76TFLOPS)
倍精度浮動小数点数演算性能
Integer Operations (INT8) 47 TOPS(Tera-Operations per Second)
メモリ容量 (ECCオフ) 24GB
メモリバンド幅 346GB/s
消費電力 250W
放熱機構 Passive(ファン無し)

Tesla® P40 アクセラレータの特徴と利点

Tesla® P40は、ユーザーやデバイスからのクエリに反応して、トレーニングされたディープ・ニューラル・ネットワークを使って音声や画像、テキストを認識する「推論」を行うよう特別に設計されています。


CPUに対して30分の1のレイテンシ

Tesla-P40-BMT_NV01

Tesla M40に対して4倍のスループット

Tesla-P40-BMT_NV02

爆発的なデータ量に対応するCPUサーバ比140倍の高スループット
exponential-performance-leap

最新のPascal アーキテクチャが採用されたTesla® P40は、ディープラーニングの推論において47TOPS(Tera-Operations per Second)以上の性能を提供します。8基のTesla® P40を搭載した1台のサーバの性能は、CPUのみのサーバ140台に匹敵し、導入コストを抑えながらスループットを大幅に向上することができます。


リアルタイム推論
page-migration-engine

Tesla® P40は、複雑なディープラーニングモデルであっても、INT8オペレーションによって、リアルタイムに最大30倍の推論性能を提供します。



推論プラットフォームによる簡単な操作を実現
unprecedented-efficiency

今日、ディープラーニングモデルはGPUサーバでトレーニングされていますが、推論においてはCPUサーバで展開されています。Tesla® P40は大幅に単純化されたワークフローを提供するため、組織は同じサーバーを使用して反復および展開することができます。


NVIDIA DEEP LEARNING SDK
page-migration-engine

NVIDIA Deep Learning SDK および Deep Stream SDKに含まれる TensorRT は、新しいINT8オペレーションやビデオトランスコーディングのような推論機能をシームレスに活用するのに役立ちます。



Deep Learning(深層学習)とは

neuron_image

Deep Learning(深層学習)とは、多層構造のニューラルネットワークの機械学習の事を指します。ニューラルネットワークは、人の神経細胞(ニューロン)のネットワークのことです。

機械学習とは、「ある程度の数のサンプルデータ集合を入力して解析を行い、そのデータから有用な規則、ルール、知識表現、判断基準などを抽出し、アルゴリズムを発展させる。」ということをコンピュータが行うことです。

DeepLearning_image

学習課程を簡単に説明すると、まずモデル化したニューラルネットワークにサンプルデータを入力します。次に出力データと実際の分類との誤差を算出し、誤差が小さくなるように、すべてのパーセプトロン(モデル化したニューロン)に対して重みと閾値を計算していきます。これを繰り返していくことで、ニューラルネットワークがサンプルデータの分類ルールを学習していきます。

多量の画像データが手軽に手に入るインターネットの拡充、多量の画像データを処理するコンピュータの処理速度の向上と普及が、最近の深層学習研究を盛り上げています。

関連情報

【免責事項:外部リンクについて】弊社は本サイトへリンクを張っている第三者のサイト(以下、外部リンクといいます)の確認を行っておりません。また弊社は外部リンクの内容およびお客さまの外部リンクの使用に関連して発生したいかなる損害に対しても責任を負いません。 本サイトから第三者のサイトへリンクしていることが、当該サイトの商品やサービスを保証するものでもなく、また外部リンクにある情報は、 弊社が保証したものでも、認めたものでもありません。あらかじめご了承くださいますようお願いします。

お問い合わせ

■ フォームからのお問い合わせ

お問い合わせは以下のフォームよりお願いいたします。うまく送信されない場合は、メールでお問い合わせください。

お問い合わせフォーム

■ 電話・FAXでのお問い合わせ

number

【免責事項】