世界で唯一のペタスケール統合AIワークステーション 販売終了製品:NVIDIA DGX Station A100

販売終了製品:NVIDIA DGX Station A100™

DGX Station A100は、
世界で唯一のペタスケール統合AIワークステーション

第二世代のDGX Station A100は、4基のNVIDIA A100 GPUを搭載し、最大320GBのGPUメモリを搭載、2.5ペタフロップスのAIパフォーマンスを実現します。
4基の80GBのNVIDIA A100 Tensor Core GPUを搭載しており、データサイエンスやAI研究チームが独自のワークロードや予算に応じてシステムを選択できるオプションを提供しています。
企業のオフィス、研究施設、研究所、またはホームオフィスで働くチームに向け、要求負荷の高い機械学習とデータサイエンスのワークロードを加速します。

製品概要

AIトレーニングを加速

ディープラーニングデータセットはますます大きく複雑になり、会話型AI、レコメンダーシステム、コンピュータービジョンなどのワークロードが業界全体でますます普及しています。
統合ソフトウェアスタックが付属するNVIDIADGX Station A100は、PCIeベースのワークステーションと比較して、複雑なAIモデルでソリューションを実現するまでの時間を最速で実現するように設計されています。

データサイエンスチーム向けのAIスーパーコンピューティング

DGX Station A100は、トレーニング、推論、データ分析などのすべてのワークロードに一元化されたAIリソースを複数のユーザーに提供できます。これにより他のNVIDIA認定システムと連携して機能します。
また、マルチインスタンスGPU(MIG)を使用すると、最大28個の個別のGPUデバイスを個々のユーザーとジョブに割り当てることができます。

NVIDIA DGX A100システムと同じソフトウェアスタックを使用

DGX Station A100は、NVIDIA DGX A100システムと同じソフトウェアスタックを使用して作業を加速することができ、開発から展開まで容易にスケールアップすることができます。

AIイノベーションを後押し

世界中の組織がDGX Station A100を採用し、教育、金融サービス、政府、ヘルスケア、小売などの業界全体でAIやデータサイエンスを強化しています。
例えばドイツの人工知能研究センターでは、DGX Stationを使用して、社会や産業の課題に対応するために、緊急時の対応を支援するコンピュータビジョンシステムをはじめとする 自然災害の問題に取り組むモデルを構築しています。

データセンターを利用しなくてもデータセンターのパフォーマンス

データセンターの電力と冷却を必要としないサーバーグレードのAIシステムです。
4つのNVIDIAA100 TensorコアGPU、最高級のサーバーグレードCPU、超高速NVMeストレージ、 最先端のPCIe Gen4バスに加え、サーバーのように管理できるリモート管理が含まれています。

どこにでも設置できるAIアプライアンス

企業のオフィス、ラボ、研究施設、さらには自宅で作業する開発者向けに設計されており、複雑な インストールや重要なITインフラストラクチャは必要ありません。
標準の壁コンセントに差し込むだけで、数分で起動して実行し、どこからでも作業できます。

AI、HPC向けにGPUメモリを倍増

NVIDIA DGX A100 640GBシステムは、エンタープライズでは、企業がターンキーAIスーパーコンピュータ上で大規模なAIモデルを構築、トレーニング、展開することを可能にします。20台のDGX A100システムを搭載し、NVIDIA DGX SuperPOD™ソリューションに統合することもできます。AI チームは大規模なデータセットやモデルでの精度をさらに高めることができます。

ハイパフォーマンスコンピューティングにも最適なシステム

NVIDIA GPUは、幅広いドメインにわたって700を超えるアプリケーションを最適化した最新のHPCデータセンターのエンジンです。
4つのNVIDIAA100 Tensor CoreGPUを搭載したDGXStation A100は、開発者がHPCクラスターに 展開する前に科学的なワークロードをテストするのに最適なシステムで、オフィスや自宅からでも
画期的なパフォーマンスを実現できます。

主な特長

パフォーマンス

高性能トレーニングは生産性を加速します。洞察までの時間が短縮され、市場投入までの時間が短縮されます。

システム解説

仕様・スペック

モデル名NVIDIA DGX Station A100
320GB
GPUs4x NVIDIA A100 80GB GPUs
Tensor演算性能2.5 petaFLOPS AI
5 petaOPS INT8
GPU メモリ320 GB total
CPUSingle AMD 7742, 64 cores,
2.25 GHz (base)‒3.4 GHz (max boost)
システムメモリ512 GB DDR4
内蔵ストレージ OS: 1x 1.92 TB NVME drive
Internal storage: 7.68 TB
U.2 NVME drive
内蔵ストレージ最大容量 7.68 TB
ネットワークDual-port 10Gbase-T Ethernet LAN
Single-port 1Gbase-T Ethernet
BMC management port
ディスプレイアダプター4 GB GPU memory, 4x Mini DisplayPort
静音性37dB(A) 未満
システム重量91lbs / 43.1kg
システムサイズHeight: 25.1 in (639 mm) Width: 10.1 in (256 mm) Length: 20.4 in (518 mm)
梱包重量127.7lbs / 57.93kg
最大消費電力1.5 kW at 100‒120 Vac
運用温度5–35 ºC (41–95 ºF)
ソフトウェアUbuntu Desktop Linux OS
DGX 推奨 GPU ドライバ
CUDA Toolkit

NVIDIA Partner Network(NPN)に認定されました

HPCシステムズはNVIDIA社のパートナー認定制度“NVIDIA Partner Network (NPN)” においてHigh Performance Computing (HPC) ならびに Deep Learning の ELITE PARTNER に認定されています。また、DGX製品の販売資格である「Advanced Technology Program (ATP)」 を保有しています。

※NPNとは、NVIDIA社 の Solution Provider 向けのプログラムです。Solution Providerは、VAR(Value Added Reseller:付加価値再販業者)と呼ばれる企業が対象となります。HPCシステムズは、NVIDIA社、パートナー各社と連携し、質の高い製品、サービスをお客様へご提供しています。

お問い合わせ

お客様に最適な製品をご提案いたします。まずはお気軽にお問い合わせください。

03-5446-5531

平日9:00~18:00(土・日・祝日は除きます)

※土曜日、日曜日、祝日、年末年始は、休日とさせていただきます。