対象の製品はありませんでした。
NVIDIA® GPUを最大10基搭載可能な2CPU構成の
Deep Learning(深層学習)向けハイエンドGPUサーバー
NVIDIA® GPUを最大10基搭載可能な2CPU構成の
Deep Learning(深層学習)向けハイエンドGPUサーバー
NVIDIA® GPUを最大4基搭載可能
2UサイズのハイエンドGPUラックマウントサーバー
NVIDIA® GPUを最大4基搭載可能
2UサイズのハイエンドGPUラックマウントサーバー
NVIDIA® H100 SXM5を4基搭載可能な2CPU構成の
Deep Learning向けウルトラハイエンドGPUサーバー
NVIDIA® GPUを最大10基搭載可能な2CPU構成の
Deep Learning向けハイエンドGPUサーバー
NVIDIA® GPUを2CPUで4基搭載可能
Deep Learning向けハイエンドGPUワークステーション
AMD EPYC™ (Genoa)を2CPU搭載し、
NVIDIA® GPUを最大10基搭載可能
Deep Learning向けハイエンドGPUサーバー
最大4基の水冷式NVIDIA® A100と
2基のCPUを搭載可能な静音性に優れた
水冷式ハイエンドGPUワークステーション
AMD EPYC™ (Genoa)を2CPU搭載し、
NVIDIA® GPUを最大8基搭載可能
Deep Learning向けハイエンドGPUサーバー
インテル® Xeon® W-3400/3500プロセッサー搭載
HPCワークステーション
AMD Ryzen Thread Ripper Proプロセッサー搭載、
NVIDIA GPU最大4基搭載可能なDeep Learning向け
ハイエンドGPUワークステーション
ラックマウントにも対応する
ハイエンドGPUワークステーション
NVIDIA® GPUを2CPUで4基搭載可能
Deep Learning向けハイエンドGPUワークステーション
AMD EPYC™ (Genoa)を1CPU搭載し、
NVIDIA® GPUを最大10基搭載可能
Deep Learning向けハイエンドGPUサーバー
NVIDIA® GPUを最大10基搭載可能な2CPU構成の
Deep Learning向けハイエンドGPUサーバー
NVIDIA® H100 SXM5を8基搭載可能な2CPU構成の
Deep Learning向けハイエンドGPUサーバー
NVIDIA® H100 SXM5を8基搭載可能な2CPU構成の
Deep Learning向けハイエンドGPUサーバー
NVIDIA H100上に構築された
世界初のAIシステム
NVIDIA® GPUを最大6基搭載可能
2UサイズのハイエンドGPUラックマウントサーバー
ラックマウントにも対応する
ハイエンドGPUワークステーション
4UサイズのスーパーハイエンドGPUラックマウントサーバー
4UサイズでNVIDIA GPU 8基搭載
スーパーハイエンド
GPUラックマウントサーバー
ラックマウントにも対応する
Deep Learning 向けGPUワークステーション
NVIDIA A100上に構築された
世界初のAIシステム
省スペース高密度実装GPUサーバー
平日9:30~17:30 (土曜日、日曜日、祝祭日、年末年始、夏期休暇は、休日とさせていただきます。)