HPCシステムズ株式会社
HPC/AI
製品&サービス
  • 03-5446-5531
  • 企業情報
  • ハードウェア
    ハードウェア一覧
    • Workstationワークステーション
    • Rackmount Serverラックマウント
      サーバー
    • GPUGPU 搭載製品
    • Storageストレージ製品
    • GPU / Network / otherGPU、ネットワーク、他
  • ソフトウェア
    ソフトウェア一覧
    • 量子化学
    • 分子動力学
    • 固体物理
    • 構造・流体・熱
    • 統計・数値解析
    • Linux
    • マルチフィジックス
    • 画像処理
    • 電磁界
    • コンパイラ
    • ジョブ管理
    • システム監視
    • コンテナ
    • Deep Learning
    • GPGPU
    • Windows
    • 可視化
    • 分散ファイルシステム
  • サービス
    サービス一覧
    • HPC向けSIサービス
    • DL向けSIサービス
    • 運用保守サービス
    • サイエンスクラウド
    • プログラム高速化
    • 計算化学サービス
  • 技術情報
  • 導入事例
  • サポート
    • HPC・Deep Learning・AI サポート
    • 産業用コンピューティング サポート
  • 全製品・サービス
    • HPC・DL・AI
      製品&サービス
    • サイエンスクラウド
    • 計算化学
    • AI / Deep Learning特設サイト
    • 技術情報
    • サポート
    • 導入事例
    • ソリューション検索
  • 資料ダウンロード
  • お問い合わせ

GPU搭載製品

GPU搭載製品

ホーム > HPC・DL・AI > ハードウェア > GPU搭載製品
仕様から選ぶ
CPU
GPU
筐体タイプ
CPUから選ぶ
  • 一覧表 >>
搭載可能GPUから選ぶ
特長から選ぶ
用途から選ぶ
検索結果を見る

申し訳ございません、対象の製品は見つかりませんでした。
絞り込み条件を取り消して再度お試しください。

  • NVIDIA DGX™ Spark

    デスクトップAIソリューションを提供する
    コンパクトで強力な新しいコンピュータ

    GB10 Superchip Blackwell GPU搭載
    128GBのコヒーレント統合システムメモリ
    最大2台のDGX Sparkシステムを
    クラスタリング可能
    標準的なコンセントで駆動
    どんなデスクにも簡単に設置可能
  • HPC5000-XGRSGPU8R8S-NVL

    インテル® Xeon® 6 プロセッサー(P-core搭載、開発コード:Granite Rapids-SP)を2基搭載
    NVIDIA® B300 SXM を8基搭載するDeep Learning(深層学習)向けハイエンドGPUサーバー

    GPU8基搭載可能
    2CPU(最大172コア)
    最大4TBメモリ
    8Uラックマウント
  • HPC3000-XGRSGPU4R2S

    インテル® Xeon® 6 プロセッサー(P-core搭載、開発コード:Granite Rapids-SP)を1基搭載
    NVIDIA® GPUを最大4基搭載可能な高性能メインストリームHPCサーバー

    最大64コア(1CPU)
    GPU4基搭載可
    最大1TBメモリ
    E1.S NVMe SSD 4台搭載可
    2Uラックマウント
    最大TDP 350W
  • HPC3000-TR5PR108R2S

    AMD Ryzen™ Threadripper™ PRO プロセッサを1基搭載
    NVIDIA GPUを最大4基搭載可能な高性能ラックマウントサーバー

    最大96コア(1CPU)
    GPU最大4基搭載可能
    最大1TBメモリ
    2Uラックマウント
    最大TDP 350W
  • HPC3000-TR5PR104TS

    AMD Ryzen™ Threadripper™ プロセッサを1基搭載、
    NVIDIA GPUを最大2基搭載可能なDeep Learning向け高性能GPUワークステーション

    最大96コア(1CPU)
    GPU最大2基搭載
    最大512GBメモリ
    最大TDP 350W
  • NVIDIA DGX™ B200

    AI 導入のあらゆる段階にある企業に規模を問わず対応
    開発から展開までのパイプラインを構築する統合型 AI プラットフォーム

    8基のNVIDIA B200 TensorコアGPU
    飛躍的なAIパフォーマンスを発揮
    開発からデプロイまで対応する
    単一のプラットフォーム
    第 5 世代 NVIDIA® NVLink™ が
    NVIDIA Blackwell GPUを相互接続
    DGX H100 と比較して3倍のトレーニングパフォーマンス、
    15倍の推論パフォーマンスを実現
  • HPC5000-ETNGPU8R4S

    AMD EPYC™ (Turin)プロセッサーを2基搭載、NVIDIA® GPUを最大8基搭載可能
    Deep Learning向けハイエンドGPUサーバー

    最大320コア(2CPU)
    GPU8基搭載可能
    最大6TB
    2.5インチNVMe/SATAドライブ 24台搭載可
    4Uラックマウント
  • HPC5000-EGNGPU8R10S-NVL<近日発売>

    NVIDIA B200 SXM を8基搭載する
    2CPU構成のDeep Learning(深層学習)向けハイエンドGPUサーバー

    最大256コア(2CPU)
    GPU8基搭載
    最大3TBメモリ
    最大20台のドライブ搭載可能
    10Uラックマウント
    最大TDP 400W
  • HPC3000-TR4PR104TS

    AMD Ryzen™ Threadripper™ プロセッサを1基搭載、
    NVIDIA GPUを最大2基搭載可能なDeep Learning向け高性能GPUワークステーション

    最大96コア(1CPU)
    GPU最大2基搭載
    最大512GBメモリ
    最大TDP 350W
  • HPC3000-ETN124R2S3

    AMD 第5世代 EPYC™(Turin)プロセッサーを1基搭載
    NVIDIA GPUを最大4基搭載可能な高性能ラックマウントサーバー

    GPU4基搭載可能
    最大192コア(1CPU)
    最大6TBメモリ
    HDD/SSD12台搭載可
    2Uラックマウント
    最大TDP 400W
  • HPC5000-XGRAGPU8R3S

    インテル® Xeon® 6 プロセッサー(P-core搭載、開発コード:Granite Rapids-AP)を2基搭載
    NVIDIA® GPUを最大8基搭載可能なDeep Learning(深層学習)向け3UサイズのGPUサーバー

    2CPU(最大256コア)
    GPU8基搭載可能
    最大3TBメモリ
    3Uラックマウント
    TDP 500W
  • HPC5000-XGRAGPU8R4S

    インテル® Xeon® 6 プロセッサー(P-core搭載、開発コード:Granite Rapids-AP)を2基搭載
    4U筐体にNVIDIA® GPUを最大8基搭載可能なDeep Learning(深層学習)向けハイエンドGPUサーバー

    2CPU(最大256コア)
    GPU8基搭載可能
    最大3TBメモリ
    E1.S NVMe SSD 8台搭載可
    4Uラックマウント
    Dual Root Complex
    TDP 500W
  • HPC2000-CARL104TS

    インテル® Core™ Ultra プロセッサー (シリーズ2) 搭載
    Geforce RTX 50 シリーズ対応 エントリーHPCワークステーション

    インテル® Core™ Ultra プロセッサー
    GPU1基搭載可能
    最大128GBメモリ
    3.5 HDD×2 / 2.5 SSD×4搭載可能
    タワーType
    最大TDP 125W
  • HPC3000-TR4PR108R2S

    AMD Ryzen™ Threadripper™ PRO プロセッサを1基搭載
    NVIDIA GPUを最大4基搭載可能な高性能ラックマウントサーバー

    最大96コア(1CPU)
    GPU最大4基搭載可能
    最大1TBメモリ
    2Uラックマウント
    最大TDP 350W
  • HPC5000-ETNGPU8R10S-NVL

    NVIDIA B200 SXM を8基搭載する
    2CPU構成のDeep Learning(深層学習)向けハイエンドGPUサーバー

    最大382コア(2CPU)
    GPU8基搭載
    最大3TBメモリ
    最大20台のドライブ搭載可能
    10Uラックマウント
    最大TDP 500W
  • HPC5000-XGRAGPU8R10S-NVL

    インテル® Xeon® 6 プロセッサー(P-core搭載、開発コード:Granite Rapids-AP)を2基搭載
    NVIDIA® B200 SXM6 を8基搭載するDeep Learning(深層学習)向けハイエンドGPUサーバー

    最大256コア(2CPU)
    GPU8基搭載可能
    最大3TBメモリ
    10Uラックマウント
    TDP 500W
  • HPC5000-XERGPU8R10S-NVL

    NVIDIA® B200 SXM6 を を8基搭載可能な2CPU構成の
    Deep Learning(深層学習)向けハイエンドGPUサーバー

    最大128コア(2CPU)
    GPU8基搭載可能
    最大4TBメモリ
    10Uラックマウント
    TDP 350W
  • HPC5000-XGRAGPU10R5S

    インテル® Xeon® 6 プロセッサー(P-core搭載)2基搭載
    NVIDIA® GPUを最大10基搭載可能な
    Deep Learning向けハイエンドGPUサーバー

    2CPU(最大256コア)
    GPU10基搭載可能
    最大3TBメモリ
    5Uラックマウント
    TDP 500W
  • HPC3000-XSRGPU4TP-LC

    第4世代インテル® Xeon® W-3400/3500プロセッサー搭載
    ハイエンド水冷ワークステーション

    水冷式冷却機構
    最大56コア(1CPU)
    最大512GBメモリ
    GPU4枚搭載可
  • HPC5000-ETNGPU10R5S-A

    AMD EPYC™ (Turin)プロセッサーを2基搭載し、NVIDIA® GPUを最大10基搭載可能
    Deep Learning向けハイエンドGPUサーバー

    最大384コア(2CPU)
    GPU10基搭載可
    最大3TBメモリ
    SATA/NVMe ドライブ10台搭載可
    5Uラックマウント
    最大TDP 500W
  • HPC5000-ETNGPU8R5S-A

    AMD EPYC™ (Turin)プロセッサーを2基搭載し、NVIDIA® GPUを最大8基搭載可能
    Deep Learning向けハイエンドGPUサーバー

    最大384コア(2CPU)
    GPU8基搭載可
    最大1.5TBメモリ
    ※評価中
    SATA/NVMe ドライブ6台搭載可
    5Uラックマウント
    TDP500W
  • HPC3000-XSR116TS-LC

    インテル® Xeon® W-3400/3500プロセッサー搭載
    HPCワークステーション

    最大60コア(1CPU)
    GPU2基搭載可
    最大512GBメモリ
    水冷式冷却機構
    SATA SSD 2台/NVMeSSD 2台 搭載可
    最大TDP 385W
  • HPC3000-ETN112R2S3

    AMD第5世代EPYC™ (Turin)プロセッサーを1基搭載
    2Uサイズの筐体により、優れた拡張性を備えたHPCサーバー

    最大160コア(1CPU)
    GPU2基搭載可
    最大1.5TBメモリ
    NVMe/SATAドライブ12台搭載可
    2Uラックマウント
    最大TDP 400W
  • HPC5000-ETN224R2S2-A

    AMD第5世代EPYC™ (Turin)プロセッサーを2基搭載
    優れたコストパフォーマンスと拡張性を備えた高性能HPCサーバー

    最大384コア(2CPU)
    GPU最大3基搭載可
    最大6TBメモリ
    NVMe/SATA/SASドライブ24台搭載可
    2Uラックマウント
    最大TDP 500W
  • HPC5000-XERGPU8R8S-NVL

    NVIDIA® H200/H100 SXM5 を8基搭載可能な2CPU構成の
    Deep Learning(深層学習)向けハイエンドGPUサーバー

    最大128コア(2CPU)
    GPU8基搭載可
    最大4TBメモリ
    NVMe 16台 / SATA SSD 8台 搭載可
    4Uラックマウント
    最大TDP 350W
  • HPC5000-XERGPU10R5S

    NVIDIA® GPUを最大10基搭載可能な2CPU構成の
    Deep Learning(深層学習)向けハイエンドGPUサーバー

    最大128コア(2CPU)
    GPU最大10基搭載可
    最大4TBメモリ
    SATA SSD 8台 / NVMe 8台 搭載可
    5Uラックマウント
    Dual Root Complex
    最大TDP 350W
  • HPC5000-XSRGPU10R5S

    NVIDIA® GPUを最大10基搭載可能な2CPU構成の
    Deep Learning(深層学習)向けハイエンドGPUサーバー

    最大120コア(2CPU)
    GPU最大10基搭載可
    最大4TBメモリ
    SATA SSD 8台 / NVMe 8台 搭載可
    5Uラックマウント
    Dual Root Complex
    最大TDP 350W
  • HPC5000-XER216TS-LC

    第5世代 インテル® Xeon® スケーラブル・プロセッサー2基搭載
    ハイエンド水冷ワークステーション

    水冷式冷却機構
    最大72コア(2CPU)
    最大512GBメモリ
    GPU最大2基搭載可
    SATA SSD 2台/NVMeSSD 2台 搭載可
    最大TDP 300W
  • HPC5000-XSR216TS-LC

    第4世代 インテル® Xeon® スケーラブル・プロセッサー2基搭載
    ハイエンド水冷ワークステーション

    水冷式冷却機構
    最大104コア(2CPU)
    最大512GBメモリ
    GPU最大2基搭載可
    SATA SSD 2台/NVMeSSD 2台 搭載可
    最大TDP 300W
  • HPC5000-XERGPU4R2S

    NVIDIA® GPUを最大4基搭載可能
    2UサイズのハイエンドGPUラックマウントサーバー

    最大128コア(2CPU)
    GPU4基搭載可
    最大4TBメモリ
    SSD/NVMe 8台搭載可
    2Uラックマウント
    最大TDP 350W
  • HPC5000-XSRGPU4R2S

    NVIDIA® GPUを最大4基搭載可能
    2UサイズのハイエンドGPUラックマウントサーバー

    最大120コア(2CPU)
    GPU4基搭載可
    最大4TBメモリ
    SSD/NVMe 8台搭載可
    2Uラックマウント
    最大TDP 350W
  • HPC3000-GH200R1S

    Grace™ ARM CPUとHopper™ H100をNVIDIA® NVLink®-C2C (Chip-to-Chip)で接続した
    Deep Learning(深層学習)向けハイエンドGPUサーバー

    最大72コア(1CPU)
    GPU1基搭載可
    E1.S NVMe 2台 /
    M.2 NVMe SSD 2台搭載可能
    1Uラックマウント
  • HPC5000-XERGPU4R4S-NVL

    NVIDIA® H100 SXM5を4基搭載可能な2CPU構成の
    Deep Learning向けウルトラハイエンドGPUサーバー

    最大128コア(2CPU)
    GPU4基搭載可
    最大2TBメモリ
    SSD/NVMe 8台搭載可
    4Uラックマウント
    最大TDP 350W
  • HPC5000-XER216TS

    第5世代 インテル® Xeon® スケーラブル・プロセッサー2基搭載
    ハイエンドHPCワークステーション

    最大128コア(2CPU)
    最大1TBメモリ
    HDD/SSD 4台搭載可
    GPU最大1基搭載可
    タワーType(6Uラックマウント)
    最大TDP 350W
  • HPC5000-XERGPU10R4S

    NVIDIA® GPUを最大10基搭載可能な2CPU構成の
    Deep Learning向けハイエンドGPUサーバー

    最大128コア(2CPU)
    GPU10基搭載可
    最大4TBメモリ
    NVMe/SATA/SASドライブ8台搭載可
    4Uラックマウント
    Dual Root Complex
    最大TDP 350W
  • HPC5000-XERGPU4TS

    NVIDIA® GPUを2CPUで4基搭載可能
    Deep Learning向けハイエンドGPUワークステーション

    最大72コア(2CPU)
    GPU4基搭載可
    最大2TBメモリ
    3.5型 SAS/SATA HDD、
    2.5型 SATA SSD/NVMe8台搭載可
    タワーType
  • HPC5000-EGNGPU10R4S

    AMD EPYC™ (Genoa)プロセッサーを2基搭載し、NVIDIA® GPUを最大10基搭載可能
    Deep Learning向けハイエンドGPUサーバー

    最大256コア(2CPU)
    GPU10基搭載可
    最大3TBメモリ搭載可
    HDD/SSD24台搭載可
    4Uラックマウント
  • HPC3000-EGNGPU4TC

    AMD EPYC™ (Genoa)プロセッサーを1基搭載、NVIDIA® GPUを最大4基搭載可能
    Deep Learning向けハイエンドGPUワークステーション

    最大16コア(1CPU)
    GPU最大4基搭載可
    最大1TBメモリ
    HDD/SSD 8台搭載可
    TDP400W
  • HPC2000-CRLGPU1TS

    最大24コアのインテル® Core™ プロセッサー搭載・GPU搭載可能な
    エントリーHPCワークステーション

    第13世代インテル® Core™ i9
    DDR5-4800対応
    最大128GBメモリ
    タワーType
    GPU搭載可能
    <img src="/product/wp-content/uploads/sites/3/2023/02/win11.png" height="16px" width="87px" style="margin-bottom:2px; margin-right:2px;"> 対応
  • HPC2000-CRL104TS-D6

    最大24コアのインテル® Core™ プロセッサー搭載
    エントリーHPCワークステーション

    第13世代インテル® Core™ i9
    GPU搭載可
    DDR5-4800対応
    最大128GBメモリ
    タワーType
    <img src="/product/wp-content/uploads/sites/3/2023/02/win11.png" height="16px" width="87px" style="margin-bottom:2px; margin-right:2px;"> 対応
  • 販売終了製品:HPC5000-XSR216TC

    第4世代 インテル® Xeon® スケーラブル・
    プロセッサー搭載HPCワークステーション

    最大64コア(2CPU)
    GPU最大2基搭載可
    最大2TBメモリ
    HDD/SSD 8台搭載可
  • HPC3000-XSRGPU4TC

    NVIDIA® GPUを1CPUで4基搭載可能
    Deep Learning(深層学習)向け
    ハイエンドGPUワークステーション

    最大60コア(1CPU)
    最大1TBメモリ
    HDD/SSD 6台搭載可
    タワーType
    TDP350W
    GPU最大4基搭載可
  • 販売終了製品:HPC5000-XIL216TS

    ハイエンドHPCワークステーション

    最大80コア(2CPU )
    GPU最大2基搭載可
    最大512GBメモリ
    HDD4台搭載可
    ミドルタワーtype
  • HPC3000-XSR116TS

    インテル® Xeon® W-3400/3500プロセッサー搭載
    HPCワークステーション

    最大60コア(1CPU)
    最大2TBメモリ
    タワーType
  • 販売終了製品:HPC3000-TRPR108TS

    AMD Ryzen Thread Ripper Proプロセッサー搭載、
    NVIDIA GPU最大4基搭載可能なDeep Learning向け
    ハイエンドGPUワークステーション

    AMD Ryzen
    GPU搭載可能
    最大1TBメモリ
    タワーType
    IPMI2.0標準搭載
  • HPC5000-XSR216TS

    高拡張HPC
    ワークステーション

    最大80コア(2CPU)
    GPU最大1基搭載可
    最大2TBメモリ
    HDD/SSD 4台搭載可
    タワーType
  • 販売終了製品:HPC5000-XILGPU4TS

    ラックマウントにも対応する
    ハイエンドGPUワークステーション

    最大80コア(2CPU)
    GPU4基搭載可能
    最大2TBメモリ
    タワーType
    IPMI2.0標準搭載
  • HPC5000-XSRGPU4TS

    NVIDIA® GPUを2CPUで4基搭載可能
    Deep Learning向けハイエンドGPUワークステーション

    最大120コア(2CPU)
    GPU4基搭載可能
    最大2TBメモリ
    タワーType
  • HPC3000-EGNGPU10R4S

    AMD EPYC™ (Genoa)プロセッサーを1基搭載、NVIDIA® GPUを最大10基搭載可能
    Deep Learning向けハイエンドGPUサーバー

    最大128コア(1CPU)
    GPU10基搭載可能
    最大3TB
    HDD/SSD8台搭載可
    4Uラックマウント
  • HPC5000-XSRGPU10R4S

    NVIDIA® GPUを最大10基搭載可能な2CPU構成の
    Deep Learning向けハイエンドGPUサーバー

    最大120コア(2CPU)
    GPU10基搭載可能
    最大4TBメモリ
    4Uラックマウント
  • HPC5000-XSRGPU8R8S-NVL

    NVIDIA® H200/H100 SXM5を8基搭載可能な2CPU構成の
    Deep Learning向けハイエンドGPUサーバー

    GPU8基搭載可能
    最大4TBメモリ
    4Uラックマウント
  • HPC5000-EGNGPU8R4S

    AMD EPYC™ (Genoa)プロセッサーを2基搭載し、NVIDIA® GPUを最大8基搭載可能
    Deep Learning向けハイエンドGPUサーバー

    最大256コア(2CPU)
    GPU8基搭載可能
    最大3TB
    IPMI2.0標準搭載
    HDD/SSD24台搭載可
    4Uラックマウント
  • HPC5000-EGNGPU8R8S-NVL

    NVIDIA® H200/H100 SXM5を8基搭載可能な2CPU構成の
    Deep Learning向けハイエンドGPUサーバー

    最大192コア(2CPU)
    GPU8基搭載可能
    最大3TB
    HDD/SSD24台搭載可
    4Uラックマウント
  • 販売終了製品:HPC5000-XSRGPU4TS-LC

    最大4基の水冷式NVIDIA® A100と
    2基のCPUを搭載可能な静音性に優れた
    水冷式ハイエンドGPUワークステーション

    水冷GPU4基搭載可能
    最大64コア(2CPU)
    最大1TBメモリ
    タワーType
    IPMI2.0標準搭載
  • HPC3000-ETN112R1S2-A

    AMD第5世代EPYC™ (Turin) プロセッサーを1基搭載
    優れたコストパフォーマンスを実現するエントリーHPCサーバー

    最大160コア(1CPU)
    最大1.5TBメモリ
    GPU2基搭載可
    NVMe/SATAドライブ 12台搭載可
    1Uラックマウント
  • 販売終了製品:HPC2000-CAL104TA

    最大16コアのインテル® Core™ i9プロセッサー搭載
    HPCワークステーション

    第12世代Core™ i9
    DDR5-4800対応
    最大128GBメモリ
    タワーType
    GPU搭載可能
    <img src="/product/wp-content/uploads/sites/3/2023/02/win11.png" height="16px" width="87px" style="margin-bottom:2px; margin-right:2px;"> 対応
  • 販売終了製品:HPC5000-XIL216TS-D8

    高拡張HPC
    ワークステーション

    GPU最大2基搭載可
    最大80コア(2CPU)
    最大2TBメモリ
    HDD8台搭載可
    タワーType
  • NVIDIA DGX H100

    NVIDIA H100上に構築された
    世界初のAIシステム

    8基のNVIDIA H100 TensorコアGPUに
    より32 PFLOPS のAI演算性能
    すべてのAIワークロードに対応する
    ユニバーサルシステム
    7.2 テラバイト/秒の GPU 間双方向帯域幅
    H100 TensorCore
    データ分析、高性能コンピューティングで
    これまでにない加速
  • 販売終了製品:HPC5000-XILGPU6R2S

    NVIDIA® GPUを最大6基搭載可能
    2UサイズのハイエンドGPUラックマウントサーバー

    GPU6基搭載可能
    最大2TBメモリ
    2Uラックマウント
    IPMI2.0標準搭載
  • 販売終了製品:HPC3000-XILGPU4TS

    ラックマウントにも対応する
    ハイエンドGPUワークステーション

    GPU4基搭載可能
    最大40コア(1CPU)
    最大2TBメモリ
    タワーType
    IPMI2.0標準搭載
  • 販売終了製品:HPC5000-XILGPU10R4S

    4UサイズのスーパーハイエンドGPUラックマウントサーバー

    GPU10基搭載可能
    最大4TBメモリ
    4Uラックマウント
    IPMI2.0標準搭載
  • 販売終了製品:HPC5000-EMLGPU8R4S

    AMD EPYC™ 7003シリーズ (Milan)プロセッサーを2基搭載、NVIDIA® GPUを8基搭載可
    4Uサイズ・Gen4対応のスーパーハイエンドGPUラックマウントサーバー

    AMD EPYC™2CPU
    メモリ最大4TB
    GPU8基搭載可能
    4Uラックマウント
    IPMI2.0標準搭載
  • 販売終了製品:HPC3000-EMLGPU4TS

    NVIDIA® GPUを1CPUで4基搭載可能
    ラックマウントにも対応するDeep Learning 向けGPUワークステーション

    GPU4基搭載可能
    最大64コア(1CPU)
    最大1TBメモリ
    PCI-Express 4.0対応
    IPMI2.0標準搭載
  • 販売終了製品:HPC5000-XCLGPU5TT

    ラックマウントにも対応する
    ハイエンドGPUワークステーション

    GPU5基搭載可能
    最大56コア(2CPU)
    最大1.5TBメモリ
    タワーType
    IPMI2.0標準搭載
  • 販売終了製品:HPC3000-XCLGPU4TS (Rev.2)

    ラックマウントにも対応する
    Deep Learning 向けGPUワークステーション

    GPU4基搭載可能
    最大28コア(1CPU)
    最大768GBメモリ
    タワーType
    IPMI2.0標準搭載
  • 販売終了製品:HPC3000-ERMGPU4TG

    1CPU (最大64コア)
    NVIDIA®GPU を最大4 基搭載可能な
    ワークステーション

    最大64コア(1CPU)
    最大1TBメモリ
    HDD2台搭載
    タワーType
    IPMI2.0標準搭載
    GPU最大4基搭載可
  • 販売終了製品:NVIDIA DGX A100

    NVIDIA A100上に構築された
    世界初のAIシステム

    8基のNVIDIA A100 TensorコアGPUにより5 PFLOPS のAI演算性能
    すべてのAIワークロードに対応するユニバーサルシステム
    GPU用メモリは帯域幅12.4TB/秒
    A100 TensorCore
    データ分析、高性能コンピューティングで
    これまでにない加速
  • 販売終了製品:HPC5000-XCLGPU4TS

    ラックマウントにも対応する
    ハイエンドGPUワークステーション

    GPU4基搭載可能
    最大56コア(2CPU)
    最大1.5TBメモリ
    タワーType
    IPMI2.0標準搭載
  • 販売終了製品:HPC3000-XCLGPU4R1T

    省スペース高密度実装GPUサーバー

    GPU4基搭載可能
    最大28コア(1CPU)
    最大768GBメモリ
    1Uラックマウント
    IPMI2.0標準搭載
  • 販売終了製品:HPC5000-XCLGPU20R4Sv2

    NVIDIA® GPU を最大 20 基搭載可能
    AI / Deep Learning向け超高密度GPUサーバー

    GPU最大20基搭載
    最大3TBメモリ
    4Uラックマウント
    IPMI2.0標準搭載
  • 販売終了製品:HPC5000-XCLGPU10R4S

    4UサイズのスーパーハイエンドGPUラックマウントサーバー

    GPU10基搭載可能
    最大3TBメモリ
    4Uラックマウント
    IPMI2.0標準搭載
  • 販売終了製品:HPC5000-XCLGPU8R4S

    4UサイズのスーパーハイエンドGPUラックマウントサーバー

    GPU8基搭載可能
    最大3TBメモリ
    4Uラックマウント
    IPMI2.0標準搭載
  • 販売終了製品:HPC5000-XCLGPU8R2G

    HPCを加速する
    ハイエンドマルチGPUサーバー

    GPU8基搭載可能
    最大56コア(CPU)
    最大1.5TBメモリ
    2Uラックマウント
    IPMI2.0標準搭載
  • 販売終了製品:HPC5000-XCLGPU6R2S

    2UサイズのハイエンドGPU
    ラックマウントサーバー

    GPU6基搭載可能
    最大1.5TBメモリ
    2Uラックマウント
    IPMI2.0標準搭載
  • 販売終了製品:HPC5000-XCLGPU4R1S

    1Uサイズの高密度実装GPGPU
    ラックマウントサーバー

    GPU4基搭載可能
    最大56コア(2CPU)
    最大1.5TBメモリ
    1Uラックマウント
    IPMI2.0標準搭載
  • HPC・DL・AI製品&サービス
  • -ハードウェア
  • -ソフトウェア
  • -サービス
  • AI / Deep Learning特設サイト
  • サイエンスクラウド
  • 計算化学
  • -受託サービス
  • -クラウドサービス
  • -ソフトウェア
  • -技術情報
  • -ソリューション検索
  • 技術情報
  • サポート
  • 導入事例
  • お問い合わせ
  • -コーポレート / CSR
  • -HPC・DL・AI / 計算化学
  • -AI / Deep Learning 特設サイト
  • -書籍購入
  • -計算化学お試しプラン登録申請
  • -計算化学有料プラン登録申請
  • -メールニュース配信登録
  • 資料ダウンロード
  • -HPC・Deep Learning・AI
  • -計算化学
  • 企業情報
  • IR情報
  • 採用情報
  • Tech Blog
  • ニュース
  • プレスリリース
  • プライバシーポリシー

Copyright© 2006 - 2025 HPC SYSTEMS Inc. , All Rights Reserved.

  • HOME
  • HPC/AI製品&サービス
    • ハードウェア
    • ソフトウェア
    • サイエンスクラウド
    • 計算化学
    • AI / Deep Learning 特設サイト
    • お見積りシミュレーション
    • 分散ファイルシステム
    • 技術情報
    • 導入事例
  • 産業用コンピューティング
    • 産業用PC
    • ディープラーニング用PC
    • 頑丈ラップトップ
    • 産業用タブレット
    • 車載用パネルPC
    • 支援サービス
    • 技術情報
  • 企業情報
    • 会社概要
    • 経営理念
    • 社長挨拶
    • 役員紹介
    • 主要取引先
    • パートナー企業
    • サステナビリティ
  • IR情報
  • お問い合わせ一覧
    • コーポレート/ CSRお問い合わせフォーム
    • HPC・Deep Learning・AI / 計算化学お問い合わせフォーム
    • AI / Deep Learning 特設サイト お問い合わせフォーム
    • 書籍購入フォーム
    • 計算化学 お試しプラン登録申請フォーム
    • 計算化学 有料プラン登録申請フォーム
  • 資料ダウンロード
    • HPC・Deep Learning・AI 資料ダウンロード
    • 計算化学資料ダウンロード
  • 採用情報
  • Tech Blog
  • ニュース
  • プレスリリース
  • プライバシーポリシー