ホーム > セミナー・イベント > 感触で始め、データで決める ― ローカルLLMハードウェア設計講座
2025年9月25日(木)13:30~15:10 / 40分×2部(休憩10分) / スクール形式・講義

感触で始め、データで決めるローカルLLMハードウェア設計講座

LLM導入を、スペック表ではなく実測データで判断できるように。
Ollamaで“感触”を掴み、vLLMで“構成”を決める
実務直結の評価軸を、基礎とベンチマークの2部構成で学びます。

参加申込はこちら
オフライン レベル: 初心者〜中級

この講座で得られること

GPU選定の要点を整理

VRAM、演算精度(FP4/INT8/FP16)、アクセス速度など、実務で外せない観点を体系化。

ベンチマークの読み解き

ollama –verboseeval rate から、vLLMでの実用を見据えたベンチマークまで。「速さ」だけでなく「壊れない範囲」を評価。

意思決定の納得感

目的に応じたハードウェア構成に自信を持った選定を。

対象者

こんな方におすすめ

  • ローカルLLMを社内で運用したいエンジニア / 研究者
  • GPU搭載サーバー / ワークステーションの選定担当者
  • PoCから本運用への移行を検討しているチーム
  • ベンチマーク指標を使って根拠ある提案をしたい方

前提知識

Python / Dockerの基本用語を聞いたことがあるレベルで可。
GPUやLLMの基礎は講義内でカバーします。

スライド講義(ハンズオンなし)

講座内容(40分×2部)

第1部:基礎知識編(40分)

  • ローカルLLMの目的と制約(セキュリティ / 可用性 / カスタマイズ)
  • GPUが必要な理由:行列演算と並列性、CPUとの役割
  • VRAM容量の3要素:フットプリント / KVキャッシュ / 中間バッファ
  • VRAMの速度:速度はパフォーマンスに直結する
  • 精度と量子化:FP4, INT8, FP16 のトレードオフ
  • 用途別の構成例:試す / 開発 / 運用

第2部:ベンチマーク編(40分)

  • なぜ測るのか:壊れない範囲の把握
  • Ollama:–verbose 指標の活用(eval rate ほか)
  • vLLM:TTFT / TPOT / ITL と出力トークンスループット
  • 典型分析:同時実行×待機時間、同時実行×スループット、トークン長×TPOT、単GPU×複数GPU
  • 設計判断:コスト×応答性、スケールの見極め

開催情報

日時・会場

開催日:2025年925日(
時 間:開始 13:30(開場13:15) / 終了 15:10(休憩10分含む)
会 場:品川シーズンテラスカンファレンス カンファレンスA
東京都港区港南1丁目2番70号 / JR「品川」駅港南口より徒歩6分

参加要項

参加費:無料
定 員:40
申込締切:2025年9月22日(月)

登壇者

越前谷 靖幸(HPCシステムズ株式会社 HPC事業部 フィールドアプリケーションエンジニア)

GPU搭載サーバー / ワークステーションの設計・導入支援を担当、LLM運用におけるハードウェア評価指針の啓蒙に注力。
実運用に直結する「測り方」と「読み解き」を平易に解説いたします。

よくあるご質問

ハンズオンはありますか?

ございません。スライドを使った講義形式です。

どのGPUメーカーが対象ですか?

主にNVIDIA(CUDA)を前提に解説します。

資料は配布されますか?

当日受付時に資料のダウンロードリンクのQRコード、リンク先アドレス記載のプリントをお配りいたします。

自社課題の相談は可能ですか?

LLM運用は各社の戦略に関わる内容も含まれることが想定されるため、セミナー内では質疑の時間を設けておりません。別途個別相談で承ります。

セミナーの写真撮影・録画は可能ですか?

申し訳ございませんが、固くお断りいたします。

同業者ですが参加できますか?

別途ご相談ください。
営業活動目的での参加はお控え頂けますようお願いいたします。

Contact
お問い合わせ