感触で始め、データで決める
ローカルLLMハードウェア設計講座LLM導入を、スペック表ではなく実測データで判断できるように。
Ollamaで“感触”を掴み、vLLMで“構成”を決める
実務直結の評価軸を、基礎とベンチマークの2部構成で学びます。
この講座で得られること
GPU選定の要点を整理
VRAM、演算精度(FP4/INT8/FP16)、アクセス速度など、実務で外せない観点を体系化。
ベンチマークの読み解き
ollama –verbose の eval rate から、vLLMでの実用を見据えたベンチマークまで。「速さ」だけでなく「壊れない範囲」を評価。
意思決定の納得感
目的に応じたハードウェア構成に自信を持った選定を。
対象者
こんな方におすすめ
- ローカルLLMを社内で運用したいエンジニア / 研究者
- GPU搭載サーバー / ワークステーションの選定担当者
- PoCから本運用への移行を検討しているチーム
- ベンチマーク指標を使って根拠ある提案をしたい方
前提知識
Python / Dockerの基本用語を聞いたことがあるレベルで可。
GPUやLLMの基礎は講義内でカバーします。
講座内容(40分×2部)
第1部:基礎知識編(40分)
- ローカルLLMの目的と制約(セキュリティ / 可用性 / カスタマイズ)
- GPUが必要な理由:行列演算と並列性、CPUとの役割
- VRAM容量の3要素:フットプリント / KVキャッシュ / 中間バッファ
- VRAMの速度:速度はパフォーマンスに直結する
- 精度と量子化:FP4, INT8, FP16 のトレードオフ
- 用途別の構成例:試す / 開発 / 運用
第2部:ベンチマーク編(40分)
- なぜ測るのか:壊れない範囲の把握
- Ollama:–verbose 指標の活用(eval rate ほか)
- vLLM:TTFT / TPOT / ITL と出力トークンスループット
- 典型分析:同時実行×待機時間、同時実行×スループット、トークン長×TPOT、単GPU×複数GPU
- 設計判断:コスト×応答性、スケールの見極め
開催情報
日時・会場
開催日:2025年9月25日(木)
時 間:開始 13:30(開場13:15) / 終了 15:10(休憩10分含む)
会 場:品川シーズンテラスカンファレンス カンファレンスA
東京都港区港南1丁目2番70号 / JR「品川」駅港南口より徒歩6分
参加要項
参加費:無料
定 員:40
申込締切:2025年9月22日(月)
登壇者
越前谷 靖幸(HPCシステムズ株式会社 HPC事業部 フィールドアプリケーションエンジニア)
GPU搭載サーバー / ワークステーションの設計・導入支援を担当、LLM運用におけるハードウェア評価指針の啓蒙に注力。
実運用に直結する「測り方」と「読み解き」を平易に解説いたします。
よくあるご質問
ハンズオンはありますか?
ございません。スライドを使った講義形式です。
どのGPUメーカーが対象ですか?
主にNVIDIA(CUDA)を前提に解説します。
資料は配布されますか?
当日受付時に資料のダウンロードリンクのQRコード、リンク先アドレス記載のプリントをお配りいたします。
自社課題の相談は可能ですか?
LLM運用は各社の戦略に関わる内容も含まれることが想定されるため、セミナー内では質疑の時間を設けておりません。別途個別相談で承ります。
セミナーの写真撮影・録画は可能ですか?
申し訳ございませんが、固くお断りいたします。
同業者ですが参加できますか?
別途ご相談ください。
営業活動目的での参加はお控え頂けますようお願いいたします。