00. 【目次】LLMエンジニアリング完全ガイド 全37講座
ChatGPTやClaudeの裏側を理解し、自分だけのAIモデルを作れるようになる!このシリーズでは、大規模言語モデル(LLM)のファインチューニングからデプロイまでを、初心者にもわかりやすく解説しています。
はじめに(01-06)
| # | タイトル | 概要 |
|---|---|---|
| 01 | ChatGPTの裏側!LLMエンジニアリングの世界へようこそ | プログラム全体の概要と学習目標 |
| 02 | 準備はOK?LLMエンジニアリングを始める前の自己チェック | 前提条件と必要なマインドセット |
| 03 | 9週間の冒険!LLMエンジニアリングの完全ロードマップ | カリキュラム全体の流れ |
| 04 | 成功への戦略!このプログラムを最大限に活用する方法 | 効果的な学習方法 |
| 05 | プラットフォームの使い方をマスター | 学習環境のナビゲーション |
| 06 | いよいよ実践!最初のカスタムLLMを作ろう | モジュール1プロジェクト概要 |
Week 1: LLMの基礎(07-14)
| # | タイトル | 概要 |
|---|---|---|
| 07 | ChatGPTの秘密を解明!言語モデルアーキテクチャの世界 | Transformer、GPT、BERTの仕組み |
| 08 | LLMの世界地図!フロンティアvsオープンソース | モデルの種類と選び方 |
| 09 | ファインチューニング?それともRAG? | 最適なアプローチの選択 |
| 10 | ファインチューニングの選択肢を理解しよう | モデル、インフラ、フレームワーク |
| 11 | どのAIモデルを選ぶ?ベンチマークの読み方 | ベンチマークとリーダーボード |
| 12 | 無料でGPUが使える!Google Colabの始め方 | 開発環境のセットアップ |
| 13 | ベンチマークを自分で動かしてみよう! | スコアの再現方法 |
| 14 | Week 1 知識チェック!理解度を確認しよう | 基礎の復習クイズ |
Week 2: ファインチューニングの構成要素(15-24)
| # | タイトル | 概要 |
|---|---|---|
| 15 | AIはどうやって文章を作るの?次トークン予測 | LLMの基本原理 |
| 16 | AIはどうやって賢くなる?損失関数とマスキング | 学習の仕組み |
| 17 | ファインチューニングの全体像!SFTロードマップ | 教師ありファインチューニング |
| 18 | データが王様!データセットの準備方法 | データフォーマットとベストプラクティス |
| 19 | テキストを数値に変換!トークン化とパディング | テキスト前処理の基本 |
| 20 | 命令ファインチューニングの秘密!アシスタントのみマスキング | 効率的な学習手法 |
| 21 | AIの数字の秘密!FP32からINT4までデータ型解説 | 精度とメモリのトレードオフ |
| 22 | 大きなAIモデルを小さくする魔法!量子化を徹底解説 | モデル圧縮の技術 |
| 23 | 少ないリソースで大きなAIを育てる!LoRAとQLoRA | パラメータ効率的ファインチューニング |
| 24 | Week 2の学習チェック! | 構成要素の復習クイズ |
Week 3: 実践!LLMファインチューニング(25-31)
| # | タイトル | 概要 |
|---|---|---|
| 25 | Week 3概要:いよいよ実践!End-to-Endファインチューニング | 実践への導入 |
| 26 | SAMSumプロジェクト始動!ベースライン測定 | 対話要約タスクの準備 |
| 27 | OpenAIでGPTモデルをファインチューニング! | マネージド型API活用 |
| 28 | Llama 3をQLoRAでファインチューニング! | 完全なトレーニングパイプライン |
| 29 | RunPodでLLMをファインチューニング! | クラウドGPU環境セットアップ |
| 30 | Weights & Biasesで実験追跡! | 体系的な実験管理 |
| 31 | LoRAのパラメータ調整術!実験データから学ぶ | ハイパーパラメータチューニング |
Week 4: スケーリングとデプロイ(32-37)
| # | タイトル | 概要 |
|---|---|---|
| 32 | 1つのGPUでは足りない?複数GPUで訓練する方法 | マルチGPU入門 |
| 33 | LLM訓練に必要なGPUメモリはどれくらい? | メモリ要件の計算方法 |
| 34 | GPUメモリを節約する実践テクニック集! | メモリ最適化手法 |
| 35 | データ並列化でLLM訓練を高速化! | マルチGPU活用術 |
| 36 | DeepSpeed ZeROで巨大モデルを訓練! | メモリシャーディングの威力 |
| 37 | LLMエンジニアリング認定への最終ステップ! | モデルのデプロイと監視 |
学習のヒント
- 超初心者の方: まずは01→07→15→21の順で基礎概念を理解しましょう
- 実践重視の方: 06→25→26→27→28でハンズオン中心に進めましょう
- じっくり派の方: 01から順番に全37講座を制覇しましょう!
※このシリーズは随時更新されます。38以降の講座も追加予定です。

コメント