00. 【目次】LLMエンジニアリング完全ガイド 全37講座

スポンサーリンク

00. 【目次】LLMエンジニアリング完全ガイド 全37講座

ChatGPTやClaudeの裏側を理解し、自分だけのAIモデルを作れるようになる!このシリーズでは、大規模言語モデル(LLM)のファインチューニングからデプロイまでを、初心者にもわかりやすく解説しています。


はじめに(01-06)

# タイトル 概要
01 ChatGPTの裏側!LLMエンジニアリングの世界へようこそ プログラム全体の概要と学習目標
02 準備はOK?LLMエンジニアリングを始める前の自己チェック 前提条件と必要なマインドセット
03 9週間の冒険!LLMエンジニアリングの完全ロードマップ カリキュラム全体の流れ
04 成功への戦略!このプログラムを最大限に活用する方法 効果的な学習方法
05 プラットフォームの使い方をマスター 学習環境のナビゲーション
06 いよいよ実践!最初のカスタムLLMを作ろう モジュール1プロジェクト概要

Week 1: LLMの基礎(07-14)

# タイトル 概要
07 ChatGPTの秘密を解明!言語モデルアーキテクチャの世界 Transformer、GPT、BERTの仕組み
08 LLMの世界地図!フロンティアvsオープンソース モデルの種類と選び方
09 ファインチューニング?それともRAG? 最適なアプローチの選択
10 ファインチューニングの選択肢を理解しよう モデル、インフラ、フレームワーク
11 どのAIモデルを選ぶ?ベンチマークの読み方 ベンチマークとリーダーボード
12 無料でGPUが使える!Google Colabの始め方 開発環境のセットアップ
13 ベンチマークを自分で動かしてみよう! スコアの再現方法
14 Week 1 知識チェック!理解度を確認しよう 基礎の復習クイズ

Week 2: ファインチューニングの構成要素(15-24)

# タイトル 概要
15 AIはどうやって文章を作るの?次トークン予測 LLMの基本原理
16 AIはどうやって賢くなる?損失関数とマスキング 学習の仕組み
17 ファインチューニングの全体像!SFTロードマップ 教師ありファインチューニング
18 データが王様!データセットの準備方法 データフォーマットとベストプラクティス
19 テキストを数値に変換!トークン化とパディング テキスト前処理の基本
20 命令ファインチューニングの秘密!アシスタントのみマスキング 効率的な学習手法
21 AIの数字の秘密!FP32からINT4までデータ型解説 精度とメモリのトレードオフ
22 大きなAIモデルを小さくする魔法!量子化を徹底解説 モデル圧縮の技術
23 少ないリソースで大きなAIを育てる!LoRAとQLoRA パラメータ効率的ファインチューニング
24 Week 2の学習チェック! 構成要素の復習クイズ

Week 3: 実践!LLMファインチューニング(25-31)

# タイトル 概要
25 Week 3概要:いよいよ実践!End-to-Endファインチューニング 実践への導入
26 SAMSumプロジェクト始動!ベースライン測定 対話要約タスクの準備
27 OpenAIでGPTモデルをファインチューニング! マネージド型API活用
28 Llama 3をQLoRAでファインチューニング! 完全なトレーニングパイプライン
29 RunPodでLLMをファインチューニング! クラウドGPU環境セットアップ
30 Weights & Biasesで実験追跡! 体系的な実験管理
31 LoRAのパラメータ調整術!実験データから学ぶ ハイパーパラメータチューニング

Week 4: スケーリングとデプロイ(32-37)

# タイトル 概要
32 1つのGPUでは足りない?複数GPUで訓練する方法 マルチGPU入門
33 LLM訓練に必要なGPUメモリはどれくらい? メモリ要件の計算方法
34 GPUメモリを節約する実践テクニック集! メモリ最適化手法
35 データ並列化でLLM訓練を高速化! マルチGPU活用術
36 DeepSpeed ZeROで巨大モデルを訓練! メモリシャーディングの威力
37 LLMエンジニアリング認定への最終ステップ! モデルのデプロイと監視

学習のヒント

  • 超初心者の方: まずは01→07→15→21の順で基礎概念を理解しましょう
  • 実践重視の方: 06→25→26→27→28でハンズオン中心に進めましょう
  • じっくり派の方: 01から順番に全37講座を制覇しましょう!

※このシリーズは随時更新されます。38以降の講座も追加予定です。

コメント

タイトルとURLをコピーしました