LLMエンジニアリングカリキュラム:ファインチューニングとデプロイメントへの完全なロードマップ
- AI認定
- AWS SageMaker
- Axolotl
- 認定ロードマップ
- DeepSpeed
- ファインチューニング
- Hugging Face
- LLMデプロイメント
- LLMエンジニアリング
- プログラムカリキュラム
- vLLM
- Ready Tensor
- Mohamed Abdelhamid
- Wasif Mehmood
- Rahul Parajuli
⬅️ 前へ LLMエンジニアリングの準備
最初にこれを見る
この動画は、各モジュールを説明し、週ごとのフローを解説し、キャップストーンプロジェクトが認定目標とどのように結びついているかを示します。
プログラム構成
プログラムは2つのモジュールに分かれています。最初のモジュールは大規模言語モデルのファインチューニングに焦点を当て、2番目のモジュールはデプロイメントと本番グレードのエンジニアリングに焦点を当てています。
モジュール1:LLMファインチューニング&最適化
Hugging Face、DeepSpeed、Axolotlを使用して、特定のドメイン向けにオープンソースの基盤モデルを適応させる方法を学びます。
このモジュールでは、データセットの準備、パラメータ効率的なトレーニング、評価、最適化について説明します。
最後には、評価レポートと量子化された重みを含むファインチューニングされたモデルを完成させます。
モジュール2:LLMデプロイメント&本番エンジニアリング
SageMaker、Bedrock、vLLMなどのプラットフォームでモデルをデプロイ、監視、保守する方法を学びます。
このモジュールは、推論、スケーラビリティ、コストパフォーマンスのトレードオフ、本番のベストプラクティスに焦点を当てています。
各モジュールは、認定に貢献するキャップストーンプロジェクトで締めくくられます。
9週間の学習パス
プログラムの詳細なスケジュールは次のとおりです。
自分のペースで学習
このプログラムは自己ペースです — 週番号は推奨される順序であり、締め切りではありません。
すでに知っていることに基づいて、より速く、より遅く、またはジャンプして移動してください。
進捗は、両方のプロジェクトを完了し、認定ルーブリックを満たすことにのみ依存します。
使用するツール
現代のAIチームが依存している同じツールを使った実践的な経験を得ることができます。
- Hugging Face:モデルのトレーニングと管理
- DeepSpeed:マルチGPU最適化
- Axolotl:再現可能なファインチューニングワークフロー
- Bitsandbytes / GGUF:量子化
- vLLM:効率的な推論
- AWS SageMaker & Bedrock:デプロイメントとスケーリング
- Modal:サーバーレスデプロイメント
- LangSmith & CloudWatch:監視と可観測性
- Giskard:バイアスと安全性のチェック
キャップストーンプロジェクト
学習したすべてが、2つの主要な成果物につながります。
- キャップストーン1:定義されたタスクのためにモデルをファインチューニングして最適化する。
- キャップストーン2:監視とドキュメントを備えたライブエンドポイントとしてそのモデルをデプロイする。
これらのプロジェクトは、プロフェッショナルなポートフォリオを形成し、認定の基礎となります。
最後に
このロードマップは、理論的な理解だけでなく、実際の実践的な能力を構築するのに役立つように設計されています。
レッスンを進めるにつれて、本番チームが毎日使用している同じツールを使用して、大規模言語モデルをファインチューニング、評価、デプロイする方法を学びます。
準備ができたら、モジュール1:LLMファインチューニング&最適化に進み、実践的な作業の最初のフェーズを開始してください。
🏠 ホーム – すべてのレッスン
➡️ 次へ – このプログラムで成功する方法
- これからの旅

コメント