いろいろ SAMSum Fine-Tuningプロジェクト:ベースラインパフォーマンスの確立 SAMSum Fine-Tuningプロジェクト:ベースラインパフォーマンスの確立ベースライン評価評価メトリックHugging FaceLLM Fine-Tuningモデルベンチマークオープンウェイトモデルパフォーマンス測定パフォーマンスメ... 2025.11.27 いろいろ
いろいろ Week 3概要:最初のLLMをEnd-to-EndでFine-Tuning Week 3概要:最初のLLMをEnd-to-EndでFine-TuningLLM Fine-TuningロードマップLLM Fine-Tuningステップ実践的LLMトレーニングトレーニングワークフロー🏠ホーム - 全レッスン⬅️前へ -... 2025.11.27 いろいろ
いろいろ Week 2 Knowledge Check:教師ありFine-Tuning構成要素 Week 2 Knowledge Check:教師ありFine-Tuning構成要素Fine-TuningクイズKnowledge CheckLoRAとQLoRA量子化手法自己評価トークン化とマスキングトレーニング基礎Week 2評価これは... 2025.11.27 いろいろ
いろいろ LoRAとQLoRA: LLMのためのパラメータ効率的Fine-Tuning LoRAとQLoRA: LLMのためのパラメータ効率的Fine-Tuning4-bit量子化Fine-Tuning最適化GPU最適化LoRALow-Rank Adaptationメモリ効率モデルアダプターParameter-Efficien... 2025.11.27 いろいろ
いろいろ LLMメモリ要件:必要なGPU VRAMの量 LLMメモリ要件:必要なGPU VRAMの量活性化メモリ分散トレーニング完全Fine-TuningGPUメモリLLMトレーニングLoRA Fine-Tuningモデルスケーリングシーケンス長トレーニング最適化VRAM要件Ready Tens... 2025.11.27 いろいろ
いろいろ 量子化とダブル量子化: LLMを効率的に圧縮する方法 量子化とダブル量子化: LLMを効率的に圧縮する方法Bitsandbytesダブル量子化INT4INT8LLM効率化メモリ最適化モデル圧縮モデル量子化NF4QLoRA量子化ブロックスケールファクターReady TensorMohamed A... 2025.11.27 いろいろ
いろいろ LLMエンジニアリングの準備:前提条件、自己評価、およびマインドセット LLMエンジニアリングの準備:前提条件、自己評価、およびマインドセットAI認定AWSファインチューニングHugging Face学習マインドセットLLMエンジニアリングLLMEDモデルデプロイメントPyTorch自己評価Ready Tens... 2025.11.27 いろいろ
いろいろ Week 4概要:単一GPUを超えたLLMトレーニングのスケーリング Week 4概要:単一GPUを超えたLLMトレーニングのスケーリングAxolotlトレーニングデータ並列化DeepSpeed分散トレーニングFSDPGPUメモリLLMトレーニングモデルスケーリングマルチGPUワークフロー再現性トレーニング最... 2025.11.27 いろいろ
いろいろ LLMの評価:Hugging Face Leaderboardベンチマークの再現 LLMの評価:Hugging Face Leaderboardベンチマークの再現評価フレームワークファインチューニングHugging FaceリーダーボードLLMベンチマーキングLLM評価モデル比較オープンソースツールパフォーマンステスト再... 2025.11.27 いろいろ
いろいろ ディープラーニングにおけるデータ型: FP32、FP16、BF16、INT8、INT4の解説 ディープラーニングにおけるデータ型: FP32、FP16、BF16、INT8、INT4の解説BF16データ型ディープラーニング浮動小数点FP16FP32GPU Memory推論最適化INT8モデル圧縮モデル精度訓練最適化Wasif Mehm... 2025.11.27 いろいろ