いろいろ Week 2 Knowledge Check:教師ありFine-Tuning構成要素 Week 2 Knowledge Check:教師ありFine-Tuning構成要素Fine-TuningクイズKnowledge CheckLoRAとQLoRA量子化手法自己評価トークン化とマスキングトレーニング基礎Week 2評価これは... 2025.11.27 いろいろ
いろいろ LoRAとQLoRA: LLMのためのパラメータ効率的Fine-Tuning LoRAとQLoRA: LLMのためのパラメータ効率的Fine-Tuning4-bit量子化Fine-Tuning最適化GPU最適化LoRALow-Rank Adaptationメモリ効率モデルアダプターParameter-Efficien... 2025.11.27 いろいろ
いろいろ LLMメモリ要件:必要なGPU VRAMの量 LLMメモリ要件:必要なGPU VRAMの量活性化メモリ分散トレーニング完全Fine-TuningGPUメモリLLMトレーニングLoRA Fine-Tuningモデルスケーリングシーケンス長トレーニング最適化VRAM要件Ready Tens... 2025.11.27 いろいろ
いろいろ 量子化とダブル量子化: LLMを効率的に圧縮する方法 量子化とダブル量子化: LLMを効率的に圧縮する方法Bitsandbytesダブル量子化INT4INT8LLM効率化メモリ最適化モデル圧縮モデル量子化NF4QLoRA量子化ブロックスケールファクターReady TensorMohamed A... 2025.11.27 いろいろ
いろいろ LLMエンジニアリングの準備:前提条件、自己評価、およびマインドセット LLMエンジニアリングの準備:前提条件、自己評価、およびマインドセットAI認定AWSファインチューニングHugging Face学習マインドセットLLMエンジニアリングLLMEDモデルデプロイメントPyTorch自己評価Ready Tens... 2025.11.27 いろいろ
いろいろ Week 4概要:単一GPUを超えたLLMトレーニングのスケーリング Week 4概要:単一GPUを超えたLLMトレーニングのスケーリングAxolotlトレーニングデータ並列化DeepSpeed分散トレーニングFSDPGPUメモリLLMトレーニングモデルスケーリングマルチGPUワークフロー再現性トレーニング最... 2025.11.27 いろいろ
いろいろ LLMの評価:Hugging Face Leaderboardベンチマークの再現 LLMの評価:Hugging Face Leaderboardベンチマークの再現評価フレームワークファインチューニングHugging FaceリーダーボードLLMベンチマーキングLLM評価モデル比較オープンソースツールパフォーマンステスト再... 2025.11.27 いろいろ
いろいろ ディープラーニングにおけるデータ型: FP32、FP16、BF16、INT8、INT4の解説 ディープラーニングにおけるデータ型: FP32、FP16、BF16、INT8、INT4の解説BF16データ型ディープラーニング浮動小数点FP16FP32GPU Memory推論最適化INT8モデル圧縮モデル精度訓練最適化Wasif Mehm... 2025.11.27 いろいろ
いろいろ Google Colabの使用:LLM開発への最速スタート Google Colabの使用:LLM開発への最速スタートAI実験クラウド環境Google ColabGPUアクセスHugging FaceLLM開発機械学習セットアップモデルファインチューニングプロトタイピングPythonノートブックWa... 2025.11.27 いろいろ
いろいろ LLMエンジニアリング&デプロイメントへようこそ:認定プログラム概要(LLMED) LLMエンジニアリング&デプロイメントへようこそ:認定プログラム概要(LLMED)AI認定ファインチューニングLLMデプロイメントLLMエンジニアリングLLMEDモデル最適化NLPエンジニアリングReady TensorMohamed Ab... 2025.11.27 いろいろ