いろいろ

いろいろ

Week 2 Knowledge Check:教師ありFine-Tuning構成要素

Week 2 Knowledge Check:教師ありFine-Tuning構成要素Fine-TuningクイズKnowledge CheckLoRAとQLoRA量子化手法自己評価トークン化とマスキングトレーニング基礎Week 2評価これは...
いろいろ

LoRAとQLoRA: LLMのためのパラメータ効率的Fine-Tuning

LoRAとQLoRA: LLMのためのパラメータ効率的Fine-Tuning4-bit量子化Fine-Tuning最適化GPU最適化LoRALow-Rank Adaptationメモリ効率モデルアダプターParameter-Efficien...
いろいろ

LLMメモリ要件:必要なGPU VRAMの量

LLMメモリ要件:必要なGPU VRAMの量活性化メモリ分散トレーニング完全Fine-TuningGPUメモリLLMトレーニングLoRA Fine-Tuningモデルスケーリングシーケンス長トレーニング最適化VRAM要件Ready Tens...
いろいろ

量子化とダブル量子化: LLMを効率的に圧縮する方法

量子化とダブル量子化: LLMを効率的に圧縮する方法Bitsandbytesダブル量子化INT4INT8LLM効率化メモリ最適化モデル圧縮モデル量子化NF4QLoRA量子化ブロックスケールファクターReady TensorMohamed A...
いろいろ

LLMエンジニアリングの準備:前提条件、自己評価、およびマインドセット

LLMエンジニアリングの準備:前提条件、自己評価、およびマインドセットAI認定AWSファインチューニングHugging Face学習マインドセットLLMエンジニアリングLLMEDモデルデプロイメントPyTorch自己評価Ready Tens...
いろいろ

Week 4概要:単一GPUを超えたLLMトレーニングのスケーリング

Week 4概要:単一GPUを超えたLLMトレーニングのスケーリングAxolotlトレーニングデータ並列化DeepSpeed分散トレーニングFSDPGPUメモリLLMトレーニングモデルスケーリングマルチGPUワークフロー再現性トレーニング最...
いろいろ

LLMの評価:Hugging Face Leaderboardベンチマークの再現

LLMの評価:Hugging Face Leaderboardベンチマークの再現評価フレームワークファインチューニングHugging FaceリーダーボードLLMベンチマーキングLLM評価モデル比較オープンソースツールパフォーマンステスト再...
いろいろ

ディープラーニングにおけるデータ型: FP32、FP16、BF16、INT8、INT4の解説

ディープラーニングにおけるデータ型: FP32、FP16、BF16、INT8、INT4の解説BF16データ型ディープラーニング浮動小数点FP16FP32GPU Memory推論最適化INT8モデル圧縮モデル精度訓練最適化Wasif Mehm...
いろいろ

Google Colabの使用:LLM開発への最速スタート

Google Colabの使用:LLM開発への最速スタートAI実験クラウド環境Google ColabGPUアクセスHugging FaceLLM開発機械学習セットアップモデルファインチューニングプロトタイピングPythonノートブックWa...
いろいろ

LLMエンジニアリング&デプロイメントへようこそ:認定プログラム概要(LLMED)

LLMエンジニアリング&デプロイメントへようこそ:認定プログラム概要(LLMED)AI認定ファインチューニングLLMデプロイメントLLMエンジニアリングLLMEDモデル最適化NLPエンジニアリングReady TensorMohamed Ab...
スポンサーリンク