いろいろ 33. LLM訓練に必要なGPUメモリはどれくらい?計算方法を徹底解説! 33. LLM訓練に必要なGPUメモリはどれくらい?計算方法を徹底解説!こんにちは!今回は、LLM(大規模言語モデル)のトレーニングに必要なGPUメモリについて、詳しく解説していきます。前回までLoRAという効率的な手法を学びましたが、「も... 2025.11.27 いろいろ
いろいろ 05_Navigating_Ready_Tensor_Platform 05. プラットフォームの使い方をマスター!ナビゲーションガイドさあ、いよいよ実際にプラットフォームを使い始める準備が整いました!でも、初めて使うシステムって、どこに何があるのかわからなくて戸惑いますよね。この短いレッスンは、プラットフォー... 2025.11.27 いろいろ
いろいろ 13. ベンチマークを自分で動かしてみよう!スコアの再現方法 前回のレッスンで、リーダーボードの見方やモデルの比較方法を学びましたよね。「このモデルは数学が得意」とか「こっちはコーディングが強い」みたいなことが、スコアから読み取れるようになったと思います。でも、「このスコアって本当なの?」って思ったこ... 2025.11.27 いろいろ
いろいろ 23. 少ないリソースで大きなAIを育てる!LoRAとQLoRAの魔法を徹底解説 23. 少ないリソースで大きなAIを育てる!LoRAとQLoRAの魔法を徹底解説前回まで、AIモデルのデータ型や量子化について学んできました。大規模モデルをどうやって小さく圧縮するか、その技術的な仕組みがわかりましたよね。でも、ここで実践的... 2025.11.27 いろいろ
いろいろ 04_How_to_Succeed_in_This_Program 04. 成功への戦略!このプログラムを最大限に活用する方法さあ、ここまで来たら、あとは実際にプログラムを進めていくだけですね!でも、ちょっと待ってください。同じプログラムでも、学び方次第で得られるものが大きく変わってくるんですよ。このレッス... 2025.11.27 いろいろ
いろいろ 32. 1つのGPUでは足りない?複数GPUでLLMを訓練する方法を学ぼう! 32. 1つのGPUでは足りない?複数GPUでLLMを訓練する方法を学ぼう!こんにちは!今回は、LLM(大規模言語モデル)のトレーニングを「スケールアップ」する方法について学んでいきます。前回までは、1つのGPU(グラフィック処理装置)でモ... 2025.11.27 いろいろ
いろいろ 12. 無料でGPUが使える!Google Colabの始め方 AIの勉強を始めたいけど、「GPUって高いし...」「環境構築が面倒そう...」って思ってませんか?実は、そんな悩みを一気に解決してくれる無料ツールがあるんです。それが「Google Colab(グーグル・コラボ)」!ブラウザだけでOK、イ... 2025.11.27 いろいろ
いろいろ 22. 大きなAIモデルを小さくする魔法!量子化とダブル量子化を徹底解説 22. 大きなAIモデルを小さくする魔法!量子化とダブル量子化を徹底解説前回の記事で、AIモデルのデータ型について学びましたよね。FP32やBF16、INT4といった形式がどう違うか、そしてメモリにどう影響するかという話でした。でも、ここで... 2025.11.27 いろいろ
いろいろ 03_LLM_Engineering_Curriculum 03. 9週間の冒険!LLMエンジニアリングの完全ロードマップさあ、いよいよ本格的な学習の旅が始まります!このレッスンでは、これから9週間でどんなことを学んでいくのか、全体像をお見せしますね。プログラムは大きく2つのモジュールに分かれていま... 2025.11.27 いろいろ
いろいろ 31. LoRAのパラメータ調整術!実験データから学ぶベストプラクティス 31. LoRAのパラメータ調整術!実験データから学ぶベストプラクティスこんにちは!今回は、LLM(大規模言語モデル)を自分のタスクに合わせて調整する「ファインチューニング」という手法の中でも、特に「LoRA」という効率的な方法のパラメータ... 2025.11.27 いろいろ