a smol course documentation
パラメータ効率の良い微調整 (PEFT)
パラメータ効率の良い微調整 (PEFT)
言語モデルが大きくなるにつれて、従来の微調整はますます困難になります。1.7Bパラメータのモデルの完全な微調整には、かなりのGPUメモリが必要であり、別々のモデルコピーを保存することが高価であり、モデルの元の能力を破壊的に忘れるリスクがあります。パラメータ効率の良い微調整(PEFT)メソッドは、モデルパラメータの小さなサブセットのみを変更し、ほとんどのモデルを固定したままにすることで、これらの課題に対処します。
従来の微調整は、トレーニング中にすべてのモデルパラメータを更新しますが、これは大規模なモデルには実用的ではありません。PEFTメソッドは、元のモデルサイズの1%未満のパラメータを使用してモデルを適応させるアプローチを導入します。この劇的な学習可能なパラメータの削減により、次のことが可能になります:
- 限られたGPUメモリを持つ消費者向けハードウェアでの微調整
- 複数のタスク固有の適応を効率的に保存
- 低データシナリオでのより良い一般化
- より速いトレーニングと反復サイクル
利用可能なメソッド
このモジュールでは、2つの人気のあるPEFTメソッドを紹介します:
1️⃣ LoRA (低ランク適応)
LoRAは、効率的なモデル適応のためのエレガントなソリューションを提供する最も広く採用されているPEFTメソッドとして浮上しました。モデル全体を変更する代わりに、LoRAはモデルの注意層に学習可能な行列を注入します。このアプローチは、通常、完全な微調整と比較して約90%の学習可能なパラメータを削減しながら、同等の性能を維持します。LoRA (低ランク適応)セクションでLoRAを詳しく見ていきます。
2️⃣ プロンプトチューニング
プロンプトチューニングは、モデルの重みを変更するのではなく、入力に学習可能なトークンを追加するさらに軽量なアプローチを提供します。プロンプトチューニングはLoRAほど人気はありませんが、モデルを新しいタスクやドメインに迅速に適応させるための便利な技術です。プロンプトチューニングセクションでプロンプトチューニングを詳しく見ていきます。