参数高效微调 —— 实践与应用
简介
最流行的PEFT 框架,Hugging Face 开发的开源库HF-PEFT,并简述其使用方法和相关技巧。
PEFT 主流框架
目前最流行的 PEFT 框架是由 Hugging Face 开发的开源库 HF-PEFT,它旨在提供最先进的参数高效微调方法。HF-PEFT 框架的设计哲学是高效和灵活性。HF-PEFT 集成了多种先进的微调技术,如LoRA、Apdater-tuning、Prompt-tuning 和IA3 等。HF-PEFT 支持与 Hugging Face 的其他工具如 Transformers、Diffusers 和Accelerate 无缝集成,并且支持从单机到分布式环境的多样化训练和推理场景。
📦 核心功能概览
| 功能 | 说明 |
|---|---|
| 统一接口 | 所有 PEFT 方法通过 get_peft_model() 一键注入 |
| 支持主流方法 | LoRA、LoRA+、DoRA、Prefix Tuning、Prompt Tuning、IA³、AdaLoRA 等 |
| 与 Transformers 深度集成 | 自动兼容 AutoModel、Trainer、Accelerate 等 |
| 可保存/加载适配器 | 仅保存轻量适配器权重(几 MB 到几百 MB) |
| 多适配器管理 | 支持切换、合并、堆叠多个适配器(set_adapter()) |
| 支持量化训练 | 与 BitsAndBytes 集成,支持 QLoRA(4-bit 微调) |
- GitHub: https://github.com/huggingface/peft
- 文档: https://huggingface.co/docs/peft
