AI知识分享AI知识分享
✿导航
  • 人工智能
  • 神经网络
  • 机器学习
  • 深度学习
  • 强化学习
  • 自然语言处理
  • 计算机视觉
  • 大模型基础
  • 动手学深度学习
  • 理论理解
  • 工程实践
  • 应用开发
  • AI For Everyone
  • AIGC_2024大会
  • AIGC_2025大会
  • Transformer
  • Pytorch
  • HuggingFace
  • 蒸馏
  • RAG
  • 目标检测
  • MCP
  • 概念
  • 意图识别
  • 工具
✿导航
  • 人工智能
  • 神经网络
  • 机器学习
  • 深度学习
  • 强化学习
  • 自然语言处理
  • 计算机视觉
  • 大模型基础
  • 动手学深度学习
  • 理论理解
  • 工程实践
  • 应用开发
  • AI For Everyone
  • AIGC_2024大会
  • AIGC_2025大会
  • Transformer
  • Pytorch
  • HuggingFace
  • 蒸馏
  • RAG
  • 目标检测
  • MCP
  • 概念
  • 意图识别
  • 工具
  • 大模型基础

    • 语言模型基础

      • 概述
      • 基于统计方法的语言模型
      • 基于神经网络的语言模型
      • 语言模型的采样方法
      • 语言模型的评测
    • 大语言模型架构

      • 概述
      • 主流模型架构
      • Encoder-only
      • Encoder-Decoder
      • Decoder-only
      • 非Transformer 架构
    • Prompt工程

      • 工程简介
      • 上下文学习
      • 思维链
      • 技巧
    • 参数高效微调

      • 概述
      • 参数附加方法
      • 参数选择方法
      • 低秩适配方法
      • 实践与应用
    • 模型编辑

      • 简介
      • 方法
      • 附加参数法
      • 定位编辑法
    • RAG

      • 基础
      • 架构
      • 知识检索
      • 生成增强
  • 动手学深度学习

    • 深度学习基础

      • 引言
      • 数据操作
      • 数据预处理
      • 数学知识(线代、矩阵计算、求导)
      • 线性回归
      • 基础优化方法
      • Softmax回归
      • 感知机
      • 模型选择
      • 过拟合和欠拟合
      • 环境和分布偏移
      • 权重衰减
      • Dropout
      • 数值稳定性
    • 卷积神经网络

      • 模型基本操作
      • 从全连接层到卷积
      • 填充和步长
      • 多个输入和输出通道
      • 池化层
      • LeNet
      • AlexNet
      • VGG
      • NiN网络
      • GoogleNet
      • 批量归一化
      • ResNet
    • 计算机视觉

      • 图像增广
      • 微调
      • 目标检测
      • 锚框
      • 区域卷积神经网络
      • 单发多框检测
      • 一次看完
      • 语义分割
      • 转置卷积
      • 全连接卷积神经网络
      • 样式迁移
    • 循环神经网络

      • 序列模型
      • 语言模型
      • 循环神经网络
      • 序列到序列学习
      • 搜索策略
    • 注意力机制

      • 优化算法

参数高效微调 —— 低秩适配方法

简介

低秩适配方法(Low-rank Adaptation Methods)通过低秩矩阵来近似原始权重权更新矩阵,并仅微调低秩矩阵,以大幅降低模型参数量。

LoRA

低秩适配(Low-rank Adaptation, LoRA)提出利用低秩矩阵近似参数更新矩阵来实现低秩适配。该方法将参数更新矩阵低秩分解为两个小矩阵。在微调时,通过微调这两个小矩阵来对大语言模型进行更新,大幅节省了微调时的内存开销。

核心原理:

在训练过程中,固定预训练模型的参数,仅微调B和A的参数。因此,在训练时,LoRA 涉及的更新参数数量为r×(d+k),远小于全量微调d×k。

✅ 主要优势

优势说明
参数效率高仅需训练少量参数(例如,7B 模型用 LoRA 可减少 90%+ 可训练参数)
无推理延迟推理时可将 ( W + AB ) 合并回原权重,完全不影响速度
内存占用低训练时只需存储低秩矩阵和梯度,显著降低显存需求
支持多任务/多适配器可为不同任务保存不同的 (A,B) 对,按需切换(类似“插件”)
兼容性强可应用于 Transformer 的 Q、K、V、O 投影层等

LoRA 相关变体

方法核心创新可训练参数优势场景
LoRA基础低秩更新低通用、平衡
DoRA分离幅值与方向同 LoRA高精度任务(数学、推理)
PiSSASVD 初始化主子空间同 LoRA低秩高效收敛
VeRA固定投影 + 对角缩放极低超轻量部署
MoRA高有效秩非线性结构同 LoRA复杂任务(代码、逻辑)
AdaLoRA动态秩分配同 LoRA参数预算敏感场景
Q-LoRA4-bit 量化 + LoRA低极限显存下微调大模型

基于LoRA 插件的任务泛化

在 LoRA 微调结束后,我们可以将参数更新模块 B 和 A 从模型上分离出来,并封装成参数插件。这些插件具有即插即用、不破坏原始模型参数和结构的优良性质。可以在不同任务上训练的各种LoRA 模块,将这些模块插件化地方式保存、共享与使用。

LoRAHub 提供了一个可用的多LoRA 组合的方法框架。其可将已有任务上得到的LoRA 插件进行组合,从而获得解决新任务的能力。

最近更新: 2026/1/24 10:44
Contributors: klc407073648
Prev
参数选择方法
Next
实践与应用