AI知识分享AI知识分享
✿导航
  • 人工智能
  • 神经网络
  • 机器学习
  • 深度学习
  • 强化学习
  • 自然语言处理
  • 计算机视觉
  • 大模型基础
  • 动手学深度学习
  • 理论理解
  • 工程实践
  • 应用开发
  • AI For Everyone
  • AIGC_2024大会
  • AIGC_2025大会
  • Transformer
  • Pytorch
  • HuggingFace
  • 蒸馏
  • RAG
  • 目标检测
  • MCP
  • 概念
  • 意图识别
  • 工具
✿导航
  • 人工智能
  • 神经网络
  • 机器学习
  • 深度学习
  • 强化学习
  • 自然语言处理
  • 计算机视觉
  • 大模型基础
  • 动手学深度学习
  • 理论理解
  • 工程实践
  • 应用开发
  • AI For Everyone
  • AIGC_2024大会
  • AIGC_2025大会
  • Transformer
  • Pytorch
  • HuggingFace
  • 蒸馏
  • RAG
  • 目标检测
  • MCP
  • 概念
  • 意图识别
  • 工具
  • 大模型基础

    • 语言模型基础

      • 概述
      • 基于统计方法的语言模型
      • 基于神经网络的语言模型
      • 语言模型的采样方法
      • 语言模型的评测
    • 大语言模型架构

      • 概述
      • 主流模型架构
      • Encoder-only
      • Encoder-Decoder
      • Decoder-only
      • 非Transformer 架构
    • Prompt工程

      • 工程简介
      • 上下文学习
      • 思维链
      • 技巧
    • 参数高效微调

      • 概述
      • 参数附加方法
      • 参数选择方法
      • 低秩适配方法
      • 实践与应用
    • 模型编辑

      • 简介
      • 方法
      • 附加参数法
      • 定位编辑法
    • RAG

      • 基础
      • 架构
      • 知识检索
      • 生成增强
  • 动手学深度学习

    • 深度学习基础

      • 引言
      • 数据操作
      • 数据预处理
      • 数学知识(线代、矩阵计算、求导)
      • 线性回归
      • 基础优化方法
      • Softmax回归
      • 感知机
      • 模型选择
      • 过拟合和欠拟合
      • 环境和分布偏移
      • 权重衰减
      • Dropout
      • 数值稳定性
    • 卷积神经网络

      • 模型基本操作
      • 从全连接层到卷积
      • 填充和步长
      • 多个输入和输出通道
      • 池化层
      • LeNet
      • AlexNet
      • VGG
      • NiN网络
      • GoogleNet
      • 批量归一化
      • ResNet
    • 计算机视觉

      • 图像增广
      • 微调
      • 目标检测
      • 锚框
      • 区域卷积神经网络
      • 单发多框检测
      • 一次看完
      • 语义分割
      • 转置卷积
      • 全连接卷积神经网络
      • 样式迁移
    • 循环神经网络

      • 序列模型
      • 语言模型
      • 循环神经网络
      • 序列到序列学习
      • 搜索策略
    • 注意力机制

      • 优化算法

参数高效微调 —— 参数选择方法

简介

参数选择方法(Parameter Selection Methods)选择性的对预训练模型中的某个参数子集进行微调。和参数附加方法不同的是,参数选择方法无需向模型添加额外的参数,避免了在推理阶段引入额外的计算成本。通常,参数选择方法分为两类:基于规则的方法和基于学习的方法。

基于规则的方法(Rule-based Methods)

特点:

  • 依赖专家经验或先验知识制定明确的规则。
  • 规则通常是确定性的、可解释性强。
  • 不需要大量训练数据。

典型应用:

  • BitFit
    • 通过仅优化神经网络中的每一层的偏置项(Biases)以及任务特定的分类头来实现参数高效微调。由于偏置项在模型总参数中所占比例极小(约0.08%-0.09%),BitFit 有极高的参数效率。尽管只微调少量参数,BitFiT 依然能在GLUE Benchmark上与全量微调相媲美,甚至在某些任务上表现更好。

优点:

  • 简单、快速、可解释。
  • 在小规模或结构化问题中效果良好。

缺点:

  • 难以适应复杂、动态或高维场景。
  • 泛化能力弱,规则可能过时或不适用于新环境。

基于学习的方法(Learning-based Methods)

特点:

  • 利用数据驱动的方式自动学习最优参数。
  • 通常结合优化算法或机器学习模型。
  • 可适应复杂非线性关系。

典型方法:

  • 网格搜索(Grid Search)、随机搜索(Random Search)
  • 贝叶斯优化(Bayesian Optimization)
  • 进化算法(如遗传算法)
  • 强化学习(用于在线参数调优)
  • 元学习(Learning to learn)或超参数优化(Hyperparameter Optimization)

优点:

  • 自动化程度高,适合高维、复杂问题。
  • 可持续优化,适应新数据或环境。

缺点:

  • 通常需要大量计算资源和训练数据。
  • 可解释性较差(“黑箱”问题)。
  • 存在过拟合风险。

总结对比

维度基于规则的方法基于学习的方法
依赖专家知识/先验规则数据与学习算法
可解释性高通常较低
计算开销低较高(尤其深度学习/贝叶斯优化)
适应性弱(固定规则)强(可泛化)
典型场景简单系统、实时控制、嵌入式系统复杂模型调参、AI系统、大数据场景
最近更新: 2026/1/24 10:44
Contributors: klc407073648
Prev
参数附加方法
Next
低秩适配方法