AI知识分享AI知识分享
✿导航
  • 人工智能
  • 神经网络
  • 机器学习
  • 深度学习
  • 强化学习
  • 自然语言处理
  • 计算机视觉
  • 大模型基础
  • 动手学深度学习
  • 理论理解
  • 工程实践
  • 应用开发
  • AI For Everyone
  • AIGC_2024大会
  • AIGC_2025大会
  • Transformer
  • Pytorch
  • HuggingFace
  • 蒸馏
  • RAG
  • 目标检测
  • MCP
  • 概念
  • 意图识别
  • 工具
✿导航
  • 人工智能
  • 神经网络
  • 机器学习
  • 深度学习
  • 强化学习
  • 自然语言处理
  • 计算机视觉
  • 大模型基础
  • 动手学深度学习
  • 理论理解
  • 工程实践
  • 应用开发
  • AI For Everyone
  • AIGC_2024大会
  • AIGC_2025大会
  • Transformer
  • Pytorch
  • HuggingFace
  • 蒸馏
  • RAG
  • 目标检测
  • MCP
  • 概念
  • 意图识别
  • 工具
  • 大模型基础

    • 语言模型基础

      • 概述
      • 基于统计方法的语言模型
      • 基于神经网络的语言模型
      • 语言模型的采样方法
      • 语言模型的评测
    • 大语言模型架构

      • 概述
      • 主流模型架构
      • Encoder-only
      • Encoder-Decoder
      • Decoder-only
      • 非Transformer 架构
    • Prompt工程

      • 工程简介
      • 上下文学习
      • 思维链
      • 技巧
    • 参数高效微调

      • 概述
      • 参数附加方法
      • 参数选择方法
      • 低秩适配方法
      • 实践与应用
    • 模型编辑

      • 简介
      • 方法
      • 附加参数法
      • 定位编辑法
    • RAG

      • 基础
      • 架构
      • 知识检索
      • 生成增强
  • 动手学深度学习

    • 深度学习基础

      • 引言
      • 数据操作
      • 数据预处理
      • 数学知识(线代、矩阵计算、求导)
      • 线性回归
      • 基础优化方法
      • Softmax回归
      • 感知机
      • 模型选择
      • 过拟合和欠拟合
      • 环境和分布偏移
      • 权重衰减
      • Dropout
      • 数值稳定性
    • 卷积神经网络

      • 模型基本操作
      • 从全连接层到卷积
      • 填充和步长
      • 多个输入和输出通道
      • 池化层
      • LeNet
      • AlexNet
      • VGG
      • NiN网络
      • GoogleNet
      • 批量归一化
      • ResNet
    • 计算机视觉

      • 图像增广
      • 微调
      • 目标检测
      • 锚框
      • 区域卷积神经网络
      • 单发多框检测
      • 一次看完
      • 语义分割
      • 转置卷积
      • 全连接卷积神经网络
      • 样式迁移
    • 循环神经网络

      • 序列模型
      • 语言模型
      • 循环神经网络
      • 序列到序列学习
      • 搜索策略
    • 注意力机制

      • 优化算法

RAG - 架构

  • 黑盒增强(检索器微调)
  • 白盒增强(仅微调语言模型)

RAG 架构分类

黑盒增强架构根据是否对检索器进行微调分为两类:无微调、检索器微调:

  • 在无微调架构中,检索器和大语言模型都不进行任何微调,仅依靠它们在预训练阶段掌握的能力完成相应的检索和生成任务。
  • 在检索器微调的架构中,语言模型参数保持不变,而检索器根据语言模型的输出反馈进行参数的针对性调整。

白盒增强架构根据是否对检索器进行微调分为两类:仅微调大语言模型、检索器与大语言模型协同微调

  • 在仅微调大语言模型的架构中,检索器作为一个预先训练好的组件其参数保持不变;语言模型则根据检索器提供的相关信息进行参数调整。
  • 在协同微调的架构中,检索器和大语言模型迭代交互、协同微调。
LLM优点缺点
黑盒增强(无微调)—— 最简单的架构与LLM解耦,且易于实现计算成本最低LLM与检索器缺乏交互,RAG效果难保证
黑盒增强(检索器微调)更新检索器迎合LLM需求成本低,效果良好LLM参数固定,可能无法与检索器良好适配。
白盒增强(仅微调语言模型)优化语言模型生成能力,更好地利用检索到的外部信息计算成本高;微调效果赖原生的检索器的性能
白盒增强(协同微调)检索器和LLM在训练中深度交互,不断优化RAG性能计算成本高;实现过程复杂

黑盒增强(检索器微调)

REPLUG LSR 是检索器微调框架的代表性方法,其结构如图所示。

它使用大语言模型的困惑度分数作为监督信号来微调检索器,使其能更有效地检索出能够显著降低语言模型困惑度的文档。

其微调检索器的过程中采用KL 散度损失函数来训练检索器,目的是对齐检索到的文档的相关性分布与这些文档对语言模型性能提升的贡献分布。

此过程涉及两个关键的概率分布,

  1. 检索器输出的文档分布:检索器在接收到当前上下文后检索与之相关的文档,并形成一个文档概率分布。这一分布是基于检索器计算的上下文与文档之间的相似度,通过余 弦相似度来衡量,并将这些相似度分数转化为概率值。

  2. 文档对语言模型的贡献分布:语言模型为每个被检索到的文档和原始上下文来生成预测,最终所有输出结果形成一个概率分布。在这个分布中,如果某个文档对语言模型生成准确预测特别关键,它会被赋予更高的概率权重。

白盒增强(仅微调语言模型)

仅微调语言模型指的是检索器作为一个预先训练好的组件其参数保持不变,大语言模型根据检索器提供的上下文信息,对自身参数进行微调。

以 RETRO 为例,其结构如图所示。

  1. RETRO 首先将知识库中的文本进行切块,然后用 BERT 对每个文本块生成嵌入向量。
  2. 在微调模型时的自回归过程中,每当模型生成一段文本块后,就去知识库中检索出与之最相似的嵌入向量。
  3. 然后,这些嵌入向量和模型注意力层的输出一起被送入一个外部的Transformer 编码器进行编码。
  4. 得到的编码向量直接输入给模型的块交叉编码器的键(key)和值(value),以捕捉外部知识的关键信息。
  5. 通过交叉编码,模型能够结合检索到的相关信息来生成新的文本块。

白盒增强(协同微调)

Atlas 模型架构图:

Atlas 在预训练和微调过程中,

  1. 检索器和语言模型参数同步被更新,检索器学习向语言模型提供最相关的文档
  2. 语言模型则学习如何利用这些文档来改善其对查询的响应。
  3. 为了确保检索结果与模型最新状态保持同步,Atlas 同样需要定期更新语料库文档的向量编码,从而维持检索的准确性。
最近更新: 2026/1/24 10:44
Contributors: klc407073648
Prev
基础
Next
知识检索