AI知识分享AI知识分享
✿导航
  • 人工智能
  • 神经网络
  • 机器学习
  • 深度学习
  • 强化学习
  • 自然语言处理
  • 计算机视觉
  • 大模型基础
  • 动手学深度学习
  • 理论理解
  • 工程实践
  • 应用开发
  • AI For Everyone
  • AIGC_2024大会
  • AIGC_2025大会
  • Transformer
  • Pytorch
  • HuggingFace
  • 蒸馏
  • RAG
  • 目标检测
  • MCP
  • 概念
  • 意图识别
  • 工具
✿导航
  • 人工智能
  • 神经网络
  • 机器学习
  • 深度学习
  • 强化学习
  • 自然语言处理
  • 计算机视觉
  • 大模型基础
  • 动手学深度学习
  • 理论理解
  • 工程实践
  • 应用开发
  • AI For Everyone
  • AIGC_2024大会
  • AIGC_2025大会
  • Transformer
  • Pytorch
  • HuggingFace
  • 蒸馏
  • RAG
  • 目标检测
  • MCP
  • 概念
  • 意图识别
  • 工具
  • 大模型基础

    • 语言模型基础

      • 概述
      • 基于统计方法的语言模型
      • 基于神经网络的语言模型
      • 语言模型的采样方法
      • 语言模型的评测
    • 大语言模型架构

      • 概述
      • 主流模型架构
      • Encoder-only
      • Encoder-Decoder
      • Decoder-only
      • 非Transformer 架构
    • Prompt工程

      • 工程简介
      • 上下文学习
      • 思维链
      • 技巧
    • 参数高效微调

      • 概述
      • 参数附加方法
      • 参数选择方法
      • 低秩适配方法
      • 实践与应用
    • 模型编辑

      • 简介
      • 方法
      • 附加参数法
      • 定位编辑法
    • RAG

      • 基础
      • 架构
      • 知识检索
      • 生成增强
  • 动手学深度学习

    • 深度学习基础

      • 引言
      • 数据操作
      • 数据预处理
      • 数学知识(线代、矩阵计算、求导)
      • 线性回归
      • 基础优化方法
      • Softmax回归
      • 感知机
      • 模型选择
      • 过拟合和欠拟合
      • 环境和分布偏移
      • 权重衰减
      • Dropout
      • 数值稳定性
    • 卷积神经网络

      • 模型基本操作
      • 从全连接层到卷积
      • 填充和步长
      • 多个输入和输出通道
      • 池化层
      • LeNet
      • AlexNet
      • VGG
      • NiN网络
      • GoogleNet
      • 批量归一化
      • ResNet
    • 计算机视觉

      • 图像增广
      • 微调
      • 目标检测
      • 锚框
      • 区域卷积神经网络
      • 单发多框检测
      • 一次看完
      • 语义分割
      • 转置卷积
      • 全连接卷积神经网络
      • 样式迁移
    • 循环神经网络

      • 序列模型
      • 语言模型
      • 循环神经网络
      • 序列到序列学习
      • 搜索策略
    • 注意力机制

      • 优化算法

Prompt工程 - 上下文学习

    概述

    上下文学习(In-Context Learning, ICL) 是一种通过构造特定的Prompt,来使得语言模型理解并学习下游任务的范式,这些特定的Prompt 中可以包含演示示例,任务说明等元素。

    按照示例数量的不同,上下文学习可以呈现出多种形式:

    • 零样本(Zero-shot)上下文学习、
    • 单样本(One-shot)上下文学习
    • 少样本(Few-shot)上下文学习

    示例选择

    在上下文学习中,示例在引导大语言模型理解任务中扮演着重要作用,其内容和质量直接影响着学习效果。

    合理选择演示示例对提升上下文学习性能至关重要。演示示例选择主要依靠相似性和多样性:

    • 相似性是指精心挑选出与待解决问题最为相近的示例。
    • 多样性则要求所选的示例涵盖尽量广的内容,扩大演示示例对待解决问题的覆盖范围。

    接下来对基于相似性和多样性的三类示例选择方法展开介绍:

    1. 直接检索
      • 给定一组候选示例,直接检索的方法依据候选示例与待解决问题间的相似性对候选示例进行排序,然后选取排名靠前的K个示例(Top K)。
    2. 聚类检索
      • 为缓解直接检索中存在的样例趋同的问题,聚类检索方法采用先聚类后检索的方法来保证检索结果的多样性。
    3. 迭代检索
      • 直接检索和聚类检索在相似性和多样性之间往往顾此失彼。为了兼顾相似性多样性,迭代检索策略应运而生。

    性能影响因素

    通过精心设计示例选择策略,上下文学习的效果可以得到显著提升。但是,除了示例选择以外,上下文学习的性能仍受到多种因素的共同影响。这些因素涉及括预训练数据、预训练模型,以及演示示例等多个方面。

    • 预训练数据的影响
      • 预训练数据是上下文学习能力的来源,深刻影响着上下文学习的性能。
        • 领域丰富度(预训练数据的所覆盖的领域的丰富度直接影响模型的领域泛化能力。)
        • 任务多样性(预训练数据中的任务多样性是提升上下文学习性能的重要因素。)
        • 训练数据的分布特性(训练数据中存在突发性分布和罕见类别时,能够增强模型的上下文学习能力。)
    • 预训练模型的影响
      • 主要体现在模型参数规模上,此外架构和训练策略等也是重要因素。
    • 演示示例的影响
      • 演示示例的格式(不同的任务对于示例格式的要求不同。)
      • 输入-输出映射的正确性 (对于一个包含输入、输出的示例,大语言模型旨在从中学习到输入-输出映射,以完成目标任务。)
      • 示例数量及顺序(增加演示示例的数量通常能够提升上下文学习性能,但随着示例数量的增多,性能提升的速率会逐渐减缓)
    最近更新: 2026/1/24 10:44
    Contributors: klc407073648
    Prev
    工程简介
    Next
    思维链