AI知识分享AI知识分享
✿导航
  • 人工智能
  • 神经网络
  • 机器学习
  • 深度学习
  • 强化学习
  • 自然语言处理
  • 计算机视觉
  • 大模型基础
  • 动手学深度学习
  • 理论理解
  • 工程实践
  • 应用开发
  • AI For Everyone
  • AIGC_2024大会
  • AIGC_2025大会
  • Transformer
  • Pytorch
  • HuggingFace
  • 蒸馏
  • RAG
  • 目标检测
  • MCP
  • 概念
  • 意图识别
  • 工具
✿导航
  • 人工智能
  • 神经网络
  • 机器学习
  • 深度学习
  • 强化学习
  • 自然语言处理
  • 计算机视觉
  • 大模型基础
  • 动手学深度学习
  • 理论理解
  • 工程实践
  • 应用开发
  • AI For Everyone
  • AIGC_2024大会
  • AIGC_2025大会
  • Transformer
  • Pytorch
  • HuggingFace
  • 蒸馏
  • RAG
  • 目标检测
  • MCP
  • 概念
  • 意图识别
  • 工具
  • Transformer

    • Transformer - 概述
    • Transformer - Encoding and Decoding Context with Attention
    • Transformer - Tokenizers
    • Transformer - 架构
    • Transformer - Block
    • Transformer - 自注意力
    • Transformer - MoE
    • Transformer - Transformer
  • Pytorch

    • Pytorch - Dataset
    • Pytorch - TensorBoard
    • Pytorch - transforms
    • Pytorch - DataLoader
    • Pytorch - nn
    • Pytorch - Model
    • Pytorch - train
    • Pytorch - Practice
    • Pytorch - pytorch
  • HuggingFace

    • HuggingFace - Transformers
    • HuggingFace - Pipeline
    • HuggingFace - Tokenizer
    • HuggingFace - Model
    • HuggingFace - Datasets
    • HuggingFace - Evaluate
    • HuggingFace - Trainer

Transformer - 架构

  • 存在多种解码策略来选择最佳输出token
  • 并行多个轨道
  • KV 缓存

组件

三个主要组件:

  • Tokenizer
  • Transformer块堆栈
  • 语言模型头

Tokenizer 包含词汇表,模型包含token嵌入

Tokenizer: Vocabulary and Model: Token embeddings

语言模型头为下一个输出的最佳(最可能)token打分

LM head output

存在多种解码策略来选择最佳输出token

Decoding strategies

  • 选择最高的
    • temperature = 0
    • 贪婪解码
  • 选择 top_p
    • 这会根据概率考虑多个token,即不限于最高概率的token。
  • 添加随机性
    • temperature > 0

并行多个轨道

  • 轨道数量 = 上下文长度

Multiple tracks in Transformer

  • Transformer 中生成的输出 token 是最终 token 的输出。
  • TTFT:第一个 token 的时间
    • 模型处理上述计算所花费的时间

KV 缓存

KV Caching

  • 第一个 token 生成后,输入还包含生成的 token。
最近更新: 2025/4/5 15:37
Contributors: klc407073648
Prev
Transformer - Tokenizers
Next
Transformer - Block