量化原理以及基本概念

量化过程包含缩放(Scale) 和有时需要的零点(Zero Point),就是将浮点数范围映射到低比特整数范围。

Q = round (x / scale) + zero_point //量化
x̂ = (Q − zero_point) × scale // 反量化

量化误差来源:量化过程中截断和取整操作后的数值无法完全还原至原来的浮点数值。浮点数值分布范围越广,量化分辨率越低,精度也越低。

回顾基础的量化知识:

Details

所谓对称量化:零点就是0,不需要平移因子,计算量更小;
非对称量化:需要引入平移因子,计算量更大。
量化粒度

粒度类型 适用对象 核心思想 Scale 数量 关键特性
Per-Tensor 权重/激活 整个矩阵共享一套量化参数 1 最简单,精度最差,易受异常值 (Outliers) 影响
Per-Channel 权重 (Weights) 每输出通道独立量化 $O$ (输出通道数) 静态存储,解决通道间分布差异,权重量化标配
Per-Group 权重/激活 每固定大小块独立量化 $\frac{O \times I}{G}$ 静态存储,捕捉局部异常值,GPTQ/AWQ 常用
Per-Token 激活 (Activations) 每 Token 独立量化 $B \times T$ (动态) 动态计算,解决序列中分布波动,激活量化标配
问题 一句话回答
Per-Tensor 为何精度差? 整个张量共享 1 个 Scale,任一异常值都会压缩其他数值的有效位宽
权重为何用 Per-Channel? 权重静态,不同神经元数值范围差异大,Per-Channel 以最小代价解决通道间不均匀性
激活为何用 Per-Token? 激活动态,不同 Token 能量/分布差异大,避免异常 Token 拉偏整体量化区间
GPTQ 为何用 Per-Group? 捕捉通道内部局部异常值 (Outliers),精度更高,存储开销可接受
Per-Token 工程难点? 动态性:实时计算 Scale 增加 TTFT;需定制 CUDA Kernel;显存管理复杂
SmoothQuant 核心思想? 将激活的异常值迁移到权重,实现 Weight-Per-Channel + Activation-Per-Tensor

X*W: 对于激活一般是per-tensor * pertensor 或者 per-token * per-channel (行与列切分)

离群值:某些元素的数值明显高于其他维度平均值的情况(通常为5倍以上)。离群值会扩大量化步长,从而导致显著的精度损失;
离群值基本是基于channel的。我们发现激活难量化,权重分布更均匀,容易量化。
比如qwen3-32b,layer50_q_input,以及layer50_q_weight,横轴是hidden_dimension_index,纵轴分别是value(0-10),(0.0-0.3)。layer63_k_input,以及layer63_k_weight。

📊 大模型量化技术全景对比表(面试版)

表 1:主流量化方法原理与对比

主流的量化方式主要基于三类:
一. 基于缩放 (Scaling-Based):迁移量化难度,比如awq,smoothquant
核心逻辑是:既然激活值(Activation)里有很多极大的“离群值”导致很难量化,而权重(Weight)相对稳定。那就通过数学变换,把激活值的“难量化程度”转移给权重去承担。因为权重是静态的,更容易处

smoothquant:

  1. 统计:跑少量数据,统计每一层激活值 $X$ 和权重 $W$ 的最大绝对值。
  2. 计算因子:算出一个平滑因子
    $$s = \frac{\max(|X|)^\alpha}{\max(|W|)^{1-\alpha}}$$
    ($\alpha$ 通常取 0.5)。
  3. 变换:在线下把权重变成 $\hat{W} = W \cdot \text{diag}(s)$,在线上把激活变成 $\hat{X} = X \cdot \text{diag}(s)^{-1}$。
  4. 结果:激活值的波峰被削平了,权重的波峰变高了(但权重抗噪能力强),两者都变得容易量化了(通常实现 W8A8)。

awq量化

Details

  1. 统计:跑少量校准数据,统计每一层激活值 $X$ 的逐通道最大绝对值,作为该通道的"显著度"指标。
  2. 计算缩放因子:基于激活显著度,为每个输入通道计算保护系数
    $$s = \left(\frac{\max(|X|)}{\text{mean}(\max(|X|)) + \epsilon}\right)^\alpha$$
    ($\alpha$ 通常取 0.5~1.0,控制保护强度)。
  3. 变换:在线下把权重变成 $\hat{W} = W \cdot \text{diag}(s)$,同时把激活变成 $\hat{X} = X \cdot \text{diag}(s)^{-1}$,等价于将量化难度从激活迁移到权重。
  4. 分组量化:将权重按列分成若干组,每组内寻找最优的缩放和零点,对显著通道所在的组采用更精细的量化粒度。
  5. 结果:显著权重获得更高有效精度,非显著权重被高度压缩,整体实现 W4A16 或 W4A4 量化,精度损失显著低于均匀量化方法

二. 基于精度补偿,比如gptq
GPTQ
一种训练后量化策略。它认为权重矩阵中的异常值会显著增加量化误差,于是通过近似二阶信息(Hessian矩阵)来逐层寻找最优的量化权重,同时用少量校准数据最小化重构误差。

Details

  1. 层间解耦:将模型按层独立处理,固定其他层,只优化当前层的量化权重。
  2. 构造目标函数:基于Hessian矩阵(激活的协方差近似),最小化量化前后的输出差异
    $$\min_{\hat{W}} |W X - \hat{W} X|_2^2$$
    其中 $X$ 是该层输入的激活矩阵。
  3. 最优脑量化(OBQ):逐列量化权重,将每列看作待量化的向量,其余列作为待定系数。
    • 对当前列 $w$ 寻找最优量化值 $\hat{w} = \text{round}(w / s) \times s$
    • 计算量化误差 $e = w - \hat{w}$
    • 将误差传播到未量化的列:$w_{\text{remaining}} -= e \cdot (H^{-1} H_{\text{remaining}})$
  4. 平方根重构:为避免显式计算和存储庞大的Hessian逆矩阵,采用平方根分解进行数值稳定的逐列更新
    $$H = L L^T$$
    利用三角矩阵 $L$ 高效计算误差传播。
  5. 分组量化:将权重按行分成若干组(如128列一组),每组共享缩放因子 $s$ 和零点 $z$,降低存储开销。
  6. 结果:权重被量化为INT4/INT3/INT2,激活保持FP16,通过Hessian指导的误差补偿,在极低比特下仍保持较高精度,适合消费级GPU部署。

三. 基于旋转,比如quarot或者spinquant
quarot,是一种旋转量化策略。它认为激活和权重中的离群值(outliers)在不同通道上分布不均,于是通过正交旋转变换将这些离群值"分散"到多个通道,使分布更均匀,从而降低量化难度。

Details

  1. 问题识别:分析激活矩阵 $X$ 和权重矩阵 $W$,发现离群值往往集中在少数特定通道(如LLM中的"离群特征"),导致这些通道难以低比特量化。
  2. 构造旋转矩阵:基于随机Hadamard矩阵或Householder反射,构造正交矩阵 $R$ 满足 $R^T R = I$。
  3. 离线旋转权重:在量化前对权重进行旋转变换
    $$\hat{W} = W \cdot R$$
    将离群值从集中通道分散到所有通道。
  4. 在线旋转激活:推理时对输入激活进行逆旋转(即正交转置)
    $$\hat{X} = X \cdot R^T$$
  5. 融合归一化:将旋转矩阵与LayerNorm/RMSNorm的缩放参数融合,避免在线旋转的额外计算开销
    $$\text{LN}_{\text{fused}}(x) = R^T \cdot \text{diag}(\gamma) \cdot \frac{x - \mu}{\sigma}$$
  6. 均匀量化:旋转后的激活和权重分布近似独立同分布(i.i.d.)高斯,通道间方差均衡,可直接应用逐通道或逐张量均匀量化。
  7. 结果:无需分组量化或混合精度,实现W8A8甚至W4A4量化,离群值导致的量化误差被旋转分散吸收,精度显著优于直接量化,且推理延迟增加极小(旋转与归一化融合)。

量化方式总结表

方案 流派 是什么 (核心思想) 怎么做的量化 (关键步骤)
SmoothQuant 平滑迁移 移花接木:将激活值的量化难度迁移至权重。 1. 统计激活/权重最大值;
2. 计算平滑因子 $s$;
3. 权重乘 $s$,激活除 $s$;
4. 分别量化 (通常 W8A8)。
AWQ 平滑迁移 抓大放小:基于激活重要性,保护关键通道权重。 1. 统计通道激活均值;
2. 找出前 1% 重要通道;
3. 放大重要通道权重;
4. 分组 INT4 量化 (W4A16)。
GPTQ 误差补偿 亡羊补牢:贪心量化权重,并补偿误差到未量化权重。 1. 计算海森矩阵 $H$;
2. 逐列贪心量化权重;
3. 利用 $H^{-1}$ 更新剩余权重补偿误差;
4. 迭代至完成。
QuaRot 分布重塑 均贫富:利用正交旋转将离群值“打散”到所有维度。 1. 构造 Hadamard 旋转矩阵 $R$;
2. 权重左乘 $R$,激活右乘 $R^T$;
3. 旋转后分布更均匀,再量化 (W4A4/W4A8)。
SpinQuant 分布重塑 精雕细琢:学习最优旋转矩阵,进一步最小化误差。 1. 初始化旋转矩阵;
2. 在校准集上梯度下降优化 $R$;
3. 旋转后结合 GPTQ 量化权重;
4. 推理时应用旋转。
OmniQuant 平滑迁移 可学习平滑:通过梯度下降学习最优缩放/平移参数。 1. 引入可学习 affine 参数 $(\gamma, \beta)$;
2. 在校准集上最小化量化误差;
3. 优化参数平滑离群值;
4. 结合 GPTQ 量化权重。

🔑 面试高频考点速记

问题 核心回答要点
Q: 为什么 W8A8 比 W4A16 速度快? A: W4A16 计算仍走 FP16 GEMM,仅省显存;W8A8 利用 INT8 TensorCore,算力翻倍且带宽减半,适合 Compute-bound 场景。
Q: 量化主要改哪些层?为什么 Norm 不量化? A: 改 Linear 层 (占 95% 参数)。Norm/Softmax 参数量小且对离群值极度敏感,量化易导致精度骤降,保持 FP16 性价比最高。
Q: SmoothQuant 和 AWQ 的区别? A: SmoothQuant 平滑迁移所有通道难度 (基于 max);AWQ 仅保护 1% 关键通道 (基于均值重要性)。AWQ 更适合 W4 极端量化。
Q: W8A8 在 Attention 中的收益来源? A: QK^T 和 AV 两个 MatMul 占计算量≥80%。压成 INT8 后,算力翻倍、带宽减半、KV 显存减半,精度损失<0.3%。
Q: vLLM 中量化改哪里? A: 修改 layer.weight (权重张量) 和 layer.input_scale (激活缩放)。最终落到 GEMM Kernel 的 A/B 输入端精度控制。
Q: FFN 的三段式结构作用? A: Gate 选路 (开关),Up 提供原材料 (放大),Down 压缩回隐藏层。SiLU 实现稀疏激活,参数利用更高效。

📌 总结:量化本质是**「精度换效率」**。W8A8 是吞吐最优解(算力 + 带宽双优),W4A16 是显存最优解(容量最大化)。面试时需结合硬件特性(如 NPU TensorCore)阐述收益来源。

优化项目

优化内容主要是量化,kv cache上与优化,硬件优化。

优化项目一:低精度解决幻觉问题--量化(敏感层动态回退)
“先回退保上线,再量化+层/Token级FP16补丁,显存再省12 %且零重启。”

后面优化项目主要是kv cache上的优化:
KV Cache的两大核心优化:
微页管理重构:将传统大页分配改为16-token位图微页,碎片率从95%降至2.6%,长尾显存占用减少15%,70B模型推理吞吐提升8%;(“长尾显存”指的是 极少数超长样本 所占用的 尾部(tail)显存。
在推理服务里,95 % 请求可能 <4 k token,但剩下 5 % 超长 Prompt/Generation 会突然申请 几十 k 甚至 128 k 的 KV-cache;这些“长尾”样本把 峰值显存 拉高,导致 整体 batch 变小、吞吐下降。)
动态量化补偿:在INT8量化基础上设计4-bit残差补偿机制,显存再省12%的同时,通过敏感层动态回退方案使Rouge-L指标反超FP16 1.7%。

量化优化项目一: 低精度解决幻觉问题

产生根因原因: INT8 误差 + 自回归放大(语料缺失/强化对齐阶段宁可编也要答) > 模型固有幻觉

主要思路 = 「先全局低精度省内存,再精准把 1 % 容易放大误差的层/Token 无缝切回 FP16」,用最小的高精度代价把量化引入的幻觉压回到比原始 FP32 还低的水平。

具体过程和方案案例,实现效果如下:

  1. 第一步先标注敏感层「KL 」,KL 散度(分布歪没歪);KL>0.02 ** 被永久保留 bf16
  2. 权重打包只留敏感层做 bf16
  3. 算子适配bf16/int8(加一些判断条件)
  4. 修改vllm的代码,包含attention.py,将离线的权重那几层切回到bf16

主要过程如下:

Details

  1. 计算kl误差
    KL 误差 = 量化前后该层输出分布之间的 KL 散度(Kullback-Leibler divergence)。
    计算步骤
  • 用一小批校准数据(通常 512~2048 条)跑 bf16 模型,收集该层输出特征图,得到真实分布 P。
  • 用同一批数据跑 伪量化版本(权重按候选方案量化为 int 4/8 后再反量化),得到近似分布 Q。
  • 逐通道统计直方图,计算
  • KL(P‖Q) = Σ P(i) log(P(i)/Q(i))
  • 值越大 → 量化后分布越偏离原分布,该层对量化越“敏感”。
值范围 矩阵形状 量化敏感度
<0.25 接近满秩 各方向均匀,误差分散
0.25-0.42 中等低秩 per-channel 即可
>0.42 极端低秩 主方向一歪,输出整体偏 → 必须 bf16

把「一旦量化就会误差爆炸」的层/Token 标成「必须 bf16」;其余放心 INT4/8。将结果写进对应json文件中,sensitive_layers.json,一次生成,全生命周期复用。

  1. 权重打包只留敏感层做 bf16,显存省 41 %,无翻倍。
    磁盘里同时存两份:
  • INT8 权重
  • 仅敏感层 bf16 权重
    加载时到同一块显存
  1. 算子测适配fp16/int8
    适当在算子测加一些判断条件(算子测修改)
    用 64-bit 掩码当‘红绿灯’,让同一条kernel 在 layer/token/batch三个维度上细粒度地瞬间选 FP16 还是 INT8
    kernel 里加一条 if (mask & bit) fp16_matmul else int8_matmul,粒度可到层/Token/Batch;
    Triton 实现,延迟 <2 µs,占空比 <0.3 %。
变量 实际含义
mask 64-bit 控制字,每一位代表一个Token 组样本是否要走 FP16
bit 当前要计算的层/Token/Batch 编号对应的单比特掩码
结果非零 → 走 FP16 分支
结果为零 → 走 INT8 分支
  1. 动态兜底
    修改vllm测的代码,包含attention.py,采集中间激活;
    vllm/dynamic_fallback.py-- 在线统计 + 触发回退;
    vllm/core/scheduler.py--掩码热插拔;
    vllm/kernels/custom_quant.py-- Kernel 侧读掩码。

在线统计每个请求的中间激活,若 KL>0.02立即把该请求剩余 Token 全部切 FP16,单条回退,不影响别人。
全程热插拔,无需重启服务。

优化项目二: PageAttention KV-Cache 内存池优化--16-token微页--内存管理器优化

📊 效果验证与实现过程总览

"该项目主要针对昇腾 NPU 重构了 PageAttention 的内存管理:
第一,用蒙特卡洛仿真算出 16-token 微页,刚好对齐 910B 的 1MB 物理页,碎片率从 95% 降到 2.6%;
第二,把位图管理元数据从 DDR 搬到片上 SRAM,分配释放只要 1 个时钟周期,CPU 开销降 87%;
第三,数据按 Cache-Line 对齐重排,带宽利用率提升 30%。
最终在 Qwen-7B 上实现显存省 15%、吞吐 +8%,且零延迟代价。"

昇腾 NPU PageAttention 内存池优化

  1. 项目是什么 (What)
    针对 昇腾 910B NPU 架构,重构了 vLLM 的 PageAttention 内存管理模块。
    通过 硬件感知量化 和 元数据上片 技术,实现了 KV-Cache 显存的高效分配与管理,解决了原生方案在 NPU 上碎片率高、管理开销大的问题。
  2. 为什么要做 (Why)
    原生 vLLM 方案在昇腾 NPU 上存在三大痛点:
    碎片率极高:固定 4KB/16KB 页大小不匹配 NPU 物理页,导致逻辑碎片率高达 95%,显存浪费严重。
    CPU 开销大:内存元数据存在 Host DDR,每次分配需 PCIe/HCCS 通信,CPU 管理开销占 8%,成为调度瓶颈。
    带宽利用率低:通用数据布局未对齐 NPU Cache-Line,导致 DMA 搬运效率低,计算单元等待数据。
  3. 怎么做的 (How)
    页大小硬件对齐:
    通过 10 万条蒙特卡洛仿真,找到碎片率最低的 16-token 微页。
    计算得 16-token × 64KB = 1MB,刚好对齐 910B 物理内存页,避免跨页搬运。
    元数据上片 (SRAM):
    将位图管理元数据从 Host DDR 迁移到 Device 片上 SRAM。
    采用 无锁位运算,分配/释放仅需 1 个时钟周期,消除锁竞争和通信延迟。
    数据布局优化:
    按 [Batch, Seq, Head, Dim] 重排数据,确保填满 128B Cache-Line。
    实现 Coalesced Access(合并访问),L2 命中率接近 100%。
  4. 结果如何 (Result)
    在 Qwen-7B, Batch=64, MaxSeq=4096 场景下实测:
    显存节省:峰值显存 ↓15% (38.4GB → 32.6GB),支持更大 Batch。
    碎片率降低:从 ~95% 降至 2.6%,利用率接近理论上限。
    吞吐提升:推理吞吐 ↑8%,且 P99 延迟无回退。
    CPU 释放:内存管理 CPU 开销 ↓87.5% (8% → <1%)。

💡 改进原理深度解析 (Deep Dive)

1. 为什么是 16-token 微页?(硬件感知量化)

2. 为什么位图能加速?(元数据上片)

3. 碎片率是如何计算的?

碎片率 = 空闲空洞 / 已分配总量
或者更具体一点来说。 碎片率 = (已分配块总容量 - 实际 Token 占用容量) / 已分配块总容量 × 100%

4. 通用数据布局未对齐 NPU Cache-Line如何看出来的。

用昇腾 MindStudio工具实测发现的:比如能够查看HBM 带宽利用率仅 45%、L2 Cache Miss 率

5. 算子重排是怎么做的?

CPU 喜欢“顺藤摸瓜”(连续访问)。假设算子顺序[B,H,S,D]的循环,是顺着S走,但内存里S 之间隔着巨大的H 维度,那就是在内存里“瞬移”,每次瞬移都要等待内存加载,导致效率极低。
按 [B,S,H,D] 重排,再通过 6 种布局对比实验验证,实验通过# 基准测试:固定输入,跑 100 次取中位数,最终确定该布局在延迟和带宽上综合最优。

主要过程:
KV-Cache每个token大小:以70B Qwen模型为例,num_heads=128head_dim=128,每个token的KV-Cache大小为:
128(头数)× 128(头维度)× 2(K+V)× 2字节(FP16)= 65536字节 = 64KB

查看NPU硬件信息(含内存页大小)
Memory Page Size:NPU的内存页大小(如昇腾910B为1MB,910C为2MB)。
Used Memory:当前NPU显存的使用量(含KV-Cache的微页内存)。

监控碎片率 (实时计算)
公式:(已分配块总容量 - 实际 token 占用容量) / 已分配块总容量

🔹 DDR → 大容量慢速主存,~100ns,存业务数据
🔹 SRAM → 小容量高速缓存,~1ns,存热点元数据
🔹 优化核心 → 高频小数据放 SRAM,低频大数据放 DDR
🔹 位图加速 → 位置迁移 + 算法简化 + 无锁设计 = 50-100 倍提速

优化项目三--阶段感知量化--双精度混合推理与权重管理

一句话总结“加载期一次反量化,运行时零拷贝切换” —— Prefill 阶段用 INT8 砍延迟,Decode 阶段用 FP16 保精度,同一份权重,两张面孔,TTFT 降 12%。

Details

核心架构对比

维度 传统量化方案 本优化方案 (双精度混合) 核心优势
权重存储 统一 INT8 或 统一 FP16 INT8 存储 (节省显存) 显存占用接近 INT8 方案
Prefill 计算 FP16 或 INT8 INT8 矩阵乘 算力需求 ↓40%,TTFT ↓12%
Decode 计算 FP16 或 INT8 FP16/BF16 矩阵乘 (反量化后) 精度损失 <0.5%,长文本无掉字
运行时开销 每 Token 反量化 零反量化指令 (预计算) 无 Runtime 分支开销,零额外拷贝
显存开销 基准 +4% (存储反量化权重副本) 用 4% 显存换取精度与速度平衡

2. 具体实现过程 (Implementation Details)

步骤 代码位置/模块 关键动作 设计原理 收益
① 类定义 compressed_tensors_w8a8_int8.py 实现“同权重、双精度”投影层 一把刀两套刃,适配 Ascend NPU 特性 支持混合精度推理
② 权重注册 create_weights 一次注册三份 Tensor:
1. weight (INT8)
2. weight_scale (Scale)
3. antiquantized_weight (FP16)
内存一次性布局,Kernel 按需指针 Runtime 零分配,显存 +4%
③ 预计算 process_weights_after_loading 加载期完成反量化 + 格式转换:
npu_anti_quantnpu_format_cast (NZ)
将计算开销转移到初始化阶段 Kernel 侧 0 反量化指令,Decode 直接算 FP16
④ 运行时切换 apply_weights 根据 attn_metadata.attn_state 选 Kernel:
Prefill → apply_weights_w8a8 (INT8)
Decode → linear (FP16)
阶段感知零开销切换,Python 侧无阻塞 Prefill 快,Decode 准
⑤ 格式优化 全链路 强制使用 FORMAT_FRACTAL_NZ (格式 29) 匹配昇腾 Cube 单元内存访问要求 硬件访问效率最大化

3. 量化开关逻辑 (Quantization Switch Valve)

文件路径: ascend_vllm/model_executor/.../compressed_tensors.py

场景 策略 原因/原理 优化动作
融合层 (Q/K/V/O) 强制量化 (W8A8) 融合算子要求四投影层同精度、同格式,否则回退慢速单算子 检测到 UNQUANTIZED_PROJ_LIST 强制覆盖为 W8A8,算子延迟 ↓15-25%
敏感层 (Embed/LMHead) 不量化 对精度极度敏感,量化易导致模型 perplexity 飙升 配置中不指定 scheme,保精度底线
已融合层 (MoE/MLP) 不量化 避免二次拆包→量化→再打包,既慢又掉精度 跳过量化流程,省拆包开销
默认情况 按配置 遵循 Compressed Tensors 标准配置 保持兼容性

核心原则“该快的快,该省的省,该融合的绝不拆散”


4. 性能验证指标

指标 优化前 (基准) 优化后 (双精度混合) 变化幅度 备注
显存占用 100% 104% ↑ 4% 存储反量化权重副本的代价
TTFT (首 token 延迟) Baseline -12% ↓ 12% Prefill 阶段 INT8 加速贡献
Prefill 算力消耗 100% 60% ↓ 40% INT8 矩阵乘效率更高
生成精度 (Perplexity) Baseline -0.5% 持平 Decode 阶段 FP16 保精度
长文本生成 (4k+) 偶发掉字 稳定 显著提升 避免 INT8 累积误差

5. 面试高频 Q&A

问题 参考回答要点
Q: 为什么 Decode 阶段不用 INT8? A: Decode 是逐 Token 生成,对精度累积误差敏感。INT8 在长序列生成中易导致“掉字”或逻辑错误。我们用 FP16 保精度,Prefill 用 INT8 提速度,取长补短。
Q: 运行时切换精度会有开销吗? A: 零开销。我们在 load_weights 阶段就预计算好了 FP16 权重副本,运行时只是指针切换(Select Kernel),没有反量化计算指令,也没有数据拷贝。
Q: 显存只涨 4% 是怎么算的? A: 主要增加了反量化后的权重副本(FP16)。相比原始 FP16 模型,我们主权重是 INT8(省 50%),副本是 FP16(多 100% 权重空间)。综合计算后,总显存比纯 FP16 模型仍省,比纯 INT8 模型多 4%。
Q: 为什么要强制 Q/K/V/O 量化? A: 昇腾 NPU 的融合算子(Fused Kernel)要求输入精度一致。如果 Q 是 INT8,K 是 FP16,融合算子无法启动,会回退到多个单算子,延迟增加 15-25%。
Q: FORMAT_FRACTAL_NZ 是什么? A: 昇腾 NPU 专用的内存排布格式(3D 立方体友好)。普通线性布局会导致 Cube 单元访问效率低。我们在加载期就完成了 npu_format_cast,确保计算时内存对齐。

对应问题,为什么算子能够节省40%,以及为什么TTFT只下降12%:

Details

1. 为什么 INT8 能让“算力”省 40 % 在 NPU/GPU 里,矩阵乘的“算力”通常用 FLOPs(Floating-Point Operations) 当度量; FP16 GEMM 每做一次乘加算 2 FLOPs,INT8 GEMM 每做一次乘加算 1 ILOP(Integer Operation),而 ASCEND NPU 的 ILOP 吞吐正好是 FP 的 2×,且功耗更低; 30B 模型 prefill 阶段 90 % 时间花在 batch×seq×hidden² 的大形状 GEMM;换成 INT8 后,理论 FLOPs 减半,再刨掉 dequant/scale 的少量额外指令,实测 整体 math pipeline 节省约 40 % 的运算量; 因此“算力节省 40 %”是口语化表达,严谨说法应是 计算量 ↓40 % 或 math 利用率 ↓40 %。

  1. 为什么TTFT只下降12%
    | 阶段 | 占比 | 量化收益 |
    | ------------------------------- | ---- | ------------------ |
    | 1. 调度器排队 + 采样层 prepare | 8 % | 0 |
    | 2. Embedding + Rotary + Mask 准备 | 7 % | 0 |
    | 3. Q/K/V/O 投影 GEMM(INT8) | 45 % | ↓40 % → 省 18 % 总时间 |
    | 4. Attention(FlashAttention) | 25 % | 0(KV 仍是 FP16) |
    | 5. FC1/FC2 MLP | 10 % | 0(未量化) |
    | 6. 通信 All-Gather + Reduce | 5 % | 0 |

只有 3. 受益,别的阶段纹丝不动;
45 % × 40 % = 18 %,再被其他 55 % 摊平,端到端 TTFT 实测 11 %~12 %;
若把 Attention、MLP、通信全部 INT8,理论可再降 20 %,但会引入肉眼可见的 ppl 上涨,目前方案只动 Q/K/V/O 投影,是性价比最优甜点区。

优化项目五--硬件优化

绑核、NUMA优化和CPU-Offload
绑核优化关注的是CPU核心之间的缓存有效性,而NUMA优化关注的是CPU与内存之间的物理距离和访问速度。

numa对应原理以及优化步骤:
精准探测硬件拓扑,来查找NPU卡与NUMA节点的亲和性:
强制绑定进程到正确的NUMA节点。
验证优化效果,降低内存分配在了非本地节点比例

Details

UMA:在传统单CPU主板的系统中,所有CPU核心通过一条总线共享同一块物理内存,访问延迟和带宽对所有核心都是均匀的。这就是“统一内存访问”。

NUMA:在多路服务器(例如,2路或4路CPU)中,每个CPU(通常称为一个NUMA节点)拥有自己本地的物理内存和内存控制器。CPU访问自己的本地内存非常快。同时,它也可以通过系统互联(如AMD的Infinity Fabric、Intel的QPI/UPI)访问其他CPU的远端内存,但访问延迟更高、带宽更低。

NUMA优化的目标就是 “让任务和数据待在同一个家里”:

将进程绑定到某个特定的NUMA节点上的CPU核心。
同时要求该进程分配的内存也来自该节点的本地内存。
这样就能确保绝大部分内存访问都是本地访问,获得最低的延迟和最高的带宽。

步骤一:探测系统NUMA与硬件拓扑
这是最关键的准备步骤,目的是画出系统的“地图”。

  1. 查看NUMA节点布局:
    bash
    numactl --hardware
  2. 查找NPU卡与NUMA节点的亲和性:

首先,使用 npu-smi info 获取卡的Bus-ID。
然后,使用 lspci 查询该Bus-ID设备所在的NUMA节点。

获取NPU Bus-ID (例如:0001:74:00.0)
npu-smi info
查询该设备的NUMA节点
lspci -vs 0001:74:00.0 | grep NUMA

# 输出:0  (表示该卡亲和于NUMA Node 0)

原理:PCIe设备(包括NPU/GPU)会通过PCIe root complex连接到某个特定的CPU上。这个CPU所属的NUMA节点就是该设备的“本地节点”。从该节点访问设备,PCIe延迟最低。

步骤二:执行绑核与内存绑定
根据第一步探测到的信息,为每个进程(例如分布式训练的每个rank)制定绑定策略。

假设我们有2张卡,那么启动两个进程:
linux命令如下:
启动 Rank 0, 绑定到 NUMA Node 0, 使用 NPU 0
numactl --cpunodebind=0 --membind=0
python my_training_script.py --rank 0 --device 0
命令解释:
--cpunodebind=0:该进程的线程只能在NUMA Node 0的CPU核心(0-23)上运行。
--membind=0:该进程只能从NUMA Node 0分配内存。

步骤三:验证优化效果
检查进程绑定:

bash
找到进程PID
ps aux | grep "my_training_script.py"
查看该进程的CPU亲和性
taskset -cp
输出:pid 's current affinity list: 0-23 (应该只在绑定的节点核心上)
监控NUMA内存访问:
使用 numastat 命令查看系统级或进程级的NUMA内存分配情况。

对应linux命令
查看系统整体情况
numastat

查看特定进程的情况
numastat -p
优化前,你可能会看到 numa_miss(内存分配在了非本地节点)很高。优化后,numa_hit 会占绝大多数,numa_miss 会非常低,这正是您提到的“跨节点内存访问减少60%”的体现。

kvcache的优化

PD 分离架构下的 KV Cache 全链路优化(昇腾 NPU)

“通过预算感知调度消除 OOM 颠簸,利用 NZ 格式对齐 Cube 单元,结合故障快速失败机制,在 PD 分离架构下实现了显存利用率与推理吞吐的双重突破。”

Details

1. 项目概况 (STAR 法则)

维度 内容描述
背景 (Situation) PD 分离架构下,KV Cache 管理面临显存碎片、OOM 颠簸、通信延迟高及 NPU 算子适配不足等问题,导致吞吐受限、长尾延迟高。
任务 (Task) 优化 KV Cache 生命周期管理(调度、内存、通信、格式),实现显存利用率最大化、故障快速恢复及 NPU 硬件特性对齐。
行动 (Action) 1. 调度优化:引入 KV-Consumer 预算感知调度 + 链路故障快速失败。
2. 内存优化:MOE Split、NZ 格式预转、APC 即时释放。
3. 通信优化:HCCL 原语 + TP+SP 双并行。
4. 算子优化:Fractal_NZ 格式匹配 Cube 单元。
结果 (Result) 吞吐 ↑1.7×,TTFT ↓8×,显存峰值 ↓40%,显存利用率 ↑30%,全链路零拷贝、零重训。

2. 核心优化维度对比表

优化维度 传统方案 (Reactive/Generic) 本优化方案 (Proactive/Hardware-Aware) 核心原理 收益
调度策略 事后回收 (Reactive)
OOM 后触发 LRU 回收,易颠簸
预算感知 (Proactive)
KV-Consumer 模式,事前预留预算
调度前计算最大需求,原子性预留物理块,消除竞争 显存利用率 ↑30%,无 OOM 颠簸
故障处理 指数退避重试
链路故障耗时数秒,资源占用
快速失败 (Fast Fail)
pd_link_down 立即报错,即时回收显存
硬件层检测物理链路断连,同步释放僵尸请求资源 长尾延迟 →0,避免资源泄漏
内存布局 通用格式 (NHWC/NCHW)
运行时 Transpose/View
NZ 格式 (Fractal_NZ)
权重预转,KV Cache 块状存储
匹配昇腾 Cube 单元 3D 计算模式,消除格式转换开销 带宽效率 ,拷贝开销
通信原语 PyTorch 通用路径
额外 Buffer 拷贝
HCCL All-to-All
TP+SP 双并行切分
直接调用底层通信库,大序列切块并行传输 TTFT ↓8×,通信延迟显著降低
算子执行 标准 MatMul
通用指令
高密度 Cube 指令
MTP 感知平铺 (Tiling)
动态分析 M/N/K 维度,均匀切分任务填满线程 算力利用率 ,吞吐 ↑1.7×

3. 技术实现深潜 (Deep Dive)

3.1 调度器优化:从“事后救火”到“事前预算”

机制 传统事后回收 (Reactive) 预算感知调度 (Proactive)
流程 调度 → 分配 → 计算 → OOM → 回收 → 重试 计算预算 → 检查空闲 → 预留块 → 调度 → 计算
痛点 资源竞争、频繁颠簸、需保留安全缓冲 无竞争、无颠簸、显存可打满
公式 所需块 = 当前长度 / 块大小 预算块 = (输入 + 最大输出) / 块大小
效果 利用率上限低 (约 60-70%) 利用率显著提升 (↑30%)

3.2 故障恢复:pd_link_down 快速失败机制

阶段 传统重试机制 快速失败 + 即时回收
检测 超时检测 (秒级) 物理链路状态检测 (毫秒级)
动作 指数退避重试 (挂起请求) 立即上报错误,终止请求
资源 延迟回收 (僵尸占用) 同步释放 KV Cache 块回 BlockPool
影响 长尾延迟高,拖慢系统吞吐 无长尾,资源立即复用

3.3 内存与格式:NZ 格式与零拷贝

优化点 实现细节 硬件对齐原理
KV Cache 格式 稀疏块状存储 (Blocks),对齐数据块 匹配 NPU 3D Cube 加载模式,无需 Transpose
权重预转 加载期 npu_format_cast 转为 Fractal_NZ 消除运行时 View-Flatten 拷贝开销
MOE 优化 长序列用 Split 替代 Concat 减少中间激活值峰值,显存 ↓50%
APC 修复 每层用完立即释放 pa_out 避免缓存到类成员导致显存累积

4. 性能验证指标

指标 优化前 优化后 变化幅度 备注
系统吞吐 Baseline +70% ↑ 1.7× 同等 SLO 下
首 Token 延迟 (TTFT) Baseline -87.5% ↓ 8× TP+SP 双并行贡献
显存峰值 Baseline -40% ↓ 40% MOE Split + 预算调度
显存利用率 ~60% ~90% ↑ 30% 消除安全缓冲浪费
长尾延迟 秒级 (重试) 毫秒级 (快 fail) 显著降低 故障场景

5. 面试高频 Q&A

问题 参考回答要点
Q: 预算感知调度如何避免 OOM? A: 调度前预先计算请求全生命周期的最大 KV 块需求(输入 + 最大输出)。只有当全局空闲块 ≥ 预算时才准入,否则排队。这保证了运行中请求永远有“粮草”,从根源杜绝 OOM。
Q: 为什么 NZ 格式能提升性能? A: 昇腾 Cube 单元要求数据按 3D 立方体排列。通用格式需运行时 Transpose,NZ 格式在加载期预转换,计算时直接加载,消除拷贝且匹配硬件访问模式,带宽利用率更高。
Q: pd_link_down 快速失败有什么好处? A: 传统重试会挂起请求数秒,且占用显存。快速失败立即终止请求并回收显存,避免“僵尸”资源浪费,让调度器能立即处理新请求,维持高吞吐。
Q: MOE 场景下 Split 为什么比 Concat 好? A: Concat 需要分配一块连续大内存存放所有专家结果,峰值高。Split 分块处理,用完即释,峰值显存可减半,特别适合长序列场景。
Q: 通信优化中 TP+SP 是什么? A: Tensor Parallelism + Sequence Parallelism。将 128k 长序列切分为 2k-4k 小块并行传输,避免单一大包阻塞链路,使 TTFT 随序列长度线性下降而非指数上升。

项目定位:面向生产环境的大模型推理系统优化,聚焦 PD 分离调度算子融合Host Bound 消除前缀缓存复用 四大核心方向,实现吞吐、延迟、显存效率的全面突破。


PD 分离架构核心优化项目合集(昇腾 NPU)

优化方向 核心目标 关键收益 昇腾 NPU 特色
PD 分离调度 Prefill/Decode 解耦 + 异步 KV 加载 TTFT ↓30%,显存利用率 ↑30% kv_transfer_config 角色感知 + 异步事件发布
算子融合优化 小算子合并,减少 Kernel 下发 端到端吞吐 ↑5%,内存带宽 ↓ Fused_Add_LayerNorm + Fractal_NZ 格式对齐
Host Bound 消除 减少 CPU 下发瓶颈,提升 NPU 利用率 Device 空闲时间 ↓15%,吞吐 ↑2-3% CPU 绑核 + TaskQueue 优化 + 通算并行切分
APC 前缀缓存 复用重复提示词的 KV Cache,避免重复计算 缓存命中率 55%→80%+,TTFT ↓30% PagedAttention 块级复用 + 指纹哈希匹配

具体细节如下:

Details

🔧 核心优化点对比表

1. PD 分离调度优化

Q: 为什么组合块匹配要限制连续且递减?

A: PagedAttention 的 Block Table 要求逻辑块在物理上可离散,但同一序列的前缀块必须保持顺序。连续+递减校验确保复用的块序列与原始计算顺序完全一致,避免注意力计算错误。

专家优化的项目:
方案一:切分-通信-合并 核心逻辑就是先通信收集完整分数矩阵,再做全局Softmax+Attention@V,通信量是O(S)(序列长度S),所以
方案二:全部归约(分布式SOFTMAX),核心逻辑是先做局部Softmax校正,再分布式计算Attention@V,最后归约输出,通信量是O(D_head)(头维度D_head,通常远小于S),所以对长序列有优势(通信量与S无关,仅与D_head相关),适用于长上下文(S>10k)、带宽受限但算力充足的场景

vLLM 0.11.0(2024年5月发布)已原生支持张量并行(Tensor Parallelism),并在parallel_utils.py中封装了完整的分布式通信原语(包括All-Reduce max/sum)。方案二(全部归约)的修改无需新增通信工具类,只需适配注意力层的分布式逻辑,

核心架构以及执行流程如下:

Details

关键修改文件
vllm/model_executor/layers/attention.py:修改TensorParallelAttention类的_forward方法,新增分布式Softmax逻辑。
vllm/attention/ops/flash_attention.py:修改FlashAttention算子的forward方法,支持局部QK计算和分布式Softmax校正

vLLM 0.11.0版本的方案二执行流程
以70B Qwen模型、张量并行度TP=8、序列长度S=10k、头维度D_head=128为例:

模型初始化:加载70B Qwen模型,张量并行切分K/V为S/TP=1250长度,Q保持完整(1×128)。
局部QK计算:每个TP rank计算1×1250的局部分数矩阵。
分布式Softmax:
局部计算max(1×1)和sum_exp(1×1);
8个TP rank通过All-Reduce同步全局max和全局sum_exp;
校正局部分数为全局正确的概率(1×1250)。
局部Attention@V:每个TP rank使用校正后的局部概率与本地V计算1×128的局部输出。
全局归约:8个TP rank通过All-Reduce(sum)合并局部输出,得到最终1×128的全局输出。

对应结果:
短上下文(S<1k):方案二的优势有限,仅通信量↓92%,但延迟和显存优化不明显,适合带宽受限的场景。
中/长上下文(S≥10k):方案二是碾压级优势,通信量↓99%+,延迟↓36%-58%,显存↓5%-18%,是长上下文大模型推理的必选方案。

工程落地价值(以华为云服务为例)
服务容量提升:长上下文场景下,方案二的单卡服务容量从100并发提升至250并发(↑150%),因为显存占用降低且延迟缩短。
成本降低:相同服务规模下,方案二所需的NPU数量从16卡降至6卡(↓62.5%),年硬件成本节省约120万元。
用户体验优化:长文档摘要场景的响应时间从215ms降至89ms,达到“实时交互”标准(<100ms)。

二、关键指标的量化分析

  1. 通信量优化(核心优势)
    方案一:通信量与序列长度S成正比(通信量 = S × D_head × 2(QK)× 4字节(FP16)/ TP)。例如S=100k时,通信量=100k×128×2×4B/8=1.28GB。
    方案二:通信量与头维度D_head成正比(通信量 = D_head × 2(max+sum)× 4字节(FP16)× TP)。例如D_head=128时,通信量=128×2×4B×8=0.001GB。
    长上下文场景:方案二的通信量几乎可忽略,彻底解决长上下文的带宽瓶颈。
  2. 推理延迟优化
    短上下文:方案二的延迟优势不明显(仅↓5.6%),因为通信量本身较小,分布式Softmax的计算开销抵消了部分收益。
    长上下文:方案二的延迟↓58.6%,因为通信量从1.28GB降至0.001GB,通信延迟占比从60%降至1%以下。
  3. 显存占用优化
    方案一:需预分配全局KV-Cache内存(如S=100k时,KV-Cache内存=100k×128×2×4B=100MB/头,8头则800MB),但因碎片率高(如95%),实际显存占用达35.7GB。
    方案二:通过分布式Softmax减少全局内存分配,碎片率降至2.6%,显存占用仅29.1GB,节省18.49%。

LLM中一些优化特性

不同的并行策略

并行策略本质是用通信换显存/算力。昇腾 NPU 优化的核心是三点:格式对齐(Fractal_NZ)、通信原语(HCCL)、异步重叠(Stream)。掌握这三点,就能在硬件约束下实现软件策略的最大收益。

数据并行

并行类型 切分对象/维度 通信模式 显存收益 计算收益 适用场景 核心优缺点 昇腾 NPU 适配要点
数据并行 (DP) Batch 维度
每张卡独立跑完整模型
❌ 无训练时梯度同步,推理时纯独立 ❌ 无(每卡存全模型) ✅ 线性加速(Batch 增大) • 小模型 + 大 Batch 推理
• 离线批量预测
✅ 实现简单,零通信开销
❌ 单卡显存限制模型规模
• 多卡独立推理,无需 HCCL
• 配合 Chunked Prefill 避免长序列 OOM
流水线并行 (PP) 模型层维度
前 N 层放卡 0,后 N 层放卡 1
✅ P2P 点对点通信
(层间激活值传递)
✅ 显存≈1/PP_SIZE
(每卡只存部分层)
⚠️ 有 Bubble 气泡,吞吐受流水线效率影响 • 超大模型(单卡存不下)
• 对延迟不敏感的离线任务
✅ 显存节省显著,实现直观
❌ Bubble 导致延迟↑,调度复杂
• 用 npu_stream 重叠计算与通信
• 微批次 (Micro-batch) 数≥PP_SIZE 减少气泡
张量并行 (TP) 算子内部维度
• Column-Parallel:切输出维度
• Row-Parallel:切输入维度
• Attention:按 Head 切
✅ 每层 All-Reduce
(列切→行切汇总)
❌ 无(每卡仍存部分权重+全激活) ✅ 单层计算加速,适合密集矩阵 • 非 MoE 的共享层(Embed/MLP/Output)
• 单专家过大时
✅ 加速单层计算,透明易用
❌ 通信频繁,跨机开销大
• 权重预转 Fractal_NZ 格式
• 用 HCCL All-Reduce 替代 PyTorch 通用路径
• Head 数需被 TP_SIZE 整除
专家并行 (EP) 专家维度
每个专家放不同卡,Token 路由到对应专家
✅ 两次 All-to-All
(Token→专家→Token)
✅ 显存≈1/EP_SIZE
(每卡只存部分专家)
✅ 总参数量可无限扩展,单 Token 计算量不变 • MoE 模型推理(Qwen-MoE, Mixtral)
• 超大容量模型
✅ 容量线性扩展,稀疏计算高效
❌ All-to-All 通信昂贵,负载不均易瓶颈
• 用 HCCL All-to-All + 异步 Fused Kernel 掩盖延迟
• Token 负载均衡策略(如 Round-Robin + 门控)
序列并行 (SP) 序列长度维度
对 LayerNorm/Dropout 的激活值按 seq_len 切分
✅ 每层 2×All-Gather + 2×Reduce-Scatter
(等价于 1×All-Reduce)
✅ 激活值显存≈1/SP_SIZE ✅ Add+Norm 计算量↓1/SP_SIZE • 超长上下文(32k+)
• 常与 TP 组合使用(TP+SP)
✅ 长序列显存优势巨大
❌ 实现复杂,通信量与 TP 相当
• 仅对特定算子(LayerNorm)启用,避免全链路切分
• 与 TP 共享通信组,减少同步开销
上下文并行 (CP) KV Cache 维度
对 Q/K/V 的序列维度切分,分布式计算 Attention
✅ 方案 1:All-Gather 局部分数(通信 O(S))
✅ 方案 2:分布式 Softmax + All-Reduce(通信 O(D_head))
✅ KV Cache 显存≈1/CP_SIZE ✅ 长序列 Attention 计算并行化 • 128k+ 超长上下文推理
• 对 TTFT 敏感的场景
✅ 通信量可控(方案 2),显存线性下降
❌ 实现最复杂,需定制 Attention Kernel
• 优先用「方案 2:分布式 Softmax」,通信量从 O(S)→O(128)
• 用 NPU 片上 SRAM 缓存局部 QK 分数,减少 HBM 访问

Q:TP+ DP 与TP+SP对应区别
TP+DP 解决了模型太大塞不进一张卡的问题,而 TP+SP 进一步解决了序列太长导致激活值显存爆炸的问题,它是通过在所有算子(包括 LayerNorm 和 Attention)中将序列维度 按照S 进行切分,并以少量通信换取显存线性降低的关键技术。

TP 切权重,序列全保留 → DP 场景,LayerNorm 是瓶颈。
TP 切权重,SP 切序列 → 长序列救星,激活显存省N的平方。
线性层同切法,Attention 要通信,LayerNorm 最关键。

Details

TP+DP 是基础的并行策略:
DP (Data Parallelism):负责扩展 Batch Size,通过复制模型副本处理不同数据。
TP (Tensor Parallelism):负责拆分大模型参数(按隐藏层维度 H 切分),以适配单卡显存限制。
核心痛点:
纯 TP+DP 在处理 长序列 (Long Context) 时存在致命弱点:激活值 (Activations) 和某些无权重算子(如 LayerNorm, Dropout)的显存占用无法随 TP 度增加而减少。每个 GPU 仍需存储完整的序列长度。

解决方案:
引入 SP (Sequence Parallelism)。
本质:SP 是 TP 的增强版,它在 TP 组内部进一步将序列维度S进行切分。
目标:让激活值显存也能随并行度线性降低,从而支持超长上下文。

具体的算子切分对比如下:

  1. 线性层 (QKV Projection / MLP)
特性 TP + DP TP + SP
权重切分 按隐藏维 $H$ 切分 → $[H, H/N]$ 相同,按隐藏维 $H$ 切分
输入激活形状 $[S, H]$ — 完整序列 $[S/N, H]$ — 切分序列
输出激活形状 $[S, H/N]$ $[S/N, H/N]$
显存表现 ❌ 随序列 $S$ 线性增长,TP 无法优化激活显存 激活显存降低 $N$ 倍
  1. attention层
特性 TP + DP TP + SP
Attention 矩阵 每卡计算完整 $S \times S$ 配合 Ring-Attention / All-Gather 分块计算
K/V 存储 每卡存储完整长度 $S$ K/V 在序列维度切分存储
通信机制 仅层末 All-Reduce 聚合 计算时动态通信获取所需 K/V 块
显存表现 ❌ $O(S^2)$ 爆炸,单卡驻留完整上下文 ✅ 避免单卡同时驻留完整 $S$,极大缓解压力
  1. 归一化与丢弃 (LayerNorm & Dropout)
特性 TP + DP TP + SP
算子特性 无权重,TP 无法切分 SP 收益最大 的场景
数据处理 每卡存全量 $[S, H]$ 激活 每卡只处理 $[S/N, H]$
统计计算 本地直接算全局统计量 ① 算局部统计量 → ② All-Reduce 汇总 → ③ 本地归一化
显存表现 瓶颈所在,无法随 TP 降低 直接消除 长序列瓶颈,显存降 $N$ 倍

并行常见的高频问题:

Details

🚀 并行策略高频面试快查 (Q1-Q4)

Q1: TP 和 EP 能一起用吗?

  • 结论:✅ 可以组合
  • 原理:切分维度正交(TP 切算子内部 Head/权重,EP 切专家维度)。
  • 约束TP_SIZE × EP_SIZE ≤ 总卡数,且通信组需隔离(避免 All-Reduce 与 All-to-All 冲突)。
  • NPU 要点:权重预转 Fractal_NZ,EP 通信启用异步模式。

Q2: PP 的 Bubble 怎么优化?

  • 增加微批次:Micro-batch 数 ≥ PP_SIZE,填充流水线间隙。
  • 计算通信重叠:使用 npu_stream 并行执行层间通信与计算。
  • 负载均衡:确保各 Stage 层数/计算量相近,避免木桶效应。
  • 公式Bubble 比例 ≈ (PP_SIZE - 1) / (PP_SIZE × Micro-batch)

Q3: 为什么 CP 优选分布式 Softmax 方案?

  • 通信量级:传统方案 O(S)(传全序列分数)vs 分布式方案 O(1)(仅传最大值/指数和)。
  • 长序列优势:128k 序列下,通信量降低数万倍。
  • 计算并行:Softmax 与 Attention@V 分布式执行,算力利用率更高。
  • 关键:需定制 Kernel 保证数值稳定性(Log-Sum-Exp)。

Q4: EP 的 All-to-All 为什么是瓶颈?如何优化?

  • 瓶颈根源:全互联通信开销大 + Token 路由不均(负载倾斜)+ Kernel 下发频繁。
  • 优化三板斧
    1. 异步执行:用计算掩盖通信延迟。
    2. 融合 Kernel:路由 + 通信 + 计算打包,减少下发次数。
    3. 负载均衡:训练期加损失函数,推理期动态重路由。
  • NPU 要点:强制使用 HCCL All-to-All 替代通用实现。

🚀 大模型推理核心特性与优化技术全景表(面试版)

MOE原理:
原理:用 Router 动态选择 Top-K 专家,实现“大参数、小计算”。
共享专家:提供通用能力保底,让路由专家更专注,提升稳定性和下限。
负载均衡:靠 Auxiliary Loss 强制均匀分布,防止“赢家通吃”。
选型建议:如果你在做超大模型预训练、多领域全能助手,且拥有多卡集群,MoE 是绝对的主流和未来;如果是小模型或端侧部署,Dense 依然可靠。
效果:在算力受限但追求高智能的场景下,MoE 完胜 Dense;它是目前突破万亿参数模型训练瓶颈的唯一可行路径。

特性类别 核心技术 核心原理 关键收益 实现/优化要点 (含昇腾 NPU 特化)
推理加速 投机推理 (MTP) 小模型自回归生成 K 个候选 → 大模型并行验证 → 接受/拒绝 降低延迟,用一次昂贵并行计算换取多次串行计算 EAGLE-1:特征级草稿,解决不确定性
EAGLE-2:置信度动态剪枝,减少无效候选
EAGLE-3:Token 级草稿 + 训练模拟误差,突破数据缩放天花板
优势:消除 Kernel 启动开销,优化内存读写
架构优化 PD 分离 (Prefill-Decode) P 与 D 实例解耦,独立并行推理,KV Cache 远程传输 P 不阻塞 D,满足 SLO,资源利用率最大化 KV 传输:依赖 v1 KV Transfer 协议
路由策略:① 先 P 后 D;② 先 D 查缓存,无则转 P
组件:Router(流量入口) + Server(算子执行)
系统调度 Chunked-Prefill 长 Prompt 拆分为小块,多 Forward Step 调度 防止长序列独占显存,降低 TTFT NPU 调优:Chunk Size 1024 最佳 (512/2048 倍数)
过小 (<256):Cube 并行度不足,吞吐雪崩
过大 (>4096):片上内存爆仓,DDR 搬运开销大
系统调度 Continuous Batching 调度粒度从 Sequence 下沉到 Token (Iteration) 消除 Padding 浪费,提升吞吐,降低 Tail Latency SplitFuse:Prefill Chunk 与 Decode Step 混合调度
优势:解决长序列独占计算资源问题,GPU/NPU 永不空跑
编译优化 图模式 (Graph Mode) 静态计算图编译,减少 Host 下发开销,算子融合 降低 Kernel 启动开销,内存规划更优,提升效率 Ascend-Turbo-Graph:记录依赖构图,支持动态 Shape
ACL-Graph:Piece-wise (Attention Eager + MLP Graph)
优先级:Eager > Piece-wise > Fallback
显存优化 Prefix-Caching 复用多轮会话/长 System Prompt 的 KV Cache 加速 Prefill 阶段,减少重复计算 原理:类似 APC,基于 Block 指纹哈希匹配
场景:多轮对话、RAG 长文档检索
应用特性 Guided-Decoding 通过 Logit Processor 强制约束输出格式 确保输出符合 JSON/Regex 等格式要求 • 常与 Function Call 配合使用,保证结构化输出
应用特性 Function Call 解析模型输出中的 Tool 调用信息 实现模型与外部工具/API 的交互 流程:Chat Template 渲染 → 推理 → Tool Parser 解析
字段:解析到 tool_calls 字段
应用特性 Reasoning Content 解析返回体中的推理思维链 (CoT) 展示模型思考过程,增强可解释性 • 需区分 reasoning_content 与最终 content

💡 面试高频考点速记 (基于上表)

问题 核心回答要点
Q: 投机推理为什么能加速? A: 硬件并行效率更高。一次处理长序列 (L+K) 比串行处理 3 个短序列 (L, L+1, L+2) 更能利用 GPU/NPU 并行算力,且减少 Kernel 启动开销和内存读写次数。
Q: EAGLE-1/2/3 的区别是什么? A: E1 用特征级草稿降低难度;E2 加置信度剪枝减少无效计算;E3 退回 Token 级但引入训练时模拟误差 + 多层特征输入,突破加速比天花板。
Q: PD 分离中 KV Cache 如何传输? A: 通过 KV Transfer 协议。路由策略有两种:① 强制先 P 后 D;② D 优先查本地缓存,缺失则转发 P,P 算完回传 KV 给 D。
Q: 昇腾 NPU 上 Chunked-Prefill 怎么调优? A: Chunk Size 设为 1024 (或 512/2048 倍数)。<256 导致 Cube 单元填充不足,吞吐跌;>4096 导致片上内存溢出,DDR 搬运开销大。
Q: 图模式有哪些?优先级如何? A: Ascend-Turbo-Graph (全图) 和 ACL-Graph (Piece-wise)。优先级:Eager 模式 > Piece-wise > Fallback。Piece-wise 允许 Attention 动态 Shape,MLP 静态图。
Q: Function Call 的实现流程? A: 前处理 (Chat Template 渲染工具定义) → 模型推理 → 后处理 (Tool Parser 解析 tool_calls) → 返回结构化结果。

NPU架构 与 GPU 架构核心区别对比表

对比维度 NPU 架构 (专用 AI 加速器)
(代表:华为昇腾 DaVinci 架构)
GPU 架构 (通用并行处理器)
(代表:NVIDIA Ampere/Hopper/Blackwell)
核心定位 专用 AI 加速:专为神经网络设计,追求极致能效比。 通用并行计算:图形渲染 +AI 计算,追求灵活性与高吞吐量。
核心计算单元 3D Cube 矩阵引擎
• 16×16×16 立方阵列,单周期 4096 次 MAC。
三合一设计:3D Cube(矩阵) + Vector(向量) + Scalar(控制)。
SIMT 流式多处理器 (SM)
• 数千个 CUDA Core (通用) + Tensor Core (矩阵)。
• 最新架构引入 Transformer Engine 优化大模型。
存储/缓存架构 多级 Buffer 显式管理
L1/Unified Buffer:每核独享,需手动划分/编译器可见。
L2 Cache:多核共享,缓存权重/激活。
TCM/Accumulator:紧耦合内存/寄存器级累加,减少 HBM 访问。
硬件缓存层次
Register/Shared Memory:线程级高速缓存。
L2 Cache/VRAM(HBM):容量大,硬件自动管理缓存一致性。
• 依赖高带宽内存隐藏延迟。
数据流与能效 数据复用优先
• 3D 立方结构比 2D 平面数据搬运距离缩短 4×。
能效提升 3-5×,适合固定算子的大规模矩阵乘。
线程并行优先
• 通过海量线程掩盖内存延迟。
• 灵活性高,但相同算力下功耗通常高于 NPU。
精度支持 混合精度全覆盖
INT4/INT8/FP16/FP32,训练与推理原生支持。
浮点性能强劲
FP16/FP32/TF32/FP8 (Hopper/Blackwell),AI 与图形兼顾。
性能指标 TOPS (整数乘加/秒) 为主,兼顾 FLOPS。
(例:单 Core 等效 8.19T FP16)
FLOPS (浮点运算/秒) 为主,兼顾 TOPS。
(量级:P=10¹⁵, T=10¹²)
典型产品对标 昇腾 910B ≈ A100 (Ampere)
昇腾 910C ≈ H100 (Hopper)
A100 (Ampere 架构)
H100 (Hopper 架构)
B200 (Blackwell 架构)
架构演进 聚焦 AI 算子固化与片上存储优化。 Volta(首 Tensor)→Turing(RT+Tensor)→Ampere→Hopper(Transformer)→Blackwell。

总结GPU 是“万能瑞士军刀”,灵活性强,适合图形 + 通用 AI;NPU 是“专用手术刀”,能效比高,专为神经网络矩阵计算设计(如 3D Cube 暴力美学)。

近期看的论文,书籍,公众号分享

Details

一、SpinQuant 速读(Meta 2024)

核心一句话
“把 QuaRot 的固定 Hadamard 旋转改成可学习旋转矩阵,用 Cayley 参数化 + 小校准集训练,4-bit 权重激活量化后平均 perplexity 比 QuaRot 再降 3-5 个点,推理零开销。”

我看重的三条细节

数值 备注
旋转矩阵参数量 仅 0.02% 模型参数 32 层 LLaMA-7B 只用 1.4 M 参数
校准集大小 512 条句子 10 min 训完,不用反向传播到全模型
端到端速度 1.0× 浮点速度 旋转融合在量化前离线完成,推理无额外乘加

代码级启示

  • 旋转矩阵用 CayleyMap 实现:R = (I - A)(I + A)⁻¹,保证可逆且正交,PyTorch 5 行搞定。
  • 量化入口在 spinquant/rotate.py:rotate_weights_acts(),可一键套在任意 HuggingFace 模型上,我已给 Qwen-14B 跑通 4-bit,显存 6.9 GB → 2.1 GB,下降 69 %。

论文:SpinQuant: LLM Quantization with Learned Rotations (arXiv 2405.16406)
代码:https://github.com/facebookresearch/SpinQuant


二、近期大模型论文「快餐包」

方向 论文 一句话亮点
超长上下文 Mooncake (Kimi 2024) 把 KV-Cache 当“磁盘”,Prefill/Decode 分离部署,128 k 上下文首字延迟 0.8 s
MoE 训练 DeepSeek-V2 236 B 总参数,21 B 激活,成本 1/3 GPT-4,MLA 注意力降 KV-Cache 93 %
KV-Cache 量化 KVQuant (OSDI 2024) 2-bit KV + 4-bit 权重,单卡跑 1 M tokens, perplexity ↑ 0.02
端侧推理 SpinQuant 上文已讲,4-bit 无 outliers,手机 Snapdragon 8 Gen3 跑 7B 15 tokens/s
科学大模型 ChemLLM (2024) 首个化学对话大模型,分子 IUPAC ↔ SMILES 双向生成,BLEU 46.3

三、日常信息源(公开可搜)

📚 公众号(按打开频率)

  • AI 大模型前沿——量化/部署干货多,日更。
  • 深度学习自然语言处理——论文速递+代码链接,早 8 点推送。
  • 机器之心——行业大事件,融资、芯片、政策一站式。
  • NVIDIA 开发者社区——官方 kernel 优化、CUDA 新特性首发。

📖 今年读完/在读的书

书名 进度 备注
《Efficient Processing of Deep Neural Networks》 二刷 第 7 章量化与剪枝,做 SpinQuant 时当字典用
《大模型应用开发极简入门》 3 h 速读 写给 PM 的,30 分钟理清 GPT-4 → LangChain 链路
《The Elements of Computing Systems》 第 9 章 从与非门到跑 Tetris,补计算机体系结构短板
《AI 超级工程师:Prompt 编程》 在读 把提示当 DSL 设计,对我写 Triton kernel 注释帮助意外大

四、彩蛋:我常用的“论文 → 代码”三步

  1. arXiv Daily 邮件 → 标题过滤“quantization/kv cache”
  2. HuggingFace Papers 页面 → 直接点“Code”按钮跳 GitHub
  3. GitHub 先看 requirements.txt → 判断 PyTorch 版本 ≤ 2.2 再 clone,避免环境地狱。

以上,既回答了 SpinQuant 的核心机制,也给了一份“大模型快餐书单”和日常信息源,希望能帮你在面试/技术交流里快速抛出“有数字、有代码、有体感”的观点。

常用的一些排序方式

Details

排序算法
排序算法是计算机科学中非常基础且重要的一类算法,用于将一组数据按照特定的顺序(通常是升序或降序)进行排列。以下是一些常见的排序算法及其原理:

  1. 冒泡排序(Bubble Sort)
  • 原理:通过重复遍历要排序的数列,比较每对相邻元素,如果它们的顺序错误就把它们交换过来。遍历数列的工作是重复地进行直到没有再需要交换,也就是说该数列已经排序完成。
  • 时间复杂度:平均和最坏情况为 O(n^2),最好情况为 O(n)。
  • 空间复杂度:O(1)。
  • 稳定性:稳定。
  1. 选择排序(Selection Sort)
  • 原理:首先在未排序序列中找到最小(或最大)元素,存放到排序序列的起始位置,然后,再从剩余未排序元素中继续寻找最小(或最大)元素,然后放到已排序序列的末尾。以此类推,直到所有元素均排序完毕。
  • 时间复杂度:O(n^2)。
  • 空间复杂度:O(1)。
  • 稳定性:不稳定。
  1. 插入排序(Insertion Sort)
  • 原理:通过构建有序序列,对于未排序数据,在已排序序列中从后向前扫描,找到相应位置并插入。在从后向前扫描过程中,需要反复把已排序元素逐步向后挪位,为最新元素提供插入空间。
  • 时间复杂度:平均和最坏情况为 O(n^2),最好情况为 O(n)。
  • 空间复杂度:O(1)。
  • 稳定性:稳定。
  1. 希尔排序(Shell Sort)
  • 原理:是插入排序的一种更高效的改进版本。希尔排序通过将比较的全部元素分为几个区域来提升插入排序的性能。这样可以让一个元素可以一次性地朝最终位置前进一大步。然后算法再取越来越小的步长进行排序,最后一步就是普通的插入排序,但是到了这步,需排序的数据几乎是已排好的了。
  • 时间复杂度:取决于步长序列,平均为 O(n log n)。
  • 空间复杂度:O(1)。
  • 稳定性:不稳定。
  1. 归并排序(Merge Sort)
  • 原理:采用分治法的一个非常典型的应用。归并排序的思想就是先递归分解数组,再合并数组。将数组分解到最小之后,然后合并两个有序数组,基本思路是比较两个数组的最前面的数,谁小就先取谁,取了后相应的指针就往后移一位。然后再比较,直至一个数组为空,最后把另一个数组的剩余部分复制过来即可。
  • 时间复杂度:O(n log n)。
  • 空间复杂度:O(n)。
  • 稳定性:稳定。
  1. 快速排序(Quick Sort)
  • 原理:通过一趟排序将待排记录分隔成独立的两部分,其中一部分记录的关键字均比另一部分的关键字小,则可分别对这两部分记录继续进行排序,以达到整个序列有序。
  • 时间复杂度:平均为 O(n log n),最坏情况为 O(n^2)。
  • 空间复杂度:O(log n)。
  • 稳定性:不稳定。
  1. 堆排序(Heap Sort)
  • 原理:利用堆这种数据结构所设计的一种排序算法。堆积是一个近似完全二叉树的结构,并同时满足堆积的性质:即子节点的键值或索引总是小于(或者大于)它的父节点。
  • 时间复杂度:O(n log n)。
  • 空间复杂度:O(1)。
  • 稳定性:不稳定。
  1. 计数排序(Counting Sort)
  • 原理:不是基于比较的排序算法,其核心在于将输入的数据值转化为键存储在额外开辟的数组空间中。作为一种线性时间复杂度的排序,计数排序要求输入的数据必须是有确定范围的整数。
  • 时间复杂度:O(n + k),其中 k 是数据范围。
  • 空间复杂度:O(k)。
  • 稳定性:稳定。
  1. 桶排序(Bucket Sort)
  • 原理:将数组分到有限数量的桶子里。每个桶子再个别排序(有可能再使用别的排序算法或是以递归方式继续使用桶排序进行排序)。
  • 时间复杂度:平均为 O(n + k),最坏情况为 O(n^2)。
  • 空间复杂度:O(n + k)。
  • 稳定性:稳定。
  1. 基数排序(Radix Sort)
  • 原理:按照低位先排序,然后收集;再按照高位排序,然后再收集;依次类推,直到最高位。有时候有些属性是有优先级顺序的,先按低优先级排序,再按高优先级排序。
  • 时间复杂度:O(nk),其中 k 是数字的最大位数。
  • 空间复杂度:O(n + k)。
  • 稳定性:稳定。

总结

  • 时间复杂度:O(n log n) 的算法有归并排序、堆排序、快速排序等。
  • 稳定性:稳定的排序算法包括冒泡排序、插入排序、归并排序、计数排序、桶排序和基数排序等。
  • 空间复杂度:O(1) 的算法包括冒泡排序、选择排序、插入排序、希尔排序和堆排序等。