Skip to content

批次不变性

Note

批次不变性目前处于测试阶段。部分功能仍在积极开发中。 请通过 Issue #27433 跟踪开发进度和计划改进。

本文档介绍如何在 vLLM 中启用批次不变性。批次不变性确保模型的输出是确定性的,且与批次大小或批次中请求的顺序无关。

动机

批次不变性对于以下几种用例至关重要:

  • 框架调试:确定性输出使得推理框架的问题调试更加容易,因为相同的输入无论批处理如何,总会产生相同的输出。
  • 模型调试:通过确保在不同批次配置下行为一致,有助于识别模型实现中的问题。
  • 强化学习 (RL):RL 训练通常需要确定性的推演以保证可重现性和稳定的训练。
  • 大规模推理系统:将 vLLM 作为组件使用的系统受益于确定性行为,以便进行测试、验证和一致性保证。

硬件要求

批次不变性目前需要计算能力为 9.0 或更高的 NVIDIA GPU:

  • H 系列:H100、H200
  • B 系列:B100、B200

启用批次不变性

可以通过将 VLLM_BATCH_INVARIANT 环境变量设置为 1 来启用批次不变性:

export VLLM_BATCH_INVARIANT=1

在线推理(服务器模式)

要启动启用了批次不变性的 vLLM 服务器:

VLLM_BATCH_INVARIANT=1 vllm serve meta-llama/Llama-3.1-8B-Instruct

然后使用兼容 OpenAI 的客户端:

from openai import OpenAI

client = OpenAI(
    api_key="EMPTY",
    base_url="http://localhost:8000/v1",
)

# 这些请求将产生确定性的输出
# 无论批次大小或顺序如何
response = client.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    prompt="The future of AI is",
    max_tokens=100,
    temperature=0.7,
    seed=42,
)

print(response.choices[0].text)

离线推理

对于启用了批次不变性的离线批次推理:

import os
os.environ["VLLM_BATCH_INVARIANT"] = "1"

from vllm import LLM, SamplingParams

prompts = [
    "The future of AI is",
    "Machine learning enables",
    "Deep learning models can",
]

sampling_params = SamplingParams(
    temperature=0.7,
    top_p=0.95,
    max_tokens=100,
    seed=42,
)

llm = LLM(
    model="meta-llama/Llama-3.1-8B-Instruct",
    tensor_parallel_size=1,
)

# 输出将是确定性的,无论批次大小如何
outputs = llm.generate(prompts, sampling_params)

for output in outputs:
    prompt = output.prompt
    generated_text = output.outputs[0].text
    print(f"Prompt: {prompt!r}")
    print(f"Generated: {generated_text!r}\n")

已测试模型

批次不变性已在以下模型上测试并验证:

  • DeepSeek 系列deepseek-ai/DeepSeek-V3deepseek-ai/DeepSeek-V3-0324deepseek-ai/DeepSeek-R1deepseek-ai/DeepSeek-V3.1
  • Qwen3 (Dense)Qwen/Qwen3-1.7BQwen/Qwen3-8B
  • Qwen3 (MoE)Qwen/Qwen3-30B-A3BQwen/Qwen3-Next-80B-A3B-Instruct
  • Qwen2.5Qwen/Qwen2.5-0.5B-InstructQwen/Qwen2.5-1.5B-InstructQwen/Qwen2.5-3B-InstructQwen/Qwen2.5-7B-InstructQwen/Qwen2.5-14B-InstructQwen/Qwen2.5-32B-Instruct
  • Llama 3meta-llama/Llama-3.1-8B-Instructmeta-llama/Llama-3.2-1B-Instruct

其他模型可能也适用,但以上模型已经过明确验证。如果您在特定模型上遇到问题,请在 GitHub 问题跟踪器 上报告。

实现细节

启用批次不变性时,vLLM 会:

  1. 对注意力和其他操作使用确定性的内核实现
  2. 确保在不同批次大小下数值行为一致
  3. 禁用可能引入非确定性的某些优化(例如张量并行模式中的自定义 all-reduce 操作)

Note

与默认的非确定性模式相比,启用批次不变性可能会影响性能。这种权衡是为了保证可重现性而有意为之的。

未来改进

批次不变性功能正在积极开发中。计划的改进包括:

  • 支持更多 GPU 架构
  • 扩大模型覆盖范围
  • 性能优化
  • 更多测试和验证

有关最新状态和贡献想法,请参阅 跟踪问题