Skip to content

vLLM CLI 指南

vllm 命令行工具用于运行和管理 vLLM 模型。你可以通过以下命令查看帮助信息:

vllm --help

可用命令:

vllm {chat,complete,serve,bench,collect-env,run-batch}

serve

启动 vLLM OpenAI 兼容 API 服务器。

使用模型启动:

vllm serve meta-llama/Llama-2-7b-hf

指定端口:

vllm serve meta-llama/Llama-2-7b-hf --port 8100

通过 Unix 域套接字提供服务:

vllm serve meta-llama/Llama-2-7b-hf --uds /tmp/vllm.sock

使用 --help 查看更多选项:

# 列出所有分组
vllm serve --help=listgroup
# 查看参数分组
vllm serve --help=ModelConfig
# 查看单个参数
vllm serve --help=max-num-seqs
# 按关键词搜索
vllm serve --help=max
# 使用分页器查看完整帮助(less/more)
vllm serve --help=page

查看 vllm serve 了解所有可用参数的完整参考。

chat

通过运行中的 API 服务器生成聊天补全。

# 直接连接到本地 API,无需参数
vllm chat
# 指定 API 地址
vllm chat --url http://{vllm-serve-host}:{vllm-serve-port}/v1
# 使用单个提示词快速聊天
vllm chat --quick "hi"

查看 vllm chat 了解所有可用参数的完整参考。

complete

通过运行中的 API 服务器基于给定提示词生成文本补全。

# 直接连接到本地 API,无需参数
vllm complete
# 指定 API 地址
vllm complete --url http://{vllm-serve-host}:{vllm-serve-port}/v1
# 使用单个提示词快速补全
vllm complete --quick "The future of AI is"

查看 vllm complete 了解所有可用参数的完整参考。

bench

运行延迟、在线服务吞吐量和离线推理吞吐量的基准测试。

要使用基准测试命令,请使用 pip install vllm[bench] 安装额外的依赖。

可用命令:

vllm bench {latency, serve, throughput}

latency

对单批次请求的延迟进行基准测试。

vllm bench latency \
  --model meta-llama/Llama-3.2-1B-Instruct \
  --input-len 32 \
  --output-len 1 \
  --enforce-eager \
  --load-format dummy

查看 vllm bench latency 了解所有可用参数的完整参考。

serve

对在线服务吞吐量进行基准测试。

vllm bench serve \
  --model meta-llama/Llama-3.2-1B-Instruct \
  --host server-host \
  --port server-port \
  --random-input-len 32 \
  --random-output-len 4 \
  --num-prompts 5

查看 vllm bench serve 了解所有可用参数的完整参考。

throughput

对离线推理吞吐量进行基准测试。

vllm bench throughput \
  --model meta-llama/Llama-3.2-1B-Instruct \
  --input-len 32 \
  --output-len 1 \
  --enforce-eager \
  --load-format dummy

查看 vllm bench throughput 了解所有可用参数的完整参考。

collect-env

开始收集环境信息。

vllm collect-env

run-batch

运行批量提示词并将结果写入文件。

使用本地文件运行:

vllm run-batch \
  -i offline_inference/openai_batch/openai_example_batch.jsonl \
  -o results.jsonl \
  --model meta-llama/Meta-Llama-3-8B-Instruct

使用远程文件:

vllm run-batch \
  -i https://raw.githubusercontent.com/vllm-project/vllm/main/examples/offline_inference/openai_batch/openai_example_batch.jsonl \
  -o results.jsonl \
  --model meta-llama/Meta-Llama-3-8B-Instruct

查看 vllm run-batch 了解所有可用参数的完整参考。

更多帮助

要查看任何子命令的详细选项,请使用:

vllm <subcommand> --help