vLLM CLI 指南¶
vllm 命令行工具用于运行和管理 vLLM 模型。你可以通过以下命令查看帮助信息:
可用命令:
serve¶
启动 vLLM OpenAI 兼容 API 服务器。
使用模型启动:
指定端口:
通过 Unix 域套接字提供服务:
使用 --help 查看更多选项:
# 列出所有分组
vllm serve --help=listgroup
# 查看参数分组
vllm serve --help=ModelConfig
# 查看单个参数
vllm serve --help=max-num-seqs
# 按关键词搜索
vllm serve --help=max
# 使用分页器查看完整帮助(less/more)
vllm serve --help=page
查看 vllm serve 了解所有可用参数的完整参考。
chat¶
通过运行中的 API 服务器生成聊天补全。
# 直接连接到本地 API,无需参数
vllm chat
# 指定 API 地址
vllm chat --url http://{vllm-serve-host}:{vllm-serve-port}/v1
# 使用单个提示词快速聊天
vllm chat --quick "hi"
查看 vllm chat 了解所有可用参数的完整参考。
complete¶
通过运行中的 API 服务器基于给定提示词生成文本补全。
# 直接连接到本地 API,无需参数
vllm complete
# 指定 API 地址
vllm complete --url http://{vllm-serve-host}:{vllm-serve-port}/v1
# 使用单个提示词快速补全
vllm complete --quick "The future of AI is"
查看 vllm complete 了解所有可用参数的完整参考。
bench¶
运行延迟、在线服务吞吐量和离线推理吞吐量的基准测试。
要使用基准测试命令,请使用 pip install vllm[bench] 安装额外的依赖。
可用命令:
latency¶
对单批次请求的延迟进行基准测试。
vllm bench latency \
--model meta-llama/Llama-3.2-1B-Instruct \
--input-len 32 \
--output-len 1 \
--enforce-eager \
--load-format dummy
查看 vllm bench latency 了解所有可用参数的完整参考。
serve¶
对在线服务吞吐量进行基准测试。
vllm bench serve \
--model meta-llama/Llama-3.2-1B-Instruct \
--host server-host \
--port server-port \
--random-input-len 32 \
--random-output-len 4 \
--num-prompts 5
查看 vllm bench serve 了解所有可用参数的完整参考。
throughput¶
对离线推理吞吐量进行基准测试。
vllm bench throughput \
--model meta-llama/Llama-3.2-1B-Instruct \
--input-len 32 \
--output-len 1 \
--enforce-eager \
--load-format dummy
查看 vllm bench throughput 了解所有可用参数的完整参考。
collect-env¶
开始收集环境信息。
run-batch¶
运行批量提示词并将结果写入文件。
使用本地文件运行:
vllm run-batch \
-i offline_inference/openai_batch/openai_example_batch.jsonl \
-o results.jsonl \
--model meta-llama/Meta-Llama-3-8B-Instruct
使用远程文件:
vllm run-batch \
-i https://raw.githubusercontent.com/vllm-project/vllm/main/examples/offline_inference/openai_batch/openai_example_batch.jsonl \
-o results.jsonl \
--model meta-llama/Meta-Llama-3-8B-Instruct
查看 vllm run-batch 了解所有可用参数的完整参考。
更多帮助¶
要查看任何子命令的详细选项,请使用: