Skip to content

Dify

Dify 是一个开源的 LLM 应用开发平台。其直观的界面集成了智能体 AI 工作流、RAG 管道、智能体能力、模型管理、可观测性等功能,让您能够快速从原型开发过渡到生产部署。

Dify 支持将 vLLM 作为模型提供商,以高效地提供大型语言模型服务。

本指南将引导您使用 vLLM 后端部署 Dify。

先决条件

设置 vLLM 环境:

pip install vllm

并安装 DockerDocker Compose

部署

  1. 使用支持的聊天补全模型启动 vLLM 服务器,例如:

    vllm serve Qwen/Qwen1.5-7B-Chat
    
  2. 使用 docker compose 启动 Dify 服务器(详情):

    git clone https://github.com/langgenius/dify.git
    cd dify
    cd docker
    cp .env.example .env
    docker compose up -d
    
  3. 打开浏览器访问 http://localhost/install,配置基本登录信息并登录。

  4. 在右上角用户菜单(位于头像图标下方)中,进入“设置”,然后点击“模型提供商”,找到 vLLM 提供商并安装它。

  5. 按如下方式填写模型提供商详细信息:

    • 模型类型LLM
    • 模型名称Qwen/Qwen1.5-7B-Chat
    • API 端点 URLhttp://{vllm_server_host}:{vllm_server_port}/v1
    • API 端点的模型名称Qwen/Qwen1.5-7B-Chat
    • 补全模式Completion

    Dify 设置界面

  6. 要创建测试聊天机器人,请进入“工作室 → 聊天机器人 → 从空白创建”,然后选择“聊天机器人”作为类型:

    Dify 创建聊天机器人界面

  7. 点击您刚刚创建的聊天机器人以打开聊天界面,并开始与模型交互:

    Dify 聊天界面