【VLLM】open-webui部署模型全流程

目录 前言 一、租用服务器到服务器连接VScode全流程(可选) 二、下载模型到本地服务器 2.1 进入魔塔社区官网 2.2 选择下载模型 2.3 执行下载 三、部署VLLM 3.1 参考vllm官网文档 3.2 查看

目录

前言

  一、租用服务器到服务器连接VScode全流程(可选)

二、下载模型到本地服务器

2.1 进入魔塔社区官网

2.2 选择下载模型

2.3 执行下载

三、部署VLLM

3.1 参考vllm官网文档

3.2 查看硬件要求

3.3 安装vLLM框架

3.4 启动模型服务

方法1:直接启动下载的本地模型

方法2:启动微调后的模型

3.5 调用模型进行对话(可选)

四、安装open-webui流程

4.1 创建虚拟环境

 4.2 安装并运行open-webui

4.3 启动后效果

五、总结


前言

本章主要讲述的是VLLM的部署在open-webui上部署模型的全流程,效果如下:


  一、租用服务器到服务器连接VScode全流程(可选)

AutoDL连接VSCode运行深度学习项目的全流程教程:
【云端深度学习训练与部署平台】AutoDL连接VSCode运行深度学习项目的全流程-CSDN博客

AutoDL官网地址:AutoDL算力云 | 弹性、好用、省钱。租GPU就上AutoDL

这里介绍了 AutoDL 平台的使用方法,从平台简介、服务器租用、VSCode远程连接,到高级GPU监控工具的安装,适合中文开发者快速上手深度学习任务。

▲如果说电脑硬件配置太低(如:显存低于24GB),请根据【AutoDL连接VSCode运行深度学习项目的全流程教程】,通过云服务器来进行部署运行;

▲如果说电脑硬件配置足够高(如:显存24GB及以上),或者说有自己的服务器,可以直接跳过这一步;


二、下载模型到本地服务器

说明:如果本地已经下载了模型,可以直接到【三、部署VLLM

2.1 进入魔塔社区官网

魔塔社区官网地址:ModelScope 魔搭社区


2.2 选择下载模型

这里根据业务场景选择合适的模型类型和模型参数大小即可。

这里用SDK的下载方式下载模型:将代码复制到服务器中


2.3 执行下载

▲在服务器的数据盘中(autodl-tmp下 )创建一个.py文件(如download_model.py);

▲将复制的SDK下载代码复制到【download_model.py】 ;

▲修改存放路径为数据盘:cache_dir="/root/autodl-tmp"

#模型下载
from modelscope import snapshot_download
model_dir = snapshot_download('Qwen/Qwen3-0.6B',cache_dir="/root/autodl-tmp")

cache_dir="/root/autodl-tmp"表示存放的路径,/root/autodl-tmp为数据盘路径;

#出发路径:服务器根目录

#查看当前位置
ls

#进入到数据盘路径
cd autodl-tmp/

#运行下载脚本download.py
python download.py

【注意】

▲下载完后,提示成功的信息可能会夹在进度条的中间,按下【回车】即可继续操作


▲验证模型文件是否下载完整?

这种情况主要出现在下载大参数模型时(如7B及以上参数模型),下载中途可能会因为网络问题导致文件下载失败从而终止。这种情况只需再次执行下载命令(如:python download.py),即可继续下载,中断反复执行即可,直到出现下载成功的提示信息即可。


▲模型资源重复

在下载模型时,有的模型文件可能会出现2个模型资源文件夹,不过这都不影响,不管用哪一份都可以;


三、部署VLLM

3.1 参考vllm官网文档

VllM文档参考地址:vLLM - vLLM 文档

因为VLLM的更新快,所以在部署过程中以官方文档为准

3.2 查看硬件要求

确保自己电脑硬件要求是否符合

发布者:admin,转转请注明出处:http://www.yc00.com/web/1754774871a5200421.html

相关推荐

发表回复

评论列表(0条)

  • 暂无评论

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信