DeepSeek:DeepSeek-R1可通过VLLM进行多卡单机部署。首先使用UV创建虚拟环境并安装vllm。然后设置环境变量,包括可选的镜像站和内存拓展配置
通过 UV 创造虚拟环境
curl -LsSf https://astral.sh/uv/install.sh | sh
uv venv Deepseek --python 3.12 --seed
安装 VLLM
uv pip install vllm
设置环境变量
可选
export HF_ENDPOINT=http://localhost:8090 #使用镜像站下载模型文件
启动模型
vllm serve "deepseek-ai/DeepSeek-R1" --trust-remote-code --tensor-parallel-size 8
参数说明
--trust-remote-code
用于信任代码位于 Hub 上而不是原生位于 Transformers 库中的模型
--tensor-parallel-size
设置单机使用的 GPU 数量
建议增加具体方法论,避免停留口号层面。
跨界融合的尝试为文章注入新鲜活力。
这篇文章提供了宝贵的经验和见解,对读者有很大的启发和帮助。