如何在 Windows 上安装 DeepSeek-R1 32B:系统要求、Docker、Ollama 和 WebUI 设置
DeepSeek-R1 32B 系统要求 Docker、Ollama 和 WebUI 设置
成分 | 最低要求 | 推荐要求 |
---|---|---|
图形处理器 | NVIDIA RTX 3090(24GB 显存) | NVIDIA RTX 4090 / A100(40GB+显存) |
中央处理器 | 8 核处理器(Intel i7 / AMD Ryzen 7) | 16 核处理器(Intel i9 / AMD Ryzen 9) |
内存 | 32GB | 64GB+ |
贮存 | 100GB固态硬盘 | 1TB NVMe固态硬盘 |
操作系统 | Windows 10/11 | Windows 11 |
Docker 支持 | 已启用 WSL2 | 已启用 WSL2 |
安装方法
我将提供三种不同的安装方法:
- 使用 Docker(便于容器化部署)
- 使用 Ollama(简化本地安装)
- 使用 WebUI(基于浏览器的交互式体验)
1️⃣使用 Docker 安装 DeepSeek-R1 32B
步骤1:安装Docker
- 下载适用于 Windows 的Docker Desktop。
- 运行安装程序并在安装期间启用WSL2 Backend。
- 重新启动系统并使用以下命令验证安装:
docker --version
步骤 2:拉取 DeepSeek-R1 32B Docker 镜像
运行以下命令下载DeepSeek-R1 32B镜像:
docker pull deepseek/deepseek-r1:32b
步骤3:运行Docker容器
在容器中启动DeepSeek模型:
docker run -d --gpus all -p 8080:8080 --name deepseek-r1-32b deepseek/deepseek-r1:32b
-d
→ 以分离模式运行--gpus all
→ 分配所有可用的 GPU-p 8080:8080
→ 将容器端口映射到本地机器
步骤 4:访问 WebUI
- 打开浏览器并转到:
http://localhost:8080
- 开始与 DeepSeek-R1 32B 交互!
2️⃣ 使用 Ollama 安装 DeepSeek-R1 32B
Ollama 是一种简化本地运行 LLM 的替代方案。
步骤1:安装Ollama
- 下载适用于 Windows 的 Ollama
- 运行安装程序并按照安装说明进行操作。
步骤2:安装DeepSeek-R1 32B模型
安装 Ollama 后,运行以下命令:
ollama pull deepseek-r1:32b
这将下载并准备模型。
步骤3:在本地运行DeepSeek-R1
以交互模式启动DeepSeek-R1:
ollama run deepseek-r1:32b
现在,您可以直接从终端与 DeepSeek 聊天。
3️⃣ 使用 WebUI 运行 DeepSeek-R1
如果您更喜欢交互式 WebUI,请按照以下附加步骤操作。
第 1 步:安装 WebUI (text- Generation-webui)
克隆并安装text-generation-webui:
git clone https://github.com/oobabooga/text-generation-webui.git
cd text-generation-webui
pip install -r requirements.txt
步骤 2:使用 DeepSeek 启动 WebUI
启动 WebUI 并指定 DeepSeek 模型:
python server.py --model deepseek-r1:32b
现在,您可以通过 WebUI 访问 DeepSeek-R1:
http://localhost:5000
您应该选择哪种方法?
方法 | 最适合 | 易于设置 |
---|---|---|
Docker | 在隔离容器中运行 | ⭐⭐⭐ |
奥拉马 | 快速设置和本地执行 | ⭐⭐⭐⭐⭐ |
WebUI | 基于浏览器的交互 | ⭐⭐⭐⭐ |
如果你拥有强大的 GPU,Docker或Ollama是不错的选择。
如果你更喜欢通过浏览器访问,请选择WebUI 设置。