如何在 Visual Studio Code 中通过 Cline 或 Roo Code 免费使用 DeepSeek R1
如果您正在寻找一款推理能力出色且开源免费的人工智能,那么新推出的DeepSeek R1是一个不错的选择。它的性能可与 GPT-4、o1-mini、Claude 3.5 等模型相媲美,甚至更胜一筹。我已经测试过它,并且对其赞不绝口!
如果您想在Visual Studio Code中直接运行它作为类似于 GitHub Copilot 的代码代理,而无需花一分钱,请跟着我一起学习如何使用LM Studio、Ollama和Jan等工具来做到这一点。
为什么 DeepSeek R1 最近如此受热议?
-
它是免费开源的:与许多收费昂贵的模型不同,您可以免费使用它。它甚至可以在https://chat.deepseek.com上进行聊天。
-
性能:它在涉及逻辑、数学甚至代码生成(这是我最喜欢的部分)的任务中与其他模型竞争并胜过其他模型。
-
多个版本:要在本地运行(LLM),有从 1.5B 到 70B 参数的模型,因此您可以根据您的硬件选择最适合您 PC 的模型。
-
易于集成:您可以使用Cline或Roo Code等扩展将其连接到 VSCode 。
-
无成本:如果您在本地运行,则无需支付代币或 API 费用。建议使用显卡,因为仅使用 CPU 运行速度较慢。
开始之前的重要提示
-
节省资源:如果您的 PC 性能不是很强大,请坚持使用较小的模型(1.5B 或 7B 参数)或量化版本。
-
RAM 计算器:使用LLM Calc找出您需要的最小 RAM。
-
隐私:在本地运行意味着您的数据保留在您的电脑上,而不会进入外部服务器。
-
无成本:本地运行免费,但如果您想使用 DeepSeek API,则需要支付代币费用。好消息是,他们的价格比竞争对手低得多。
选择哪种型号?取决于您的电脑!
DeepSeek R1 有多个版本,选择取决于您的硬件:
-
1.5B参数:
- 所需 RAM:~4 GB。
- GPU:集成(如 NVIDIA GTX 1050)或现代 CPU。
- 用途:简单的任务和普通的电脑。
-
7B参数:
- 所需 RAM:~8-10 GB。
- GPU:专用(如 NVIDIA GTX 1660 或更好)。
- 用途:中级任务和具有更好硬件的 PC。
-
70B参数:
- 所需 RAM:~40 GB。
- GPU:高端(如 NVIDIA RTX 3090 或更高版本)。
- 用途:复杂的任务和超强大的个人电脑。
如何在本地运行 DeepSeek R1
1. 使用 LM Studio
-
下载并安装 LM Studio:只需访问LM Studio网站并下载适合您系统的版本。
-
下载 DeepSeek R1 模型:在 LM Studio 中,前往“发现”选项卡,搜索“DeepSeek R1”,然后选择与您的系统最兼容的版本。如果您使用的是搭载 Apple 处理器的 MacBook,请选中搜索栏旁边的MLX选项(这些版本已针对 Apple 硬件进行了优化)。对于 Windows 或 Linux 系统,请选择GGUF选项。
-
加载模型:下载完成后,进入Local Models,选择 DeepSeek R1,点击Load。
-
启动本地服务器:在“开发人员”选项卡中,启用“启动服务器”。它将在 开始运行模型
http://localhost:1234
。 -
继续执行步骤 4与 VSCode 集成!
2. 使用 Ollama
- 安装 Ollama :从Ollama网站下载并安装。
- 下载模型:在终端中,运行*:
ollama pull deepseek-r1
*这是主要模型;如果您想要更小的模型,请转到https://ollama.com/library/deepseek-r1并查看在终端中运行哪个命令。
- 启动服务器:在终端中执行:
ollama serve
该命令将开始运行模型http://localhost:11434
。
- 继续执行步骤 4与 VSCode 集成!
3. 使用 Jan
-
下载并安装 Jan :在Jan网站上选择适合您系统的版本。
-
下载模型:我在 Jan 的时候没能直接找到 DeepSeek R1。于是,我去了Hugging Face网站,手动搜索了“unsloth gguf deepseek r1”。我找到了想要的版本,点击了“使用此模型”按钮,并选择了 Jan。模型在 Jan 的时候自动打开了,然后我就下载了它。
-
加载模型:下载完成后,选择模型,点击加载。
-
启动服务器:Jan 自动启动服务器,通常在
http://localhost:1337
。 -
继续执行步骤 4与 VSCode 集成!
4. 与 VSCode 集成
- 安装扩展:在 VSCode 中,打开扩展选项卡并安装 Cline 或 Roo Code。
-
配置 Jan 或 LM Studio 的扩展: Cline和Roo Code的配置几乎相同。请按照以下步骤操作:
- 点击扩展并访问“设置”。
- 在API 提供程序中,选择“LM Studio”。
- 在基本 URL字段中,输入在 Jan 或 LM Studio 中配置的 URL。
- 如果您只有一个可用模型,则模型 ID 字段将自动填充。否则,请手动选择您下载的DeepSeek模型。
- 单击“完成”即可结束。
-
配置 Ollama 的扩展:
- 点击扩展并访问“设置”。
- 在API 提供程序中,选择“Ollama”。
- 在基本 URL字段中,输入在 Ollama 中配置的 URL。
- 如果您只有一个可用模型,则模型 ID 字段将自动填充。否则,请手动选择您下载的DeepSeek模型。
- 单击“完成”即可结束。
-
集成完成,现在只需享受 Cline 或 Roo Code 的功能。
结论
对于那些想要拥有强大 AI 又不想花钱的人来说,DeepSeek R1 简直是救星。借助LM Studio、Ollama或Jan,您可以在本地运行它,并将其直接集成到Visual Studio Code中。选择适合您电脑的型号,立即开始使用!
文章来源:https://dev.to/dwtoledo/how-to-use-deepseek-r1-for-free-in-visual-studio-code-with-cline-or-roo-code-3an9