如何在 Visual Studio Code 中通过 Cline 或 Roo Code 免费使用 DeepSeek R1

2025-05-24

如何在 Visual Studio Code 中通过 Cline 或 Roo Code 免费使用 DeepSeek R1

如果您正在寻找一款推理能力出色且开源免费的人工智能那么新推出的DeepSeek R1是一个不错的选择。它的性能可与 GPT-4、o1-mini、Claude 3.5 等模型相媲美,甚至更胜一筹。我已经测试过它,并且对其赞不绝口!

如果您想在Visual Studio Code中直接运行它作为类似于 GitHub Copilot 的代码代理,而无需花一分钱,请跟着我一起学习如何使用LM StudioOllamaJan等工具来做到这一点。


为什么 DeepSeek R1 最近如此受热议?

  • 它是免费开源的:与许多收费昂贵的模型不同,您可以免费使用它。它甚至可以在https://chat.deepseek.com上进行聊天。

  • 性能:它在涉及逻辑、数学甚至代码生成(这是我最喜欢的部分)的任务中与其他模型竞争并胜过其他模型。

  • 多个版本:要在本地运行(LLM),有从 1.5B 到 70B 参数的模型,因此您可以根据您的硬件选择最适合您 PC 的模型。

  • 易于集成:您可以使用ClineRoo Code等扩展将其连接到 VSCode 。

  • 无成本:如果您在本地运行,则无需支付代币或 API 费用。建议使用显卡,因为仅使用 CPU 运行速度较慢。


开始之前的重要提示

  • 节省资源:如果您的 PC 性能不是很强大,请坚持使用较小的模型(1.5B 或 7B 参数)或量化版本。

  • RAM 计算器:使用LLM Calc找出您需要的最小 RAM。

  • 隐私:在本地运行意味着您的数据保留在您的电脑上,而不会进入外部服务器。

  • 无成本:本地运行免费,但如果您想使用 DeepSeek API,则需要支付代币费用。好消息是,他们的价格比竞争对手低得多。


选择哪种型号?取决于您的电脑!

DeepSeek R1 有多个版本,选择取决于您的硬件:

  • 1.5B参数

    • 所需 RAM:~4 GB。
    • GPU:集成(如 NVIDIA GTX 1050)或现代 CPU。
    • 用途:简单的任务和普通的电脑。
  • 7B参数

    • 所需 RAM:~8-10 GB。
    • GPU:专用(如 NVIDIA GTX 1660 或更好)。
    • 用途:中级任务和具有更好硬件的 PC。
  • 70B参数

    • 所需 RAM:~40 GB。
    • GPU:高端(如 NVIDIA RTX 3090 或更高版本)。
    • 用途:复杂的任务和超强大的个人电脑。

如何在本地运行 DeepSeek R1


1. 使用 LM Studio

  • 下载并安装 LM Studio:只需访问LM Studio网站并下载适合您系统的版本。

  • 下载 DeepSeek R1 模型:在 LM Studio 中,前往“发现”选项卡,搜索“DeepSeek R1”,然后选择与您的系统最兼容的版本。如果您使用的是搭载 Apple 处理器的 MacBook,请选中搜索栏旁边的MLX选项(这些版本已针对 Apple 硬件进行了优化)。对于 Windows 或 Linux 系统,请选择GGUF选项。

  • 加载模型:下载完成后,进入Local Models,选择 DeepSeek R1,点击Load

  • 启动本地服务器:在“开发人员”选项卡中,启用“启动服务器”。它将在 开始运行模型http://localhost:1234

  • 继续执行步骤 4与 VSCode 集成


2. 使用 Ollama

  • 安装 Ollama :从Ollama网站下载并安装。
  • 下载模型:在终端中,运行*:
   ollama pull deepseek-r1  
Enter fullscreen mode Exit fullscreen mode

*这是主要模型;如果您想要更小的模型,请转到https://ollama.com/library/deepseek-r1并查看在终端中运行哪个命令。

  • 启动服务器:在终端中执行:
   ollama serve  
Enter fullscreen mode Exit fullscreen mode

该命令将开始运行模型http://localhost:11434

  • 继续执行步骤 4与 VSCode 集成

3. 使用 Jan

  • 下载并安装 Jan :在Jan网站上选择适合您系统的版本

  • 下载模型:我在 Jan 的时候没能直接找到 DeepSeek R1。于是,我去了Hugging Face网站,手动搜索了“unsloth gguf deepseek r1”。我找到了想要的版本,点击了“使用此模型”按钮,并选择了 Jan。模型在 Jan 的时候自动打开了,然后我就下载了它。

  • 加载模型:下载完成后,选择模型,点击加载

  • 启动服务器:Jan 自动启动服务器,通常在http://localhost:1337

  • 继续执行步骤 4与 VSCode 集成


4. 与 VSCode 集成

  • 安装扩展:在 VSCode 中,打开扩展选项卡并安装 Cline 或 Roo Code。

  • 配置 Jan 或 LM Studio 的扩展: ClineRoo Code的配置几乎相同。请按照以下步骤操作:

    • 点击扩展并访问“设置”
    • API 提供程序中,选择“LM Studio”
    • 基本 URL字段中,输入在 Jan 或 LM Studio 中配置的 URL。
    • 如果您只有一个可用模型,则模型 ID 字段将自动填充。否则,请手动选择下载的DeepSeek模型。
    • 单击“完成”即可结束。

  • 配置 Ollama 的扩展

    • 点击扩展并访问“设置”
    • API 提供程序中,选择“Ollama”
    • 基本 URL字段中,输入在 Ollama 中配置的 URL。
    • 如果您只有一个可用模型,则模型 ID 字段将自动填充。否则,请手动选择下载的DeepSeek模型。
    • 单击“完成”即可结束。
  • 集成完成,现在只需享受 Cline 或 Roo Code 的功能。


结论

对于那些想要拥有强大 AI 又不想花钱的人来说,DeepSeek R1 简直是救星。借助LM StudioOllamaJan,您可以在本地运行它,并将其直接集成到Visual Studio Code中。选择适合您电脑的型号,立即开始使用!

文章来源:https://dev.to/dwtoledo/how-to-use-deepseek-r1-for-free-in-visual-studio-code-with-cline-or-roo-code-3an9
PREV
在 GitHub Actions 上为 React App 设置 CI/CD 工作流程(使用 GitHub Pages 和 Codecov)入门测试覆盖率报告生成在 GitHub Pages 上部署添加状态徽章奖励:缓存依赖项参考
NEXT
基本 JavaScript 面试问题