可以使用 DeepSeek R1 或 Visual Studio Code 或 Cline 或 Roo Code

2025-06-08

可以使用 DeepSeek R1 或 Visual Studio Code 或 Cline 或 Roo Code

我希望我能提供一些有用的信息,并以开放源代码的方式使用DeepSeek R1 和pedida。参加 GPT-4、o1-mini、Claude 3.5 等模型的竞赛。 Eu testei e so tenho elogios!

如果您直接使用Visual Studio Code,可以使用类似于 GitHub Copilot 的代码代理,但几乎没有什么问题,可以使用LM StudioOllamaJan 来实现。


DeepSeek R1 是否已经过去了?

  • 非常感谢和开源:不同的模型与幸运的是,你可以使用它。https://chat.deepseek.com上的聊天内容具有包容性

  • 描述:在逻辑、数学和代码中进行模型的竞争和结束(que é a minha parte prereferida)。

  • 不同版本:本地参数 (LLM) 具有 1.5B 和 70B 参数的模型,可根据 PC 的硬件情况进行调整。

  • 集成工具:可以连接 VSCode 并扩展ClineRoo Code

  • 客户:您可以使用本地化的代币或 API。 Uma placa de 视频和推荐,pois rodando só pelo processador é mais lento。


重要的前事

  • 节省递归:Se seu PC não é tão forte,fique com os modelos menores(1.5B 或 7B 参数)或量化。

  • RAM计算器:使用LLM Calc pra saber或最少的RAM内存来记录。

  • 隐私:Rodando 本地、与 PC 无关、与外部服务无关。

  • 可以使用以下方式:Rodar localmente é de graça,您可以使用 DeepSeek 的 API,可以精确地使用代币,并了解更多相关信息。


Qual Modelo Escolher?依赖电脑!

DeepSeek R1 的不同之处在于,它取决于硬件:

  • 1.5B 参数

    • 所需 RAM:~4 GB。
    • GPU:Integrada(例如 NVIDIA GTX 1050)或现代 CPU。
    • 普拉奎?:Tarefa 简化了电脑的使用。
  • 7B 参数

    • 所需 RAM:~8-10 GB。
    • GPU:Dedicada(例如 NVIDIA GTX 1660 或 melhor)。
    • 普拉奎?: 与 PC 和硬件相关的中间介质。
  • 70B 参数

    • 所需 RAM:~40 GB。
    • GPU:高端(例如 NVIDIA RTX 3090 或高级)。
    • 普拉奎?:Tarefa 复合物是 PC 的超级力量。

Como Rodar 或 DeepSeek R1 Localmente


1. Usando 或 LM Studio

  • 安装 LM Studio:无需进入LM Studio站点即可安装系统。

  • DeepSeek R1 的型号:无需 LM Studio,可访问 Discover 研究“DeepSeek R1”并选择与系统兼容的版本。如果您使用的是 Apple 的 MacBook 处理器,请选择MLX选择以防止损坏(与 Apple 的硬件相对应)。对于 Windows 或 Linux,可使用GGUF选项

  • 模型操作:从本地模型中获取信息,选择 DeepSeek R1 和Load 组

  • 本地服务器起始地址:Na a aba Developer , habilite Start Server。 Ele vai começar a rodar o modelo no http://localhost:1234.

  • Siga para a etapa 4 Integrando com o VSCode


2. 乌桑多·奥拉马

  • 安装 Ollama:没有安装Ollama的网站。
  • Baixe o modelo : 无终点站,骑行*:
   ollama pull deepseek-r1  
Enter fullscreen mode Exit fullscreen mode

*Esse é o 模型主体,se quiser modelos menores,vá em https://ollama.com/library/deepseek-r1并且可以在没有终端的情况下执行。

  • inicie o server : 无终端,执行:
   ollama serve  
Enter fullscreen mode Exit fullscreen mode

O comando vai começar a roda o modelo em http://localhost:11434

  • Siga para a etapa 4 Integrando com o VSCode

3. 于山岛

  • 一月安装:Escolha a versão para o seu sistema no site do Jan

  • 模型的目录:一月后,您将无法看到 DeepSeek R1 的方向,请访问“unsloth gguf deepseek r1”的Hugging Face和 pesquisei 手册网站。遇到这种情况时,请选择“使用此模型”并选择一个选项。一月后自动启动模型,并实现下载。

  • Carregue o modelo:Depois de baixar、selecione o modelo e clique em Load

  • 服务器启动:自动启动服务器启动,然后启动http://localhost:1337

  • Siga para a etapa 4 Integrando com o VSCode


4. 与 VSCode 集成

  • 安装扩展:无需使用 VSCode 来安装扩展或 Cline 或 Roo Code。

  • 配置 Jan 或 LM Studio 的扩展:根据Roo Code 的实际情况配置Cline。 Siga os passos abaixo:

    • 扩展并访问“设置”
    • Em API Provider,选择“LM Studio”
    • 没有campo Base URL,没有Jan或没有LM Studio的URL配置。
    • 模型ID可以自动自动显示并显示模型信息。相反,请选择DeepSeek模型的手动操作。
    • 最后点击“完成”

  • 配置 Ollama 扩展

    • 扩展并访问“设置”
    • Em API Provider,选择“Ollama”
    • 没有campo Base URL,在URL配置中没有Ollama。
    • 模型ID可以自动自动显示并显示模型信息。相反,请选择DeepSeek模型的手动操作。
    • 最后点击“完成”
  • 总结,集市和 Cline 或 Roo Code 功能的整合。


结论

DeepSeek R1 是一款非常好用的 IA 机器。 Com LM StudioOllamaJan,可以通过Visual Studio Code直接集成本地化和集成。 Escolha o modelo que cabe no seu PC e comece a usar hoje mesmo!

鏂囩珷鏉ユ簮锛�https://dev.to/dwtoledo/como-usar-o-deepseek-r1-de-graca-no-visual-studio-code-com-cline-ou-roo-code-3pi9
PREV
[pt-BR] Como 配置或 SSH 没有 Github? Terminal Chaves já exitentes Gerar uma nova chave Adicionar chave privada no ssh-agent Copiar chave pública Adicionar chave no Github Testando a conexão SSH
NEXT
API 中的版本控制