可以使用 DeepSeek R1 或 Visual Studio Code 或 Cline 或 Roo Code
我希望我能提供一些有用的信息,并以开放源代码的方式使用DeepSeek R1 和pedida。参加 GPT-4、o1-mini、Claude 3.5 等模型的竞赛。 Eu testei e so tenho elogios!
如果您直接使用Visual Studio Code,可以使用类似于 GitHub Copilot 的代码代理,但几乎没有什么问题,可以使用LM Studio、Ollama和Jan 来实现。
DeepSeek R1 是否已经过去了?
-
非常感谢和开源:不同的模型与幸运的是,你可以使用它。https://chat.deepseek.com上的聊天内容具有包容性。
-
描述:在逻辑、数学和代码中进行模型的竞争和结束(que é a minha parte prereferida)。
-
不同版本:本地参数 (LLM) 具有 1.5B 和 70B 参数的模型,可根据 PC 的硬件情况进行调整。
-
集成工具:可以连接 VSCode 并扩展Cline或Roo Code。
-
客户:您可以使用本地化的代币或 API。 Uma placa de 视频和推荐,pois rodando só pelo processador é mais lento。
重要的前事
-
节省递归:Se seu PC não é tão forte,fique com os modelos menores(1.5B 或 7B 参数)或量化。
-
RAM计算器:使用LLM Calc pra saber或最少的RAM内存来记录。
-
隐私:Rodando 本地、与 PC 无关、与外部服务无关。
-
可以使用以下方式:Rodar localmente é de graça,您可以使用 DeepSeek 的 API,可以精确地使用代币,并了解更多相关信息。
Qual Modelo Escolher?依赖电脑!
DeepSeek R1 的不同之处在于,它取决于硬件:
-
1.5B 参数:
- 所需 RAM:~4 GB。
- GPU:Integrada(例如 NVIDIA GTX 1050)或现代 CPU。
- 普拉奎?:Tarefa 简化了电脑的使用。
-
7B 参数:
- 所需 RAM:~8-10 GB。
- GPU:Dedicada(例如 NVIDIA GTX 1660 或 melhor)。
- 普拉奎?: 与 PC 和硬件相关的中间介质。
-
70B 参数:
- 所需 RAM:~40 GB。
- GPU:高端(例如 NVIDIA RTX 3090 或高级)。
- 普拉奎?:Tarefa 复合物是 PC 的超级力量。
Como Rodar 或 DeepSeek R1 Localmente
1. Usando 或 LM Studio
-
安装 LM Studio:无需进入LM Studio站点即可安装系统。
-
DeepSeek R1 的型号:无需 LM Studio,可访问 Discover ,研究“DeepSeek R1”并选择与系统兼容的版本。如果您使用的是 Apple 的 MacBook 处理器,请选择MLX选择以防止损坏(与 Apple 的硬件相对应)。对于 Windows 或 Linux,可使用GGUF选项。
-
模型操作:从本地模型中获取信息,选择 DeepSeek R1 和Load 组。
-
本地服务器起始地址:Na a aba Developer , habilite Start Server。 Ele vai começar a rodar o modelo no
http://localhost:1234
. -
Siga para a etapa 4 Integrando com o VSCode!
2. 乌桑多·奥拉马
- 安装 Ollama:没有安装Ollama的网站。
- Baixe o modelo : 无终点站,骑行*:
ollama pull deepseek-r1
*Esse é o 模型主体,se quiser modelos menores,vá em https://ollama.com/library/deepseek-r1并且可以在没有终端的情况下执行。
- inicie o server : 无终端,执行:
ollama serve
O comando vai começar a roda o modelo em http://localhost:11434
。
- Siga para a etapa 4 Integrando com o VSCode!
3. 于山岛
-
一月安装:Escolha a versão para o seu sistema no site do Jan。
-
模型的目录:一月后,您将无法看到 DeepSeek R1 的方向,请访问“unsloth gguf deepseek r1”的Hugging Face和 pesquisei 手册网站。遇到这种情况时,请选择“使用此模型”并选择一个选项。一月后自动启动模型,并实现下载。
-
Carregue o modelo:Depois de baixar、selecione o modelo e clique em Load。
-
服务器启动:自动启动服务器启动,然后启动
http://localhost:1337
。 -
Siga para a etapa 4 Integrando com o VSCode!
4. 与 VSCode 集成
- 安装扩展:无需使用 VSCode 来安装扩展或 Cline 或 Roo Code。
-
配置 Jan 或 LM Studio 的扩展:根据Roo Code 的实际情况配置Cline。 Siga os passos abaixo:
- 扩展并访问“设置”。
- Em API Provider,选择“LM Studio”。
- 没有campo Base URL,没有Jan或没有LM Studio的URL配置。
- 模型ID可以自动自动显示并显示模型信息。相反,请选择DeepSeek模型的手动操作。
- 最后点击“完成”。
-
配置 Ollama 扩展:
- 扩展并访问“设置”。
- Em API Provider,选择“Ollama”。
- 没有campo Base URL,在URL配置中没有Ollama。
- 模型ID可以自动自动显示并显示模型信息。相反,请选择DeepSeek模型的手动操作。
- 最后点击“完成”。
-
总结,集市和 Cline 或 Roo Code 功能的整合。
结论
DeepSeek R1 是一款非常好用的 IA 机器。 Com LM Studio、Ollama或Jan,可以通过Visual Studio Code直接集成本地化和集成。 Escolha o modelo que cabe no seu PC e comece a usar hoje mesmo!
鏂囩珷鏉ユ簮锛�https://dev.to/dwtoledo/como-usar-o-deepseek-r1-de-graca-no-visual-studio-code-com-cline-ou-roo-code-3pi9