如何使用 Ollama 在本地运行 DeepSeek
如何使用 Ollama 在本地安装和运行 DeepSeek
DeepSeek 是一个强大的开源语言模型,借助Ollama,在本地运行它变得轻而易举。在本指南中,我将指导您安装 Ollama 并在命令行中运行DeepSeek-r1:1.5b 。

步骤1:安装Ollama
Ollama 提供了一种在本地运行和管理 AI 模型的简单方法。您可以使用以下命令安装它:
对于 macOS(通过 Homebrew)
brew install ollama
对于Linux
curl -fsSL https://ollama.ai/install.sh | sh
对于 Windows(通过 PowerShell)
iwr -useb https://ollama.ai/install.ps1 | iex
安装后,重新启动终端或命令提示符。
第 2 步:拉取 DeepSeek 模型
现在 Ollama 已安装,您需要下载 DeepSeek-r1:1.5b 模型。运行:
ollama pull deepseek-r1:1.5b
这将从 Ollama 的注册表中获取模型。首次运行时,模型将被下载,因此可能需要一段时间,具体取决于您的网速。
步骤3:在终端中运行DeepSeek
下载模型后,您可以开始与其进行交互式会话:
ollama run deepseek-r1:1.5b
这将启动 DeepSeek 模型,允许您输入提示并直接从终端接收 AI 生成的响应。
步骤 4:在脚本中使用 DeepSeek
如果要将 DeepSeek 集成到脚本中,可以使用 Ollama 的 API:
import ollama
response = ollama.chat("deepseek-r1:1.5b", "Hello, how can you assist me?")
print(response)
结论
现在,使用 Ollama 在本地运行 DeepSeek 比以往任何时候都更加轻松。无论您是将其用于个人项目、AI 研究还是开发,本指南都能帮助您入门。如果您仍在使用 ChatGPT 或尝试使用 DeepSeek,请告诉我!
祝你编码愉快!🚀
在 LinkedIn 上联系我并查看我的 GitHub 仓库:
鏂囩珷鏉ユ簮锛�https://dev.to/extinctsion/how-run-deepseek-locally-with-ollama-4kbd