如何在 Android 设备上本地运行 DeepSeek R1
介绍
人工智能革命不再局限于高端服务器或云平台。借助DeepSeek R1等模型(它堪比顶级商业产品的先进推理模型),您现在可以直接在 Android 设备上运用先进的人工智能功能。在本指南中,我将向您展示如何在本地部署 DeepSeek R1,以实现隐私保护、自定义和离线使用。
为什么在 Android 上运行 DeepSeek R1?
- 隐私:无需依赖云,即可在本地处理敏感数据。
- 成本效益:避免 API 费用(DeepSeek 的 API 费用约为 OpenAI 的 5%)。
- 离线访问:即使没有互联网连接也可以使用 AI。
- 定制:针对特定应用(编码、创意写作等)微调模型。
先决条件
- 硬件:
- 具有≥8GB RAM的 Android 设备(适用于 8B/14B 型号)。
- Snapdragon 8 Gen 2/3 或同等处理器。
- ≥12GB存储空间。
- 软件:
- Termux(Linux 终端模拟器)。
- 熟悉基本命令行。
步骤 1:安装 Termux 和依赖项
- 下载 Termux :从Termux 的 GitHub获取最新的 APK 。
- 设置 Termux:
termux-setup-storage # Grant storage permissions
pkg update && pkg upgrade # Update packages
pkg install git cmake golang libjpeg-turbo # Install dependencies
第 2 步:从源代码构建 Ollama
Ollama 是一款管理 AI 模型的轻量级工具。
- 克隆存储库:
git clone --depth 1 https://github.com/ollama/ollama.git
cd ollama
- 编译 Ollama:
go generate ./...
go build . # Build the Ollama binary
步骤3:下载DeepSeek R1模型
对于 Android,请使用蒸馏或量化模型:
- 推荐:
deepseek-r1:1.5b
(5.7GB)或deepseek-r1:8b-q4
(量化)。
拉动模型:
./ollama run deepseek-r1:8b # Download the 8B model
步骤 4:运行 DeepSeek R1
- 启动 Ollama 服务器:
./ollama serve & # Run in the background
- 与模型交互:
./ollama run deepseek-r1:8b
>>> "Write Python code to calculate a Fibonacci sequence"
优化性能
- 使用量化模型:将 RAM 使用量减少 30%
deepseek-r1:8b-q4
。 - 防止睡眠:通过以下方式保持 Termux 处于活动状态:
pkg install termux-services
sv-enable termux-wake-lock
- 释放 RAM:运行模型之前关闭后台应用程序。
故障排除
- 端口冲突:
./ollama serve --port 8080 & # Use a different port
- 内存不足:监控 RAM
top
并切换到较小的型号。 - 未找到模型:确保下载完整
ollama pull deepseek-r1:8b
。
结论
在 Android 上运行 DeepSeek R1 可解锁私密的离线 AI,用于编码、研究和创意项目。通过本指南,您可以无需依赖云端,即可体验前沿模型。分享您的成果,调整设置,突破移动 AI 的极限!
进一步阅读:
文章来源:https://dev.to/majdisaibi/how-to-run-deepseek-r1-locally-on-your-android-device-4ape