在手机上释放AI魔力:用Termux部署DeepSeek-R1本地大语言模型完全指南
引言
想象一下,拥有一个强大的AI大语言模型,不需要联网,不需要支付API费用,完全在您的手机上运行。本文将详细介绍如何在Android手机上通过Termux应用程序使用Ollama部署DeepSeek-R1模型,让您随时随地都能享受AI的便利。
准备工作
设备要求
- 1台Android手机或平板
- 至少4GB RAM (8GB或更高会有更好体验)
- 至少10GB可用存储空间
软件准备
- Termux应用程序
安装步骤
1. 安装Termux
从F-Droid下载最新版Termux(不推荐从Google Play商店下载,因为那里的版本可能已过时):
1 | https://f-droid.org/packages/com.termux/ |
安装完成后,打开Termux进行换源(已经换源过的可以跳过这一步,这里选择阿里云的镜像源):
输入这行命令:
1 | termux-change-repo |
按下键盘上的下键,接着按下空格,回车。
使用上下键切换适合的源,按下空格键后回车即可完成设置。
2. 安装必要依赖
首先更新软件包,输入这行命令(如果提示输入就输入”y”):
1 | pkg update && pkg upgrade -y |
接着安装Ollama:
1 | pkg install ollama |
3. 下载DeepSeek-R1模型
DeepSeek-R1有多种模型可选(1.5B、7B、8B等),性能不好的设备建议使用1.5B,性能好且内存大的设备可以选用7B。
输入这行命令启动Ollama:
1 | ollama serve |
接着右滑,选择”NEW SESSION”,新建一个会话,输入这行命令下载DeepSeek-R1模型:
1 | ollama run deepseek-r1:1.5b |
若需要使用7B模型,将1.5换成7即可
4. 运行模型
当运行完上述命令后出现success时,接下来就可以进行对话了。左滑键盘上的Termux自带的小键盘可以输入中文,输入/bye或者按下CTRL + D即可退出对话。
重新输入ollama run deepseek-r1:<你的模型的参数数量>就可以重新运行模型。
❗ 每次退出后重新打开应用需重新输入
ollama serve以启动Ollama服务。
故障排除
内存不足
如果遇到内存不足的问题,尝试以下解决方案:
- 关闭后台运行的其他应用
- 使用更小的模型
Ollama服务无法启动
如果ollama serve命令失败,尝试以下步骤:
- 确保Termux有足够的存储权限
- 检查是否已正确安装Ollama
- 重新启动Termux应用
结语
通过本指南,您已经学会了如何在手机上部署和运行DeepSeek-R1大语言模型。这不仅为您提供了一个随身携带的AI助手,还保护了您的隐私,因为所有数据处理都在本地完成。
由于是本地模型且不需要联网,加上模型参数较低,实际体验会与官网大不相同,AI回答的质量也会低于在线版本。但对于日常简单任务和离线使用场景,这是一个极具价值的解决方案。
希望这份指南能帮助您探索AI的无限可能!如有问题或建议,欢迎分享交流。
注意:实际性能会因设备配置而异,较旧或配置较低的设备可能无法流畅运行该模型。在这种情况下,建议尝试更小的模型版本。