在手机上释放AI魔力:用Termux部署DeepSeek-R1本地大语言模型完全指南

引言

想象一下,拥有一个强大的AI大语言模型,不需要联网,不需要支付API费用,完全在您的手机上运行。本文将详细介绍如何在Android手机上通过Termux应用程序使用Ollama部署DeepSeek-R1模型,让您随时随地都能享受AI的便利。

准备工作

设备要求

  • 1台Android手机或平板
  • 至少4GB RAM (8GB或更高会有更好体验)
  • 至少10GB可用存储空间

软件准备

  • Termux应用程序

安装步骤

1. 安装Termux

从F-Droid下载最新版Termux(不推荐从Google Play商店下载,因为那里的版本可能已过时):

1
https://f-droid.org/packages/com.termux/

安装完成后,打开Termux进行换源(已经换源过的可以跳过这一步,这里选择阿里云的镜像源):

输入这行命令:

1
termux-change-repo

按下键盘上的下键,接着按下空格,回车。
使用上下键切换适合的源,按下空格键后回车即可完成设置。

2. 安装必要依赖

首先更新软件包,输入这行命令(如果提示输入就输入”y”):

1
pkg update && pkg upgrade -y

接着安装Ollama:

1
pkg install ollama

3. 下载DeepSeek-R1模型

DeepSeek-R1有多种模型可选(1.5B、7B、8B等),性能不好的设备建议使用1.5B,性能好且内存大的设备可以选用7B。

输入这行命令启动Ollama:

1
ollama serve

接着右滑,选择”NEW SESSION”,新建一个会话,输入这行命令下载DeepSeek-R1模型:

1
ollama run deepseek-r1:1.5b

若需要使用7B模型,将1.5换成7即可

4. 运行模型

当运行完上述命令后出现success时,接下来就可以进行对话了。左滑键盘上的Termux自带的小键盘可以输入中文,输入/bye或者按下CTRL + D即可退出对话。

重新输入ollama run deepseek-r1:<你的模型的参数数量>就可以重新运行模型。

❗ 每次退出后重新打开应用需重新输入ollama serve以启动Ollama服务。

故障排除

内存不足

如果遇到内存不足的问题,尝试以下解决方案:

  1. 关闭后台运行的其他应用
  2. 使用更小的模型

Ollama服务无法启动

如果ollama serve命令失败,尝试以下步骤:

  1. 确保Termux有足够的存储权限
  2. 检查是否已正确安装Ollama
  3. 重新启动Termux应用

结语

通过本指南,您已经学会了如何在手机上部署和运行DeepSeek-R1大语言模型。这不仅为您提供了一个随身携带的AI助手,还保护了您的隐私,因为所有数据处理都在本地完成。

由于是本地模型且不需要联网,加上模型参数较低,实际体验会与官网大不相同,AI回答的质量也会低于在线版本。但对于日常简单任务和离线使用场景,这是一个极具价值的解决方案。

希望这份指南能帮助您探索AI的无限可能!如有问题或建议,欢迎分享交流。


注意:实际性能会因设备配置而异,较旧或配置较低的设备可能无法流畅运行该模型。在这种情况下,建议尝试更小的模型版本。


本站由 Thomas 创建。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。