Termux-安卓机ollama+deepseek-R1部署

Termux-安卓机ollama+deepseek-R1部署

安装ollama

1
pkg install -y ollama

运行deepseek-R1模型

启动ollama

1
2
# 如果全程在手机上操作,建议后台运行ollama
ollama serve &

运行模型

1
2
# 命令参考自 https://ollama.com/library/deepseek-r1:1.5b
ollama run deepseek-r1:1.5b

chatboxai

1
2
3
4
5
6
7
8
# 如果要指定IP,添加指定IP环境变量后重新启动ollama,默认是127.0.0.1
export OLLAMA_HOST=192.168.x.x:11434
# 杀掉ollama相关进程
ps aux | grep -v grep | grep "ollama" | awk '{print $2}' | xargs kill -9
# 启动ollama,添加环境变量启用 OpenAI API 模式
OLLAMA_API_COMPAT_ENABLED=true OLLAMA_ORIGINS=* ollama serve &
# 运行模型
ollama run deepseek-r1:1.5b

接下来,我们将使用chatboxai进行更加便捷的交互体验。首先,在浏览器中打开chatboxai的页面:https://web.chatboxai.app/,然后进入到配置页面进行如下设置:

Settings->MODEL :在该选项中,我们需要对模型的相关参数进行配置。 Model Provider选择OLLAMA API :这一步将模型的提供方指定为OLLAMA API,确保chatboxai能够正确调用ollama中的模型。 AIP Host默认是http://127.0.0.1:11434 :该地址为ollama服务的默认地址,一般情况下无需修改,确保地址的准确性是实现正常交互的关键。 Model栏应该会自动检测到已经run的模型deepseek-r1:1.5b :如果模型已经成功运行,Model栏会自动识别并显示该模型,方便我们直接选择使用。如果没有在Model栏中加载出模型,那么建议重新运行一下ollama serve和ollama run。 save保存 :完成上述设置后,点击save保存配置,使设置生效。 ――――――――――――――――

版权声明:本文为CSDN博主「UCAS_HMM」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/UCAS_HMM/article/details/145569881

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计