1
2
3
4
5
6
7
8
|
# 如果要指定IP,添加指定IP环境变量后重新启动ollama,默认是127.0.0.1
export OLLAMA_HOST=192.168.x.x:11434
# 杀掉ollama相关进程
ps aux | grep -v grep | grep "ollama" | awk '{print $2}' | xargs kill -9
# 启动ollama,添加环境变量启用 OpenAI API 模式
OLLAMA_API_COMPAT_ENABLED=true OLLAMA_ORIGINS=* ollama serve &
# 运行模型
ollama run deepseek-r1:1.5b
|
接下来,我们将使用chatboxai进行更加便捷的交互体验。首先,在浏览器中打开chatboxai的页面:https://web.chatboxai.app/,然后进入到配置页面进行如下设置:
Settings->MODEL :在该选项中,我们需要对模型的相关参数进行配置。
Model Provider选择OLLAMA API :这一步将模型的提供方指定为OLLAMA API,确保chatboxai能够正确调用ollama中的模型。
AIP Host默认是http://127.0.0.1:11434 :该地址为ollama服务的默认地址,一般情况下无需修改,确保地址的准确性是实现正常交互的关键。
Model栏应该会自动检测到已经run的模型deepseek-r1:1.5b :如果模型已经成功运行,Model栏会自动识别并显示该模型,方便我们直接选择使用。如果没有在Model栏中加载出模型,那么建议重新运行一下ollama serve和ollama run。
save保存 :完成上述设置后,点击save保存配置,使设置生效。
――――――――――――――――
版权声明:本文为CSDN博主「UCAS_HMM」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/UCAS_HMM/article/details/145569881