Ollama管理本地开源大模型,用Open WebUI访问Ollama接口
创始人
2024-12-27 12:43:48
0

现在开源大模型一个接一个的,而且各个都说自己的性能非常厉害,但是对于我们这些使用者,用起来就比较尴尬了。因为一个模型一个调用的方式,先得下载模型,下完模型,写加载代码,麻烦得很。

对于程序的规范来说,只要东西一多,我们就需要一个集中管理的平台,如管理pythonpip,管理js库的npm等等,而这种平台是大家争着抢着想实现的,这就有了Ollama

Ollama

Ollama 对于管理开源大模型是认真的,使用起来非常的简单,先看下如何使用:

github地址
在这里插入图片描述

linux 下的安装:

curl -fsSL https://ollama.com/install.sh | sh 

等进度条跑完,如果不出意外的话,Ollama就已经安装成功了。

用命令试一试,比如我们想用下Dolphin Phi:

ollama run dolphin-phi 

提示如下:

pulling manifest  pulling 4eca7304a07a... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏ 1.6 GB                          pulling 876a8d805b60... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏  10 KB                          pulling a47b02e00552... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏  106 B                          pulling 8b586b146d99... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏   40 B                          pulling f02dd72bb242... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏   59 B                          pulling c87a43ded80f... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏  555 B                          verifying sha256 digest  writing manifest  removing any unused layers  success  >>> 

有没有一种使用docker的感觉,Ollama 帮我们把大模型下了,还帮我们做了适配,在提示符下就可以使用了:

>>> hi Hello! How may I assist you today? Do you have any questions or need help with anything specific? I'm here to provide information and support for any  inquiries you might have. 

速度相当的快,但是这是控制台上测试使用的,还是不方便,Ollama还提供了api的方式,Ollama在安装成功以后,就 已经建立了11434端口:

curl http://localhost:11434/api/generate -d '{   "model": "dolphin-phi",   "prompt":"Why is the sky blue?" }' 

或者 对话模式:

curl http://localhost:11434/api/chat -d '{   "model": "mistral",   "messages": [     { "role": "user", "content": "why is the sky blue?" }   ] }' 

有了api的方式,那想象空间就更大了,让他也想chatgpt 一样,用网页进行访问,还能选择已经安装的模型。

但稍等一下,Ollama的默认配置是只有本地才可以访问,需要配置一下:

找到配置文件:/etc/systemd/system/ollama.servic

添加 Environment="OLLAMA_HOST=0.0.0.0:11434"

结果文件如下:

... [Service] Environment="OLLAMA_HOST=0.0.0.0:11434" ExecStart=/usr/bin/ollama serve ... 

重启:

systemctl daemon-reload systemctl restart ollama  

这样,在外网就能够使用ip的方式进行访问。

Open WebUI

Open WebUI 适配了Ollama接口,提供了web的方式来访问Ollama的API,用法也非常的简单,用docker的安装方式:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 

如果不是和Ollama 不是安装在同一台下,需要参考github

在这里插入图片描述

安装完成后,用浏览器 http://localhost:3000或者 http://ip:3000 打开Open WebUI。就可以看到Open WebUI的界面了。

在这里插入图片描述
体验了下Open WebUI,功能还是很完善的,如果安装有问题,可以评论区见。

相关内容

热门资讯

9分钟带你开挂!八闽辅助(辅助... 9分钟带你开挂!八闽辅助(辅助挂)果然真的有挂(有挂透明挂)-哔哩哔哩;相信小伙伴都知道这个八闽辅助...
第十分钟带你发现!游戏大厅浙江... 第十分钟带你发现!游戏大厅浙江脚本辅助(辅助挂)一贯确实有挂(有挂猫腻)-哔哩哔哩;AI辅助机器人普...
七分钟带你了解!闲来辅助神器免... 七分钟带你了解!闲来辅助神器免费版(辅助挂)一直确实有挂(有挂辅助)-哔哩哔哩;1、让任何用户在无需...
第五分钟带你透视!天天互娱网络... 第五分钟带你透视!天天互娱网络科技(辅助挂)原来确实有挂(有挂辅助)-哔哩哔哩;小薇(透视辅助)致您...
第3分钟带你透视!遇悦游戏辅助... 第3分钟带你透视!遇悦游戏辅助(辅助挂)其实是有挂的(有挂教学)-哔哩哔哩;遇悦游戏辅助是一项遇悦游...
第1分钟带你介绍!小程序微乐陕... 第1分钟带你介绍!小程序微乐陕西挖坑辅助(辅助挂)一贯真的有挂(有挂实锤)-哔哩哔哩;1、这是跨平台...
第七分钟带你开挂!牵手游戏辅助... 第七分钟带你开挂!牵手游戏辅助器(辅助挂)一直真的有挂(有挂方法)-哔哩哔哩;1、这是跨平台的牵手游...
七分钟带你透视!决战卡五星辅助... 【福星临门,好运相随】;七分钟带你透视!决战卡五星辅助(辅助挂)一直有挂(有挂总结)-哔哩哔哩;暗藏...
3分钟带你透视!大众互娱辅助器... 3分钟带你透视!大众互娱辅助器(辅助挂)果然真的有挂(有挂详情)-哔哩哔哩;最新版2026是一款经典...
第2分钟带你科普!决战卡五星作... 第2分钟带你科普!决战卡五星作弊(辅助挂)原来真的是有挂(有挂总结)-哔哩哔哩;大家肯定在之前决战卡...