您的位置:首页 > 科技 > 能源 > flash视频网站_南充网络推广_网络营销公司经营范围_seo查询5118

flash视频网站_南充网络推广_网络营销公司经营范围_seo查询5118

2025/4/2 22:01:38 来源:https://blog.csdn.net/fxtxz2/article/details/146592475  浏览:    关键词:flash视频网站_南充网络推广_网络营销公司经营范围_seo查询5118
flash视频网站_南充网络推广_网络营销公司经营范围_seo查询5118

问题

之前本地量化模型管理器ollama的文章,我们知道可以通过ollama来管理本地量化模型,也能够在命令行中与相关模型进行对话。现在我们想要在有个web页面通过浏览器来与本地模型对话。这里我们就使用Open webui作为界面来与本地模型对话。

安装启动

这里假设我们已经在本地已经使用了ollama,并且已经启动,这里我们只需要,同样在本地运行如下docker命令来安装open webui即可,如下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • --add-host=host.docker.internal:host-gatewayhost.docker.internal在docke网络中代表宿主机的ip,这样docker容器就可以使用它来访问宿主机的服务了,host-gateway代表docker网络中的默认网桥。添加一条这样的dns记录,就可以让容器通过host.docker.internal访问宿主机的服务了。

测试

等待一段时间open webui容器完全启动后,我们在打开本地http://localhost:3000/,设置管理员密码,就可以正常使用ollama中管理的本地量化模型 。效果如下:open webui效果

总结

到这里我们就可以通过ollama+open webui,在本地用上一个简化版的ai对话了。

参考

  • Open WebUI
  • open-webui github
  • host.docker.internal
  • host-gateway
  • Docker中访问宿主机:host.docker.internal

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com