本文主要是介绍使用ollama + webui+docker 运行任意大模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
🏡 Home | Open WebUI
如果您的计算机上有 Ollama,请使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
访问本地ip+3000就行了
这篇关于使用ollama + webui+docker 运行任意大模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!