
Open WebUI接入DeepSeek&Siliconflow
一、部署Open WebUI
1.1 什么是Open WebUI
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器(如Ollama)和与OpenAI 兼容的 API,并内置RAG 推理引擎,使其成为强大的 AI 部署解决方案。
2.2 部署Open WebUI
Open WebUI根据不同的使用场景,提供了多种部署配置
(1)部署的主机上有Ollama:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
(2)Ollama在其他服务器上
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
(3)要运行支持 Nvidia GPU 的 Open WebUI
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
(4)仅使用OpenAI API
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
本文以仅使用OpenAI API为例;
执行完安装命令后,使用docker ps
查看容器状态
本文是原创文章,采用 CC BY-NC-ND 4.0 协议,完整转载请注明来自 JacobWang
评论
匿名评论
隐私政策
你无需删除空行,直接评论以获取最佳展示效果