安装 Open WebUI 主要有两种推荐方式:Docker(官方推荐,最快)和Python(pip 安装,适合低资源环境)。以下是最常用的安装步骤。

前提:确保已安装 Docker
1、拉取镜像
docker pull ghcr.io/open-webui/open-webui:main
或使用 Docker Hub 镜像(国内可能更快):
docker pull openwebui/open-webui:main
2、运行容器
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
-p 3000:8080:将容器的 8080 端口映射到本机的 3000 端口。
-v open-webui:/app/backend/data:持久化存储数据,避免重启后丢失。
3、访问界面
打开浏览器,访问 即可进入 Open WebUI。
常见配置选项:
- GPU 支持(Nvidia):使用
:cuda镜像并添加--gpus all参数。 - 内置 Ollama:使用
:ollama镜像,可在一个容器内同时运行 Open WebUI 和 Ollama。 - 单用户模式(无需登录):添加环境变量
-e WEBUI_AUTH=False。
Python 安装(适合无 Docker 环境)
前提:Python 3.11+ 和 pip 已安装。
- 创建并激活虚拟环境(可选但推荐)
python3 -m venv venv source venv/bin/activate # Linux/macOS # 或 venv\Scripts\activate # Windows - 安装 Open WebUI
pip install open-webui若下载慢,可使用国内镜像:
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple open-webui - 设置 Hugging Face 镜像(避免下载模型失败)
export HF_ENDPOINT=https://hf-mirror.com如需永久生效,可将该行添加到 ~/.bashrc或对应配置文件
- 启动服务
open-webui serve --host 0.0.0.0 --port 8080访问 http://localhost:8080
连接模型提供商
安装完成后,首次登录需注册管理员账号。接着在设置中连接模型后端,如:
Ollama(本地运行):默认地址 http://localhost:11434
OpenAI API:填入你的 API Key
其他支持提供商:Anthropic、llama.cpp、vLLM 等