安装Open WebUI主要有两种推荐方式

安装 Open WebUI 主要有两种推荐方式:Docker(官方推荐,最快)和Python(pip 安装,适合低资源环境)。以下是最常用的安装步骤。

前提:确保已安装 Docker

1、拉取镜像

docker pull ghcr.io/open-webui/open-webui:main

或使用 Docker Hub 镜像(国内可能更快):

 

docker pull openwebui/open-webui:main

2、运行容器

 

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

-p 3000:8080:将容器的 8080 端口映射到本机的 3000 端口。

-v open-webui:/app/backend/data:持久化存储数据,避免重启后丢失。

3、访问界面​

打开浏览器,访问 http://localhost:3000​ 即可进入 Open WebUI。

常见配置选项:

  • GPU 支持(Nvidia):使用 :cuda镜像并添加 --gpus all参数。
  • 内置 Ollama:使用 :ollama镜像,可在一个容器内同时运行 Open WebUI 和 Ollama。
  • 单用户模式(无需登录):添加环境变量 -e WEBUI_AUTH=False

Python 安装(适合无 Docker 环境)

前提:Python 3.11+ 和 pip 已安装。

  1. 创建并激活虚拟环境(可选但推荐)
    python3 -m venv venv
    source venv/bin/activate  # Linux/macOS
    # 或 venv\Scripts\activate  # Windows
  2. 安装 Open WebUI
    pip install open-webui

    若下载慢,可使用国内镜像:

    pip install -i https://pypi.tuna.tsinghua.edu.cn/simple open-webui

     

  3. 设置 Hugging Face 镜像(避免下载模型失败)
    export HF_ENDPOINT=https://hf-mirror.com

    如需永久生效,可将该行添加到 ~/.bashrc或对应配置文件

  4. 启动服务
    open-webui serve --host 0.0.0.0 --port 8080

    访问 http://localhost:8080

连接模型提供商

安装完成后,首次登录需注册管理员账号。接着在设置中连接模型后端,如:

Ollama(本地运行):默认地址 http://localhost:11434

OpenAI API:填入你的 API Key

其他支持提供商:Anthropic、llama.cpp、vLLM 等

 

上一篇 MarkItDown:微软开源的“万能文档转换器”,专为AI时代打造
实时下载排行