站内搜索

搜索

06-02 13:26
05-31 17:11

[经验分享] Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI

494

主题

45

点数

1224

积分

管理员

积分
1224

柴到了三倍冰淇淋无人之境【一阶】立华奏小樱(小丑装)⑨的冰沙

发表于 2025-3-12 16:08:46 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线操作。它支持各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API。

项目地址:https://github.com/open-webui/open-webui

使用手册:https://docs.openwebui.com/

使用 ollama 部署本地语言模型:https://poiblog.com/archives/yyaStiNQ

demo-6793d95448aa180bca8dafbd21aa91b5 (1).gif

使用 Docker 安装 Open WebUI 时,请确保 -v open-webui:/app/backend/data在 Docker 命令中包含 。此步骤至关重要,因为它确保您的数据库正确安装并防止任何数据丢失。

使用默认配置

  • 如果 Ollama 在您的计算机上,请使用以下命令:

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 如果 Ollama 位于不同的服务器上,请使用以下命令:
    要连接到另一台服务器上的 Ollama,请将 更改 OLLAMA_BASE_URL为服务器的 URL:

    docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    • 要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
    docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

仅用于 OpenAI API 使用的安装

  • 如果您仅使用 OpenAI API,请使用以下命令:
    docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

安装带有捆绑 Ollama支持的

此安装方法使用将 Open WebUI 与 Ollama 捆绑在一起的单个容器映像,从而允许通过单个命令简化安装。根据您的硬件设置选择适当的命令:

  • 使用 GPU 支持:通过运行以下命令来利用 GPU 资源:
    docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
  • 仅适用于 CPU:如果您不使用 GPU,请改用以下命令:
    docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

我们现在可以输入 http://ip:3000/访问了。

故障排除

请详阅Open WebUI 文档

打开WebUI:服务器连接错误

如果您遇到连接问题,通常是由于 WebUI docker 容器无法访问容器内位于 127.0.0.1:11434 (host.docker.internal:11434) 的 Ollama 服务器。使用 --network=hostdocker 命令中的标志来解决此问题。请注意,端口从 3000 更改为 8080,导致链接:http://localhost:8080

Docker 命令示例

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

使您的 Docker 安装保持最新

如果您想将本地 Docker 安装更新到最新版本,可以使用Watchtower来完成:

docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

在命令的最后部分,open-webui如果不同,请替换为您的容器名称。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

加入社群

加入社群

Pixtech

Powered by Pixtech

© 2025 Pixtech Team.