open webui

其他源码 2025-08-07

open webui

open webui是一个可扩展的,功能丰富且用户友好的自托管AI平台,旨在完全离线运行。它支持OllamaOpenAI兼容API等各种LLM跑步者,并具有内置的RAG推理引擎,使其成为强大的AI部署解决方案

对开源AI充满热情?加入我们的团队→

提示

寻找企业计划? -今天与我们的销售团队交谈!

获得增强功能,包括自定义主题和品牌服务水平协议(SLA)支持长期支持(LTS)版本等等!

有关更多信息,请务必查看我们的open webui文档。

open webui的关键特征

  • 轻松的设置:使用Docker或Kubernetes(Kubectl,Kustomize或Helm)无缝安装,以获得无忧体验,并支持这两者:Ollama和:Cuda标记的图像。

  • ?Ollama/OpenAI API集成:毫不费力地将与OpenAI兼容的API与Ollama模型一起集成了多功能对话。自定义OpenAI API URL,以与Lmstudio,Groqcloud,Mistral,OpenRouter等链接。

  • ?️粒状权限和用户组:通过允许管理员创建详细的用户角色和权限,我们可以确保安全的用户环境。这种粒度不仅可以增强安全性,而且还允许定制的用户体验,从而增强用户的所有权和责任感。

  • 响应式设计:在台式电脑,笔记本电脑和移动设备上享受无缝体验。

  • 用于手机的Progressive Web应用程序(PWA) :使用我们的PWA在您的移动设备上享受类似于本机的应用程序的体验,在Localhost上提供脱机访问和无缝的用户界面。

  • ✒️?完整的降价和乳胶支持:通过全面的降价和乳胶功能来提高您的LLM体验,以富含互动。

  • ??免费的语音/视频通话:通过集成的免费语音和视频通话功能体验无缝的沟通,从而提供了更具动态和交互式聊天环境。

  • 模型构建器:通过Web UI轻松创建Ollama模型。创建并添加自定义角色/代理,自定义聊天元素,并通过open webui社区集成轻松导入模型。

  • ?本机Python函数呼叫工具:在工具工作区中使用内置代码编辑器支持增强您的LLM。通过简单地添加纯Python功能,启用自己的功能(BYOF),从而与LLM无缝集成。

  • 本地抹布整合:深入探讨与开创性检索增强发电(RAG)支持的聊天互动的未来。此功能无缝将文档互动整合到您的聊天体验中。您可以将文档直接加载到聊天中,也可以将文件添加到您的文档库中,在查询之前毫不费力地使用#命令访问它们。

  • ?网络搜索抹布:使用Searxng,Google PSE,Brave Search,Serpstack,Serper,Serply,DuckDuckgo,DuckDuckgo,TavilySearch,Searchapi和Bing等提供商执行网络搜索,并将结果直接注入您的聊天体验中。

  • Web浏览功能:使用#命令随后将网站无缝整合到您的聊天体验中。此功能使您可以将Web内容直接融合到对话中,从而增强交互的丰富性和深度。

  • ?图像生成集成:使用诸如Automatic1111 API或Comfyui(本地)和Openai的Dall-E(外部)等选项无缝合并图像生成功能,从而用动态的视觉内容丰富了您的聊天体验。

  • 许多模型对话:同时毫不费力地与各种模型互动,并利用其独特的优势来获得最佳响应。通过并行利用各种模型来增强您的体验。

  • ?基于角色的访问控制(RBAC) :通过限制权限确保安全访问;只有授权的个人才能访问您的Ollama,而专有的模型创建/拉力权则保留给管理员。

  • ?多语言支持:通过我们的国际化(I18N)支持,以您首选的语言体验open webui 。加入我们,扩展我们的支持语言!我们正在积极寻找贡献者!

  • ?管道, open webui插件支持:使用Pipelines插件框架将自定义逻辑和Python库无缝集成到open webui中。启动您的管道实例,将OpenAI URL设置为管道URL,并探索无尽的可能性。示例包括函数调用,用户速率限制控制访问,使用Langfuse等工具,使用LibrEtranslate的实时翻译进行多种语言支持,有毒消息过滤等。

  • ?连续更新:我们致力于通过常规更新,修复程序和新功能改善open webui 。

是否想了解有关open webui功能的更多信息?查看我们的open webui文档,以获取全面的概述!

赞助商?

N8N•您的界面有后端吗?
尝试N8N
尾部•将自托的AI连接到带有尾部的任何设备

我们非常感谢赞助商的慷慨支持。他们的贡献有助于我们维护和改善我们的项目,确保我们可以继续为社区提供优质的工作。谢谢你!

如何安装

通过Python Pip安装?

可以使用PIP,Python软件包安装程序来安装open webui 。在进行之前,请确保您使用Python 3.11避免兼容问题。

  1. 安装open webui :打开终端并运行以下命令以安装open webui :

    pip install open-webui
  2. 运行open webui :安装后,您可以通过open webui :

    open-webui serve

这将启动open webui服务器,您可以在http:// localhost:8080访问该服务器

快速启动Docker?

笔记

请注意,对于某些Docker环境,可能需要其他配置。如果您遇到任何连接问题,我们的open webui文档详细指南就可以为您提供帮助。

警告

使用Docker安装open webui时,请确保在Docker命令中包括-v Open -Webui:/app/backend/data。此步骤至关重要,因为它可以确保您的数据库正确安装并防止任何数据丢失。

提示

如果您希望以Ollama或CUDA加速使用open webui或CUDA加速,我们建议使用标记的官方图像:Cuda或:Ollama。要启用CUDA,您必须在Linux/WSL系统上安装NVIDIA CUDA容器工具包。

带有默认配置的安装

  • 如果Ollama在您的计算机上,请使用此命令:

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 如果Ollama在其他服务器上,请使用此命令:

    要在另一台服务器上连接到Ollama,请将Ollama_base_url更改为服务器的URL:

    docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://exampl**e*.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 要使用Nvidia GPU支持open webui ,请使用此命令:

    docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

仅用于OpenAI API使用的安装

  • 如果您仅使用OpenAI API ,请使用此命令:

    docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

与捆绑的Ollama支持安装open webui

此安装方法使用单个容器映像,该图像open webui ,从而可以通过单个命令进行简化的设置。根据您的硬件设置选择适当的命令:

  • 在GPU支持的情况下:通过运行以下命令来利用GPU资源:

    docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
  • 仅适用于CPU :如果您不使用GPU,请改用此命令:

    docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

这两种命令均可促进open webui和Ollama的内置无忧安装,以确保您可以迅速启动并运行所有内容。

安装后,您可以在http:// localhost:3000访问open webui 。享受! ?

其他安装方法

我们提供各种安装替代方案,包括非偶数本机安装方法,Docker组成,Kustomize和Helm。请访问我们的open webui文档或加入我们的Discord社区以获取全面的指导。

查看本地开发指南,以获取有关建立本地开发环境的说明。

故障排除

遇到连接问题?我们open webui文档已为您提供服务。要获得进一步的帮助并加入我们充满活力的社区,请访问open webui Discord。

open webui :服务器连接错误

如果您遇到连接问题,通常是由于Webui Docker容器无法在容器内部的127.0.0.0.1:11434(host.docker.internal:11434)到达Ollama Server。在您的Docker命令中使用-network =主机标志来解决此问题。请注意,端口从3000变为8080,导致链接:http:// localhost:8080。

示例Docker命令

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.*0*.*0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

使您的Docker安装保持最新

如果您想将本地Docker安装更新为最新版本,则可以使用watchtower进行操作:

docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

在命令的最后一部分中,如果有不同的话,请用您的容器名称替换开路。

检查我们的open webui文档”中可用的更新指南。

使用开发分支?

警告

:开发分支包含最新的不稳定功能和更改。它自身使用它,因为它可能具有错误或不完整的功能。

如果您想尝试最新的出血边缘功能,并且可以偶尔不稳定,则可以使用:Dev Tag这样:

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev

离线模式

如果您在离线环境中运行open webui ,则可以将HF_HUB_OFFLINE环境变量设置为1,以防止尝试从Internet下载模型。

 export HF_HUB_OFFLINE=1

接下来是什么? ?

在open webui文档中的路线图上发现即将到来的功能。

执照

该项目是根据open webui许可”(修订后的BSD-3-CAREASE许可证)获得许可的。您将获得与Classic BSD-3许可证相同的所有权利:您可以使用,修改和分发软件,包括具有最小限制的专有和商业产品。唯一的其他要求是保留许可证文件中详细介绍的“ open webui ”品牌。有关完整的条款,请参阅许可文件。 ?

支持

如果您有任何疑问,建议或需要帮助,请打开问题或加入我们的open webui Discord社区与我们建立联系! ?

星历史


由Timothy Jaeryang Baek创建的 - 让我们让open webui在一起更加惊人! ?

下载源码

通过命令行克隆项目:

git clone https://github.com/open-webui/open-webui.git