modular

其他源码 2025-08-05

关于modular |入门| API文档|贡献| ChangElog

modular平台

AI开发和部署的统一平台,包括Max ?‍和Mojo

modular平台是AI库和工具的开放式和完全集成的套件,可加速模型服务和缩放Genai部署。它抽象了硬件复杂性,因此您可以使用行业领先的GPU和CPU性能运行最受欢迎的开放模型,而无需更改代码。

开始

您无需克隆此仓库。

您可以将modular作为PIP或CONDA软件包安装,然后使用您选择的型号启动与OpenAI兼容的端点。

如果我们修剪仪式步骤,则可以使用两个命令启动本地LLM端点:

pip install modular 
max serve --model-path= modular ai/Llama-3.1-8B-Instruct-GGUF

然后开始使用我们与OpenAI兼容的REST API发送Llama 3模型推理请求。

或尝试从我们的模型存储库中运行数百个模型。

有关完整的演练,请参阅《快速启动指南》。

部署我们的容器

最大容器是我们与Kubernetes兼容的Docker容器,以方便地部署,使用从上面显示的Max Serve命令中获得的相同的推理服务器。我们为NVIDIA和AMD GPU环境提供了单独的容器,以及与两者一起使用的统一容器。

例如,您可以使用此命令为NVIDIA GPU启动一个容器:

modular /max-nvidia-full:latest --model-path modular ai/Llama-3.1-8B-Instruct-GGUF">
docker run --gpus=1 
    -v ~ /.cache/huggingface:/root/.cache/huggingface 
    -p 8000:8000 
    docker. modular .com/ modular /max-nvidia-full:latest 
    --model-path modular ai/Llama-3.1-8B-Instruct-GGUF

有关更多信息,请参阅我们的最大容器文档或modular码头集线器存储库。

关于存储库

我们会不断开放更多的modular平台,您可以在这里找到所有模块化平台。截至2025年5月,此存储库包括来自6000多名贡献者的450,000行代码,为开发人员提供了生产级参考实现和工具,以扩展modular平台,并使用新的算法,操作和硬件目标。它很可能是世界上最大的开源CPU和GPU内核存储库

亮点包括:

  • Mojo标准图书馆: /Mojo /stdlib
  • Max GPU和CPU内核: /max /bernels(Mojo内核)
  • 最大推理服务器: /max /serve(OpenAI兼容端点)
  • Max Model Pipelines: /max /pipelines(基于Python的图)
  • 代码示例: /示例

该存储库有两个主要分支:

  • 主分支与夜间构建同步并受到新的错误。使用此分支进行贡献,或者如果您安装了夜间构建。

  • 稳定的分支,与最后一个稳定版本的Mojo同步。如果安装了稳定的构建,请在此处使用示例。

贡献

感谢您对为此存储库做出贡献的兴趣!

我们接受对Mojo标准库,Max AI内核,代码示例和Mojo文档的贡献,但目前不对存储库的任何其他部分。

请参阅贡献指南以获取说明。

我们也欢迎您的错误报告。如果您有错误,请在此处提交问题。

联系我们

如果您想与团队和其他社区成员聊天,请向我们的Discord频道和我们的论坛董事会发送一条消息。

执照

该存储库及其贡献是根据Apache许可证v2.0许可的,具有LLVM例外(请参阅LLVM许可证)。 modular ,Max和Mojo的使用和分销均在modular社区许可下获得许可。

第三方许可证

您完全负责检查和验证第三方的许可(IE HuggingFace),以获取下载的相关软件和库。

感谢我们的贡献者

下载源码

通过命令行克隆项目:

git clone https://github.com/modular/modular.git