# AI-Agent-Container **Repository Path**: OpenCloudOS/ai-agent-container ## Basic Information - **Project Name**: AI-Agent-Container - **Description**: No description available - **Primary Language**: Unknown - **License**: Apache-2.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 1 - **Created**: 2026-03-31 - **Last Updated**: 2026-04-15 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README
# 🚀 OC9 AI 容器镜像共建 **OpenCloudOS 9 × 主流 AI/AI Agent 框架容器镜像适配仓库** [![OpenCloudOS](https://img.shields.io/badge/OpenCloudOS-9-blue?style=flat-square)](https://www.opencloudos.org/) [![License](https://img.shields.io/badge/License-Apache_2.0-green?style=flat-square)](./LICENSE) [![PRs Welcome](https://img.shields.io/badge/PRs-welcome-brightgreen?style=flat-square)](https://gitee.com/OpenCloudOS/ai-agent-container/pulls) [![Gitee](https://img.shields.io/badge/Gitee-ai--agent--container-red?style=flat-square&logo=gitee)](https://gitee.com/OpenCloudOS/ai-agent-container)
--- >本仓库用于社区贡献者提交**基于 OpenCloudOS 9 的 AI / AI Agent 容器镜像**。您可以挑选感兴趣的项目,为其编写基于 OpenCloudOS 9 的 Dockerfile 和容器镜像,并通过 PR 提交适配成果。 > > * **纯 Python 项目**:建议只需拉取 Python 环境、安装 C++/CUDA 编译,适合新手入门。 > * **标注 🔥**:社区推荐核心优先适配项,适配 GPU/CUDA 基础镜像条件。 ## 📖 目录 - [参与贡献前必读](#参与贡献前必读) - [仓库结构](#仓库结构) - [贡献流程](#贡献流程) - [适配框架清单](#适配框架清单) ## 参与贡献前必读 ### 环境要求 | 项目 | 要求 | |------|------| | 构建工具 | Docker(≥ 20.10)或 Buildah / Podman | | Python | ≥ 3.11(推荐 3.11) | | CUDA | 推荐 12.8(GPU 场景,非 GPU 可忽略) | | 硬件 | CPU 镜像无特殊要求;GPU 镜像需 NVIDIA GPU | ### Dockerfile 规范 不同类型的框架使用不同的基础镜像: | 场景 | 基础镜像 | 适用框架 | |------|---------|---------| | **纯 Python / CPU** | `opencloudos/opencloudos9-minimal:latest` | LangChain、CrewAI、Dify、FastGPT 等 | | **需要 GPU / CUDA** | `opencloudos/opencloudos9-cuda-devel:12.8` | vLLM、DeepSpeed、TensorRT-LLM、PyTorch 等 | #### CPU 镜像示例 ```dockerfile FROM opencloudos/opencloudos9-minimal:latest LABEL maintainer="<你的名字> <邮箱>" RUN dnf install -y python3.11 python3.11-pip && dnf clean all RUN pip3.11 install langchain==1.2.15 CMD ["python3.11"] ``` #### GPU 镜像示例(以 vLLM 为例) ```dockerfile FROM opencloudos/opencloudos9-cuda-devel:12.8 LABEL maintainer="<你的名字> <邮箱>" RUN dnf install -y python3.11 python3.11-pip && dnf clean all RUN pip3.11 install vllm==0.19.0 ENV NVIDIA_VISIBLE_DEVICES=all CMD ["python3.11"] ``` > 详细 Dockerfile 规范请阅读 👉 [CONTRIBUTING.md](./CONTRIBUTING.md) ## 仓库结构 ``` ai-agent-container/ ├── README.md # 本文件 ├── CONTRIBUTING.md # 贡献指南(详细版) ├── FRAMEWORKS.md # 可适配的 AI 框架完整清单 ├── LICENSE ├── templates/ # Dockerfile 模板 │ ├── Dockerfile.cpu.template # 基于 opencloudos9-minimal │ └── Dockerfile.gpu.template # 基于 opencloudos9-cuda-devel └── frameworks/ # 各框架适配目录(按 PR 提交) ├── vllm/ │ ├── Dockerfile │ ├── README.md │ └── test/ ├── langchain/ │ └── ... └── ... ``` ## 贡献流程 > 详细规范请阅读 👉 [CONTRIBUTING.md](./CONTRIBUTING.md) ### 快速上手(4 步完成) **① Fork & Clone** ```bash git clone https://gitee.com/<你的用户名>/ai-agent-container.git cd ai-agent-container ``` **② 创建框架适配目录** ```bash mkdir -p frameworks/vllm/test ``` **③ 编写 Dockerfile & 验证** ```bash # 构建镜像 docker build -t oc9-vllm:0.19.0 frameworks/vllm/ # 运行基础验证 docker run --rm --gpus all oc9-vllm:0.19.0 python3.11 -c "import vllm; print(vllm.__version__)" ``` **④ 提交 PR** ```bash git checkout -b feat/add-vllm git add frameworks/vllm/ git commit -m "feat: add vllm v0.19.0 container image for OC9" git push origin feat/add-vllm # 在 Gitee 上发起 Pull Request ``` ### PR 提交要求 每个 PR **必须包含**: | 文件 | 说明 | |------|------| | `frameworks/<框架名>/Dockerfile` | 基于 OC9 基础镜像(minimal、cuda-devel 或其他) | | `frameworks/<框架名>/README.md` | 框架简介、版本、构建命令、使用示例、已知问题 | | `frameworks/<框架名>/test/` | 至少一个基础功能验证脚本 | ### 验收标准 - ✅ 基于 OpenCloudOS 9 基础镜像构建成功(`opencloudos9-minimal` `opencloudos9-cuda-devel` 或其他) - ✅ 核心功能可正常运行(import / 推理 / API 服务等) - ✅ GPU 镜像需验证 CUDA 驱动兼容性(如适用) - ✅ Dockerfile 规范,无硬编码密钥或个人信息 - ✅ README 文档完备 ## 适配框架清单 > 完整清单(含各版本号、开源地址)请查看 👉 **[FRAMEWORKS.md](./FRAMEWORKS.md)** ### AI Agent 智能体框架 | 框架 | 开源地址 | |------|---------| | LangChain 🔥 | [langchain-ai/langchain](https://github.com/langchain-ai/langchain) | | LangGraph 🔥 | [langchain-ai/langgraph](https://github.com/langchain-ai/langgraph) | | LlamaIndex 🔥 | [run-llama/llama_index](https://github.com/run-llama/llama_index) | | CrewAI 🔥 | [crewAIInc/crewAI](https://github.com/crewAIInc/crewAI) | | AutoGen | [microsoft/autogen](https://github.com/microsoft/autogen) | | MetaGPT | [geekan/MetaGPT](https://github.com/geekan/MetaGPT) | | OpenHands | [All-Hands-AI/OpenHands](https://github.com/All-Hands-AI/OpenHands) | | Semantic Kernel | [microsoft/semantic-kernel](https://github.com/microsoft/semantic-kernel) | | Haystack 🔥 | [deepset-ai/haystack](https://github.com/deepset-ai/haystack) | ### 大模型推理与服务引擎 | 框架 | 开源地址 | |------|---------| | vLLM 🔥 | [vllm-project/vllm](https://github.com/vllm-project/vllm) | | SGLang 🔥 | [sgl-project/sglang](https://github.com/sgl-project/sglang) | | Megatron-LM 🔥 | [NVIDIA/Megatron-LM](https://github.com/NVIDIA/Megatron-LM) | | DeepSpeed 🔥 | [deepspeedai/DeepSpeed](https://github.com/deepspeedai/DeepSpeed) | | Ollama 🔥 | [ollama/ollama](https://github.com/ollama/ollama) | | llama.cpp | [ggml-org/llama.cpp](https://github.com/ggml-org/llama.cpp) | | TensorRT-LLM 🔥 | [NVIDIA/TensorRT-LLM](https://github.com/NVIDIA/TensorRT-LLM) | | PaddlePaddle(飞桨)| [PaddlePaddle/Paddle](https://github.com/PaddlePaddle/Paddle) | | Transformers 🔥 | [huggingface/transformers](https://github.com/huggingface/transformers) | ### 大模型开发与编排平台 | 框架 | 开源地址 | |------|---------| | Dify 🔥 | [langgenius/dify](https://github.com/langgenius/dify) | | FastGPT 🔥 | [labring/FastGPT](https://github.com/labring/FastGPT) | | RAGFlow | [infiniflow/ragflow](https://github.com/infiniflow/ragflow) | | MaxKB | [1Panel-dev/MaxKB](https://github.com/1Panel-dev/MaxKB) | | Open WebUI | [open-webui/open-webui](https://github.com/open-webui/open-webui) | ### 模型微调与训练工具 | 框架 | 开源地址 | |------|---------| | TRL | [huggingface/trl](https://github.com/huggingface/trl) | | PEFT | [huggingface/peft](https://github.com/huggingface/peft) | | LLaMA-Factory 🔥 | [hiyouga/LLaMA-Factory](https://github.com/hiyouga/LLaMA-Factory) | | HF Accelerate | [huggingface/accelerate](https://github.com/huggingface/accelerate) | ### 多模态与其他工具 | 框架 | 开源地址 | |------|---------| | Milvus 🔥 | [milvus-io/milvus](https://github.com/milvus-io/milvus) | | ComfyUI 🔥 | [comfyanonymous/ComfyUI](https://github.com/comfyanonymous/ComfyUI) | | Stable Diffusion WebUI | [AUTOMATIC1111/stable-diffusion-webui](https://github.com/AUTOMATIC1111/stable-diffusion-webui) | | ChromaDB 🔥 | [chroma-core/chroma](https://github.com/chroma-core/chroma) | | Diffusers | [huggingface/diffusers](https://github.com/huggingface/diffusers) | ### 基础生态与 MLOps 工具 | 框架 | 开源地址 | |------|---------| | Ray 🔥 | [ray-project/ray](https://github.com/ray-project/ray) | | MLflow 🔥 | [mlflow/mlflow](https://github.com/mlflow/mlflow) | | Kubeflow | [kubeflow/kubeflow](https://github.com/kubeflow/kubeflow) | | Triton | [triton-inference-server/server](https://github.com/triton-inference-server/server) | | LangFuse 🔥 | [langfuse/langfuse](https://github.com/langfuse/langfuse) | ### 如何选择? - **新手推荐**:从 LangChain、ChromaDB、Open WebUI 等纯 Python 项目入手 - **进阶推荐**:vLLM、Dify、CrewAI 等核心生态项目 - **高挑战**:DeepSpeed、Megatron-LM、TensorRT-LLM 等 GPU 优化项目 ## 联系我们 - **Issue 反馈**:[提交 Issue](https://gitee.com/OpenCloudOS/ai-agent-container/issues) - **交流群**:有问题欢迎加群交流 TBD ## 许可证 本项目采用 [Apache License 2.0](./LICENSE) 许可证。