# deep-comedy-pro **Repository Path**: ningdaddy/deep-comedy-pro ## Basic Information - **Project Name**: deep-comedy-pro - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2026-03-21 - **Last Updated**: 2026-03-21 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # deep-comedy-pro 中文手册 客户端下载尝试 通过网盘分享的文件:短剧平台安装程序.zip 链接: https://pan.baidu.com/s/1gUzHmP9Bqbi3U8C9jVpzrw?pwd=k4qa 提取码: k4qa --来自百度网盘超级会员v9的分享 ## 📖 项目简介 deep-comedy-pro 是一个基于人工智能的短片与动态漫画一站式生成平台, **Big Director**。该项目致力于实现“一句话生成完整视频”的工业化内容生产目标,为创作者提供从灵感输入到成品输出的全流程自动化解决方案。 ### 项目概述 deep-comedy-pro 定位为 AI 驱动的一站式短片与动态漫画生成平台,其核心功能是将文本创意自动转化为具有角色一致性、场景连续性和镜头可控性的高质量动画内容。系统通过深度集成多种先进 AI 模型,构建了一套标准化的内容创作流水线,显著提升了视频制作效率与可控性。 该平台适用于短视频创作、动态漫画批量生产、创意原型验证以及 MCN 机构的工业化内容工厂等场景,旨在解决传统 Text-to-Video 方法在叙事连贯性与视觉稳定性方面的不足。 ### 核心理念 deep-comedy-pro 摒弃了依赖随机性的“抽奖式”生成模式,转而采用 **Script-to-Asset-to-Keyframe** 的工业化流程: - **剧本驱动**:以结构化脚本为基础,确保叙事逻辑清晰。 - **资产约束**:通过角色参考图和场景概念设计保障视觉一致性。 - **关键帧控制**:引入动画制作中的关键帧范式,精确控制起始帧与结束帧,并利用 AI 进行平滑插值。 这一方法论强调对创作过程的精细化管理,使 AI 不仅作为生成工具,更成为可预测、可调控的智能导演助手。 ### 适用人群 - **内容创作者**:快速将文字构想转化为可视化作品 - **动态漫画制作者**:批量生成风格统一的连载内容 - **AI 视频研究者**:探索可控生成与多模态协同机制 - **MCN 机构与内容工厂**:实现系统化、工业化的视频内容生产 ![导演工坊界面布局与关键帧编辑示意](https://agent.qianwen.com/mos/1bb06b4428b048f6adf51489db35d641/b47e7fceb540a855716db32ecf3099de) ## 🚀 快速开始 本节将指导您完成 deep-comedy-pro 的最简部署路径,帮助您在短时间内运行并访问系统。 ### 环境准备 在部署前,请确保您的设备满足以下最低要求: - Node.js ≥ 18(用于本地开发) - Docker(推荐用于生产环境部署) 建议使用现代浏览器(如 Chrome、Edge 或 Firefox)访问前端界面。 ### 部署方式选择 deep-comedy-pro 提供多种部署方案,用户可根据实际需求进行选择: | 方式 | 适用场景 | 命令 | |------|--------|------| | 本地开发 | 开发调试 | `npm run dev` | | Docker Compose(推荐) | 生产部署 | `docker-compose up -d --build` | | 手动 Docker | 自定义配置 | `docker build && docker run` | 其中,Docker Compose 部署方式因其环境隔离性强、依赖管理简便,被强烈推荐用于非技术人员或生产环境。 ### 初始访问 完成部署后,执行以下步骤即可启动服务: 1. 克隆项目仓库: ```bash git clone https://github.com/yuanzhongqiao/deep-comedy-pro.git cd deep-comedy-pro ``` 2. 使用 Docker Compose 启动服务: ```bash docker-compose up -d --build ``` 3. 在浏览器中打开 `http://localhost:3005` 即可访问应用。 首次访问时,系统会提示您输入 GitCC API Key 以完成初始化配置。 ## 🎨 核心功能模块 deep-comedy-pro 将内容创作划分为四个阶段,形成闭环工作流,每个阶段均具备明确的功能定位与交互逻辑。 ### Phase 01: 剧本与故事板 此阶段负责将原始文本创意转化为结构化的分镜脚本,奠定后续生成的基础。 - **智能脚本拆解**:支持输入小说段落或大纲文本,AI 自动分析情节发展、人物出场与情绪变化,并将其转换为标准剧本格式。 - **可视化翻译**:将文本描述自动转换为适用于 Midjourney 或 Stable Diffusion 的 Prompt,便于图像生成。 - **节奏控制**:用户可设定目标时长(如 30 秒预告片或 3 分钟短剧),系统将据此规划镜头密度与转场频率。 此外,支持手动编辑角色视觉特征、动作描述与对话内容,确保艺术表达的准确性。 ### Phase 02: 资产与选角 本阶段聚焦于视觉资产的创建与管理,确保角色与场景在整个视频中保持一致。 - **角色一致性保障**: - 自动生成标准角色参考图,包含正面、侧面及表情细节。 - 支持多服装设定(如休闲装、战斗服、受伤状态),并通过 Base Look 技术维持面部特征不变。 - **场景概念设计**:为每个主要场景生成统一光影与美术风格的概念图,确保所有镜头在视觉上协调一致。 所有资产均保存于本地 IndexedDB 数据库中,无需上传至服务器,保障用户隐私安全。 ### Phase 03: 导演工坊 这是整个创作流程的核心控制中心,用户在此阶段精确编排每一帧画面。 - **网格化故事板管理**:以二维网格形式展示所有镜头,支持拖拽调整顺序与查看进度。 - **精确控制起始帧与结束帧**:用户可分别为每个镜头定义起始帧与可选的结束帧,从而控制角色姿态与镜头运动。 - **上下文感知生成**:AI 在生成过程中读取当前场景与角色特定装扮,防止出现身份混淆或风格漂移。 - **支持 Veo 模型进行图像转视频与关键帧插值**:调用 Veo 模型实现从静态图像到动态视频的过渡,支持 landscape 模式下的高速生成。 该模块实现了从“被动接受结果”到“主动导演控制”的转变,赋予用户真正的创作主导权。 ### Phase 04: 最终导出 在完成所有镜头生成后,进入最终成果整合阶段。 - **时间线预览生成结果**:以时间轴形式展示各片段拼接效果,支持逐帧回放与跳转。 - **实时跟踪渲染进度**:显示每个镜头的生成状态(待处理、进行中、已完成),便于监控整体流程。 - **导出高清关键帧与 MP4 片段用于后期处理**:支持将所有资源打包下载,可用于 Adobe Premiere 或 After Effects 进行音效添加、字幕嵌入等专业后期操作。 ## ⚙️ 技术架构 本节剖析 deep-comedy-pro 的底层实现机制,揭示其如何高效整合前端框架与 AI 模型。 ### 前端技术栈 系统采用现代化 Web 技术栈构建高性能用户界面: - **React 19 + Tailwind CSS**:构建响应式 UI,遵循 Sony 工业设计风格,提升操作体验。 - **Vite 构建工具**:实现极速热更新与生产构建。 - **TypeScript 类型系统**:增强代码可维护性与开发效率。 整个前端工程完全运行于浏览器环境中,不依赖任何远程后端服务。 ### AI 模型集成 deep-comedy-pro 通过统一接口调度多个前沿 AI 模型,形成完整的多模态生成链条: | 功能 | 模型 | 用途 | |------|------|------| | 文本逻辑 | gpt-5.1 | 脚本分析与结构化拆解 | | 图像生成 | gemini-3-pro-image-preview | 快速绘制角色与场景概念图 | | 视频生成 | veo_3_1_i2v_s_fast_fl_landscape / sora-2 | 关键帧插值与图像转视频 | | 备选模型 | GPT-5.2, Claude 3.5 Sonnet, Nano Banana Pro | 提供多样化选择 | 所有 AI 能力通过 **GitCC API** 接入,该接口兼容 OpenAI 协议,支持一键切换不同模型,降低使用门槛。 ### 数据存储 系统采用浏览器内置的 **IndexedDB** 实现本地数据持久化: - 所有项目数据(包括剧本、资产、配置)均保存在用户本地设备中。 - 无需注册账号或上传敏感信息,彻底保护用户隐私。 - 支持离线查看已生成内容,但无法执行需调用外部 API 的生成任务。 ### 部署架构 deep-comedy-pro 采用容器化部署方案,确保跨平台兼容性与易用性: - **Docker + docker-compose.yaml**:定义服务依赖关系与网络配置。 - **Nginx 容器暴露服务端口**:将前端静态资源映射至 `http://localhost:3005`。 - **支持 `.env` 环境变量配置**:允许自定义 API 地址、端口等参数。 该架构使得开发者与普通用户均可在几分钟内完成部署。 ## 💡 使用流程指南 以下为一次完整的创作流程分步指导,帮助您从零开始产出一部短片。 ### Step 1: 获取并配置 API Key 1. 访问 [api.gitcc.com](https://api.gitcc.com) 注册账户。 2. 创建新的 API Key 并复制密钥。 3. 在 deep-comedy-pro 的设置页面粘贴该密钥并保存。 此密钥用于调用 GitCC 平台上的 AI 模型服务,是系统正常运行的前提条件。 ### Step 2: 输入故事创意 1. 进入 **Phase 01: 剧本与故事板**。 2. 在输入框中填写您的故事构思,例如:“一位程序员穿越到古代,用代码改变世界”。 3. 点击“生成故事板”按钮,等待 AI 自动拆解为分镜脚本。 系统将输出包含场景划分、角色动作与情绪标注的结构化剧本。 ### Step 3: 生成角色与场景资产 1. 切换至 **Phase 02: 资产与选角**。 2. 为每位主要角色生成标准参考图,并为其配置多套服装(如现代装、古装、战斗形态)。 3. 为关键场景(如古代市集、皇宫)生成概念设计图,统一光影与画风。 所有资产将在后续生成中作为视觉锚点,确保一致性。 ### Step 4: 设置关键帧并生成动画 1. 进入 **Phase 03: 导演工坊**。 2. 为每个镜头选择对应的起始帧图像,必要时定义结束帧。 3. 批量提交生成请求,系统将调用 Veo 模型完成关键帧之间的视频插值。 生成过程中可在界面上实时查看任务队列与进度条。 ### Step 5: 预览与导出成果 1. 切换至 **Phase 04: 最终导出**。 2. 在时间线面板中预览完整视频片段的拼接效果。 3. 点击“导出资源包”按钮,下载包含高清关键帧与 MP4 视频片段的压缩文件。 导出的资源可导入专业剪辑软件进行最终合成,完成配乐、配音与字幕添加。 ## 🔧 常见问题(FAQ) 以下为高频疑问解答,帮助您快速排除使用障碍。 ### Q1: 如何获取 GitCC API Key? A: 访问 [api.gitcc.com](http://api.gitcc.com) 注册账号后,在个人中心创建并复制 API 密钥。 ### Q2: 是否支持离线运行? A: 不支持完全离线运行,因系统依赖外部 AI 模型 API;但所有用户数据保存在本地 IndexedDB 中,保障隐私安全。 ### Q3: 为什么推荐使用 Docker 部署? A: 容器化部署可避免 Node.js 版本冲突与依赖缺失问题,实现一键启动,适合无技术背景的用户使用。 ### Q4: 如何贡献代码? A: Fork 本仓库 → 创建 feature 分支 → 提交 Pull Request → 等待审核合并。请遵循 Conventional Commits 提交规范。 ## 📞 获取帮助 如遇问题或希望参与社区交流,请通过以下渠道获取支持: - **GitHub Issues**:报告 Bug 或提出功能建议 - **项目 Wiki**:查阅进阶教程与最佳实践 - **社区群组**:扫码加入官方交流群,与其他创作者互动分享