FramePackAI 视频生成器

在消费级 GPU 上使用 13B 模型以 30fps 生成超 1800 帧的视频

User Avatar 1
User Avatar 2
User Avatar 3
User Avatar 4
User Avatar 5
已被全球 5000+ 创作者与研究者采用

为何选择 FramePack AI?

笔记本可运行的 13B 模型

通过 FramePack AI 革命性的内存压缩技术,可在 6GB GPU 上生成 60 秒(1800 帧)的视频

无缝集成 ComfyUI

通过 ComfyUI 节点使用 FramePack AI 工作流,支持自动模型下载

防漂移技术

双向采样确保长时视频生成稳定 —— 支持生成长度为普通模型 10 倍的视频而不掉画质

开源架构

在我们的 GitHub 仓库中自由修改与扩展 FramePack AI,已有 2000+ 星标

实时预览系统

通过 FramePack AI 的分段预测功能,实时观看帧生成过程

企业级批量训练

在单节点 A100/H100 集群上以批大小 64 进行视频模型训练

FramePack AI 深度解析

FramePack AI 如何在 6GB 显存下运行 13B 模型?

FramePack AI 的专利上下文打包算法将输入帧压缩为固定长度的潜变量,通过自适应块划分实现。该技术具备 O(1) 的内存复杂度,无论视频多长都不会增加显存占用,使 13B 推理在移动端 GPU 上成为可能。

我可以用 FramePack AI 进行商业视频制作吗?

当然可以!FramePack AI 的 GitHub 仓库采用 Apache 2.0 许可证,允许商业使用。ComfyUI 集成也适合工作室直接部署,架构还支持通过可扩展块划分策略实现 4K 分辨率输出。

FramePack AI 与稳定视频扩散有什么区别?

FramePack AI 引入了三项核心创新:1)上下文感知的帧打包;2)双向防漂移采样;3)基于段落的渐进式生成。这些技术让其在同等算力下可生成比传统视频扩散模型长 10 倍的视频。

如何在 Windows 上安装 FramePack AI?

Windows 用户可以下载我们的一键安装包(包含 CUDA 12.6 与 PyTorch 2.6),解压后运行 update.bat,再通过 run.bat 启动。GitHub 上有详细的驱动与故障排查指南。

FramePack AI 支持 AMD 显卡吗?

目前 FramePack AI 针对 NVIDIA 显卡(30XX/40XX/50XX 系列)优化,支持 fp16/bf16。ROCm 支持处于实验阶段,推荐 AMD 用户通过 WSL2 使用 ComfyUI 实现。

如何提升 FramePack 的文本转视频效果?

建议做法包括:1)使用明确的动作描述(如“旋转跳舞三圈”);2)使用 TeaCache 保持时序一致;3)从 128 帧生成开始;4)使用我们的 SigCLIP 提示增强器。GitHub 有示例提示词。

TeaCache 与全扩散有什么区别?

TeaCache 是一种注意力优化机制,能提升 40% 的生成速度,但可能牺牲部分画质。最终渲染建议关闭 TeaCache,采用完整的欧拉采样扩散方式。据 GitHub 测试,全扩散可带来 0.78 FVD 分数提升。

可以用 FramePack 架构训练自定义模型吗?

完全可以!GitHub 提供训练脚本,支持 8xA100 节点配置,并支持 FramePack 的压缩调度器 API。社区也在 HuggingFace 上分享了训练好的模型,可查看 'framepack-models' 组织。

长视频生成过程中如何避免画面漂移?

请在高级设置中启用防漂移采样器,该方法使用反向双向采样策略将生成锚定至起始帧。推荐搭配 CFG=7.5 与 50 步扩散,稳定生成最长 5 分钟视频。

FramePack 和 HunyuanVideo 有什么关系?

FramePack AI 是 HunyuanVideo 技术的开源演进版本。我们在保持兼容性的基础上解耦了架构 —— 你可以直接加载 HunyuanVideo 的 checkpoint 使用 FramePack 的 GitHub 或 ComfyUI 实现。