FramePack AI 模型生态系统
13B 参数的视频扩散模型可运行于消费级硬件 —— 依赖专利上下文压缩技术,仅需 6GB 显存




FramePack AI
2025-04-21
FramePack AI
2025-04-12
FramePack AI
2025-04-21
FramePack AI
2025-04-21
FramePack AI
2025-04-06
FramePack AI
2025-04-22
FramePack AI
2025-04-06
FramePack AI
2025-04-08
三步完成 FramePack 视频生成
从安装到好莱坞级视频输出
- 从 FramePack GitHub 下载:支持 Windows/Linux 的一键安装包,自动获取 HuggingFace 模型
- 通过 ComfyUI 配置:使用 FramePack 文本转视频节点,支持自动混合精度
- 生成并导出:借助防漂移采样器与潜空间实时预览生成 4K 视频
FramePack 模型架构解析
FramePack AI 如何通过上下文压缩让 13B 模型运行在 6GB GPU 上?
FramePack 使用时间块压缩(TPC)系统,通过将帧表示从 1536 token(1x2x2 patch)动态压缩至 192 token(2x4x4),实现恒定的显存使用。GitHub 中还包含适配 RTX 3060/4090 的内存调度器。
FramePack 支持哪些视频格式和分辨率?
FramePack 原生输出 480p@30fps 的视频(基于 HunyuanVideo 架构),通过 ComfyUI 节点可集成 ESRGAN 实现 4K 升频,并支持通过潜空间重塑实现自定义长宽比。
如何将 FramePack 整合进现有的 ComfyUI 工作流?
请使用我们专用的 FramePack ComfyUI 封装:1)从 GitHub 安装社区节点;2)加载 fp8_e4m3fn 或 bf16 模型版本;3)接入 SigCLIP 文本编码节点。FramePack 调度器节点支持实时调整压缩比例。
FramePack 与传统视频扩散模型有何不同?
传统模型采用固定 UNet 架构,而 FramePack 引入了:1)双向注意力模块;2)分段潜变量缓存;3)自适应块划分技术。这使其可生成 1800 帧,显存使用减少 68%。
可以将 FramePack 与 ControlNet 结合使用吗?
可以!GitHub 已集成实验性的深度图与法线图 ControlNet 适配器。在 ComfyUI 中你可以:1)加载 FramePack 模型;2)接入 ControlNet 标注图;3)启用交叉注意力引导,实现一致动作的长帧动画生成(1000+ 帧)。
遇到 CUDA 报错如何排查?
常见方法包括:1)确认已安装 CUDA 12.6+;2)若使用 10XX GPU,建议关闭 xformers;3)至少预留 5GB 显存缓冲区。ComfyUI 实现支持自动内存缩放,如遇 OOM,可适当降低 max_frames 参数。