FramePack AI 模型生态系统

13B 参数的视频扩散模型可运行于消费级硬件 —— 依赖专利上下文压缩技术,仅需 6GB 显存

点击上传参考图片
Teapot 3D Model
Poly Fox 3D Model
Isometric House 3D Model
Captured P 3D Model
尚未生成结果
AI Image Generator Interface

三步完成 FramePack 视频生成

从安装到好莱坞级视频输出

  1. 从 FramePack GitHub 下载:支持 Windows/Linux 的一键安装包,自动获取 HuggingFace 模型
  2. 通过 ComfyUI 配置:使用 FramePack 文本转视频节点,支持自动混合精度
  3. 生成并导出:借助防漂移采样器与潜空间实时预览生成 4K 视频

FramePack 模型架构解析

FramePack AI 如何通过上下文压缩让 13B 模型运行在 6GB GPU 上?

FramePack 使用时间块压缩(TPC)系统,通过将帧表示从 1536 token(1x2x2 patch)动态压缩至 192 token(2x4x4),实现恒定的显存使用。GitHub 中还包含适配 RTX 3060/4090 的内存调度器。

FramePack 支持哪些视频格式和分辨率?

FramePack 原生输出 480p@30fps 的视频(基于 HunyuanVideo 架构),通过 ComfyUI 节点可集成 ESRGAN 实现 4K 升频,并支持通过潜空间重塑实现自定义长宽比。

如何将 FramePack 整合进现有的 ComfyUI 工作流?

请使用我们专用的 FramePack ComfyUI 封装:1)从 GitHub 安装社区节点;2)加载 fp8_e4m3fn 或 bf16 模型版本;3)接入 SigCLIP 文本编码节点。FramePack 调度器节点支持实时调整压缩比例。

FramePack 与传统视频扩散模型有何不同?

传统模型采用固定 UNet 架构,而 FramePack 引入了:1)双向注意力模块;2)分段潜变量缓存;3)自适应块划分技术。这使其可生成 1800 帧,显存使用减少 68%。

可以将 FramePack 与 ControlNet 结合使用吗?

可以!GitHub 已集成实验性的深度图与法线图 ControlNet 适配器。在 ComfyUI 中你可以:1)加载 FramePack 模型;2)接入 ControlNet 标注图;3)启用交叉注意力引导,实现一致动作的长帧动画生成(1000+ 帧)。

遇到 CUDA 报错如何排查?

常见方法包括:1)确认已安装 CUDA 12.6+;2)若使用 10XX GPU,建议关闭 xformers;3)至少预留 5GB 显存缓冲区。ComfyUI 实现支持自动内存缩放,如遇 OOM,可适当降低 max_frames 参数。