Экосистема моделей FramePack AI
13B-параметровые видео-диффузионные модели, работающие на обычном оборудовании — поддержка 6 ГБ VRAM благодаря патентованной технологии сжатия контекста




FramePack AI
2025-04-15
FramePack AI
2025-04-08
FramePack AI
2025-04-13
FramePack AI
2025-04-04
FramePack AI
2025-04-09
FramePack AI
2025-04-12
FramePack AI
2025-04-16
FramePack AI
2025-04-19
Генерация видео в 3 шага с FramePack AI
От установки до видео качества Голливуда
- Скачайте с GitHub: установщик в один клик для Windows/Linux с автоматическим получением модели с HuggingFace
- Настройка через ComfyUI: настройте кастомные узлы для pipeline генерации текст → видео с поддержкой mixed precision
- Генерация и экспорт: создавайте 4K видео с анти-дрейфовым семплированием и live-превью в латентном пространстве
Архитектура моделей FramePack — подробный разбор
Как работает компрессия контекста и позволяет использовать 13B модель на 6ГБ GPU?
FramePack использует адаптивную компрессию патчей (TPC), уменьшая представление кадров с 1536 до 192 токенов. GitHub включает планировщики памяти для оптимизации под RTX 3060/4090.
Какие форматы и разрешения видео поддерживаются?
Модели FramePack выдают видео 480p 30fps по умолчанию. Через ComfyUI можно повысить до 4K с помощью ESRGAN. Также поддерживаются произвольные соотношения сторон через переразмеривание в латентном пространстве.
Как интегрировать FramePack AI с существующими пайплайнами ComfyUI?
Используйте FramePack wrapper: 1) установите узлы из GitHub, 2) загрузите fp8_e4m3fn или bf16 модель, 3) подключите текстовый энкодер SigCLIP. Узел планировщика позволяет изменять степень компрессии в реальном времени.
Чем FramePack отличается от классической видео-диффузии?
В отличие от фиксированной UNet-архитектуры, FramePack применяет: 1) двунаправленные attention-блоки, 2) кэширование по секциям, 3) адаптивную патчификацию. Поддержка до 1800 кадров (против обычных 24), сэкономлено до 68% VRAM.
Можно ли комбинировать FramePack AI с ControlNet?
Да! В GitHub представлены экспериментальные адаптеры для глубины/нормалей. В ComfyUI можно: 1) загрузить базовую модель, 2) подключить аннотации ControlNet, 3) включить кросс-аттеншен. Это позволяет сохранять позу персонажей более чем на 1000 кадрах.
Как устранить ошибки CUDA?
1) Убедитесь, что установлен CUDA 12.6+; 2) отключите xformers для 10XX GPU; 3) выделите 5+ ГБ VRAM. Реализация ComfyUI автоматически масштабирует память — при ошибке OOM уменьшите параметр 'max_frames'.