FramePackГенератор видео на базе ИИ
Создавайте более 1800 кадров с частотой 30fps с помощью 13B моделей на потребительских GPU





Почему стоит выбрать FramePack AI?
Ответы экспертов о FramePack AI
Как FramePack AI работает с 13B моделями всего на 6 ГБ VRAM?
Патентованный алгоритм сжатия контекста от FramePack AI уменьшает входные кадры до постоянной длины в латентном пространстве с помощью адаптивной патчификации. Это обеспечивает O(1) использование памяти независимо от длины видео.
Можно ли использовать FramePack AI в коммерческих целях?
Да! Репозиторий FramePack AI на GitHub под лицензией Apache 2.0 разрешает коммерческое использование. Интеграция с ComfyUI позволяет использовать его в студийных пайплайнах. Поддерживается генерация в разрешении до 4K.
Чем FramePack AI отличается от стабильной диффузии видео?
FramePack AI предлагает три новшества: 1) упаковка кадров с учетом контекста, 2) двунаправленное семплирование без дрейфа, 3) прогрессивная генерация по секциям. Всё это позволяет создавать видео в 10 раз длиннее при том же объеме вычислений.
Как установить FramePack AI на Windows?
Скачайте готовый архив, включающий CUDA 12.6 и PyTorch 2.6. Распакуйте, затем запустите update.bat и run.bat. Подробное руководство доступно на GitHub.
Поддерживаются ли видеокарты AMD?
На данный момент FramePack AI оптимизирован для NVIDIA (30XX/40XX/50XX) с поддержкой fp16/bf16. Поддержка ROCm экспериментальна. Для пользователей AMD рекомендуется запуск через WSL2 и ComfyUI.
Как получить лучшие результаты при генерации видео из текста?
1) Используйте чёткие описания движений (например, «танцует с тремя вращениями»); 2) включите TeaCache для временной согласованности; 3) начните с 128 кадров; 4) используйте усилитель запросов SigCLIP. Примеры доступны на GitHub.
Чем TeaCache отличается от полной диффузии?
TeaCache ускоряет генерацию на 40% за счёт оптимизации внимания, но может снизить качество. Для финального рендера рекомендуется отключить TeaCache и использовать полную диффузию. В тестах GitHub наблюдается улучшение FVD на 0.78.
Можно ли обучать собственные модели на архитектуре FramePack?
Да! В GitHub доступны скрипты для обучения на 8×A100. Планировщик FramePack позволяет настраивать схемы компрессии. Также доступны модели сообщества на HuggingFace под организацией 'framepack-models'.
Как бороться с дрейфом при длинной генерации видео?
Включите анти-дрейфовый семплер в расширенных настройках. Он якорит кадры к начальной сцене и использует инвертированное двунаправленное семплирование. Совместно с CFG=7.5 и 50 шагами можно добиться стабильного 5-минутного видео.
Как FramePack AI связан с HunyuanVideo?
FramePack AI — это опенсорсная эволюция ключевых технологий HunyuanVideo. Поддерживается обратная совместимость: вы можете загружать чекпойнты Hunyuan напрямую через реализацию GitHub или узлы ComfyUI.