FramePackمولد الفيديو بالذكاء الاصطناعي

انشر أكثر من 1800 إطار بسرعة 30 إطارًا في الثانية باستخدام نماذج 13B على وحدات معالجة الرسوم الاستهلاكية

User Avatar 1
User Avatar 2
User Avatar 3
User Avatar 4
User Avatar 5
معتمد من أكثر من 5000 منشئ وباحث حول العالم

لماذا تختار FramePack AI؟

نماذج 13B صديقة لأجهزة اللابتوب

أنشئ مقاطع فيديو مدتها 60 ثانية (1800 إطار) باستخدام وحدات معالجة رسوم بسعة 6 جيجابايت بفضل ضغط الذاكرة الثوري من FramePack AI

تكامل سلس مع ComfyUI

استخدم سير عمل FramePack AI عبر عقد ComfyUI الشهيرة مع تنزيلات تلقائية للنماذج

تقنية مقاومة الانجراف

تضمن تقنية العينات ثنائية الاتجاه توليد فيديو طويل مستقر — مقاطع أطول 10 مرات بدون تدهور في الجودة

منصة مفتوحة المصدر

قم بتعديل وتوسيع FramePack AI عبر مستودع GitHub النشط لدينا الحاصل على أكثر من 2000 نجمة

نظام معاينة في الوقت الفعلي

شاهد إنشاء الإطارات مباشرة باستخدام التنبؤ التدريجي للمقاطع التالية في FramePack AI

تدريب دفعي على مستوى المؤسسات

قم بتدريب نماذج الفيديو باستخدام حجم دفعة 64 على عقد A100/H100 مفردة

رؤى الخبراء حول FramePack AI

كيف يستخدم FramePack AI ذاكرة 6GB مع نماذج 13B؟

تضغط خوارزمية ضغط السياق الخاصة بـ FramePack AI الإطارات إلى تمثيلات كامنة بطول ثابت عبر تقسيم تكيفي. وهذا يجعل استخدام الذاكرة ثابتًا بغض النظر عن طول الفيديو، مما يتيح تنفيذ النماذج الكبيرة على وحدات معالجة الرسوم المنخفضة.

هل يمكنني استخدام FramePack AI في الإنتاج التجاري للفيديو؟

نعم! يسمح ترخيص Apache 2.0 في GitHub باستخدام تجاري. ويدعم تكامل ComfyUI النشر المباشر في الاستوديوهات، كما أن البنية تدعم إخراج بدقة 4K باستخدام استراتيجيات تقسيم قابلة للتوسع.

ما الفرق بين FramePack AI و stable video diffusion؟

يقدم FramePack AI ثلاث ابتكارات: 1) ضغط إطارات حساس للسياق، 2) أخذ عينات مضادة للانجراف ثنائية الاتجاه، 3) توليد تدريجي قائم على المقاطع، مما يسمح بإنتاج فيديو أطول 10 مرات بنفس الموارد الحسابية.

كيف يمكن تثبيت FramePack AI على نظام Windows؟

قم بتنزيل الحزمة بنقرة واحدة التي تتضمن CUDA 12.6 و PyTorch 2.6، ثم شغّل update.bat و run.bat. راجع دليل GitHub لإعدادات برنامج التشغيل والمشاكل الشائعة.

هل يدعم FramePack AI وحدات AMD؟

حاليًا، تم تحسين FramePack AI لوحدات NVIDIA (سلسلة 30XX/40XX/50XX) مع دعم fp16/bf16. التوافق مع ROCm لا يزال تجريبيًا، ويوصى باستخدام WSL2 لتشغيل ComfyUI لمستخدمي AMD.

كيف أحقق أفضل نتائج مع النص إلى فيديو في FramePack؟

استخدم أوصاف حركة واضحة مثل 'يرقص مع ثلاث دورات'، حافظ على الاتساق الزمني باستخدام TeaCache، ابدأ بـ 128 إطار، واستخدم SigCLIP لتحسين المطالبات. راجع GitHub الخاص بنا للحصول على أمثلة.

ما الفرق بين TeaCache والتوليد الكامل؟

TeaCache هو تحسين في الانتباه يزيد السرعة بنسبة 40%، لكنه قد يقلل الدقة. لتعزيز الجودة، قم بإيقاف تشغيله واستخدم التوليد الكامل. أظهرت اختباراتنا تحسنًا بـ 0.78 FVD عند تعطيل TeaCache.

هل يمكنني تدريب نماذج مخصصة باستخدام FramePack؟

نعم! يتضمن GitHub الخاص بنا نصوص تدريب تدعم 8 عقد A100. كما يدعم جدولة ضغط الإطارات لإنشاء أنماط مخصصة، وتتوفر نماذج المجتمع على HuggingFace تحت منظمة framepack-models.

كيف أتعامل مع الانجراف في الفيديو عند التوليد الطويل؟

قم بتمكين sampler المضاد للانجراف في الإعدادات المتقدمة. يستخدم التوليد ثنائي الاتجاه العكسي للارتكاز على الإطارات الأولى. بالجمع مع CFG = 7.5 و 50 خطوة توليد، ستحصل على استقرار لفيديو مدته 5 دقائق.

ما العلاقة بين FramePack و HunyuanVideo؟

FramePack AI هو تطوير مفتوح المصدر مبني على تقنية HunyuanVideo الأساسية. لا يزال متوافقًا تمامًا — يمكنك تحميل نقاط التحقق من Hunyuan عبر GitHub أو ComfyUI.