الذكاء الاصطناعي يمكنه الآن استبدال أي ممثل في فيلم! 2025

لم تعد الشاشة الفضائية حكرًا على الممثلين من لحم ودم، وذلك بفضل التطورات الحديثة في مجال الذكاء الاصطناعي. أصبح من السهل بشكل ملحوظ إنشاء مقاطع فيديو يقوم فيها الممثلون بأفعال أو يقولون أشياء لم يفعلوها أو يقولوها أبدًا، أو حتى استبدال وجه ممثل في فيلم بوجه شخص آخر.
الذكاء الاصطناعي يمكنه الآن استبدال أي ممثل في فيلم!
أطلقت شركة Tencent مؤخرًا أداة Hunyuan، وهي أداة مفتوحة المصدر لإنشاء الفيديوهات باستخدام الذكاء الاصطناعي، والتي دعمت مؤخرًا تقنية Low-Rank Adaptation (LoRA). هذه التقنية تتيح لك تدريب الأنماط والشخصيات والحركات المخصصة، مما يجعل مقاطع الفيديو التي تنشئها فريدة وشخصية تمامًا.
تم إطلاق Hunyuan في ديسمبر 2024 وسرعان ما أثارت إعجاب مجتمع الذكاء الاصطناعي بجودة بصرية بلغت 95.7%، متفوقة على العديد من المنافسين. ومع دعم LoRA، أصبحت الأداة أكثر قوة. هذه الأداة المجانية والمفتوحة المصدر توفر إمكانيات مماثلة لأدوات باهظة الثمن مثل OpenAI’s Sora، والتي قد تكلفك ما يصل إلى 200 دولار شهريًا.
جدول المحتويات
كيف تعمل هذه الأدوات؟
هناك ثلاث طرق لإنشاء فيديو deepfake لممثل:
- من النص إلى الفيديو: يمكنك استخدام نموذج مدرب على صور الممثل. ما عليك سوى وصف الفيديو الذي تريد إنشاءه، وسيقوم الذكاء الاصطناعي بتقديم مقطع لهذا الممثل بناءً على الوصف.
- من الصورة إلى الفيديو: إذا لم يكن لديك نموذج مدرب على صور الممثل، يمكنك استخدام صورة له وتحويلها إلى فيديو. هذه الخدمة متوفرة على منصات مثل Kling AI وRunway وPika Labs.
- من الفيديو إلى الفيديو: يمكنك استخدام مقطع فيديو موجود واستبدال وجه الممثل بشخصية أخرى. هذه الطريقة هي الأكثر فعالية لإنشاء deepfake لممثل في مقطع فيلم.
لنرى كيف يعمل “من النص إلى الفيديو” عمليًا:
باستخدام نموذج مدرب على صور Keanu Reeves في دور John Wick، يمكنك كتابة وصف مثل:
الوصف: جون ويك، رجل بشعر طويل ولحية، يرتدي بدلة داكنة وربطة عنق في كنيسة. لديه تعبير جاد على وجهه ويحمل مسدسًا في يده اليمنى. المشهد مضاء بشكل خافت، مما يخلق جوًا مشحونًا.
والنتيجة؟ مقطع فيديو يبدو وكأنه لقطة حقيقية من سلسلة أفلام John Wick! حتى الأشخاص في الخلفية يبدون واقعيين للغاية.
أما بالنسبة لـ “من الفيديو إلى الفيديو”:
يمكنك إدخال مقطع فيديو موجود في النموذج وطلب استبدال وجه الممثل الرئيسي بوجه جون ويك. النتيجة؟ فيديو deepfake سلس وواقعي بشكل مذهل!
التجربة الأولى صادمة… ولكن بشكل إيجابي!
رؤية هذه التقنية لأول مرة أمر مذهل. الواقعية قريبة من أن تكون مبهرة، خاصة عندما تنجح الخوارزمية في التقاط الحركات الدقيقة في تعبيرات الممثل. الشعر، الإضاءة، الظلال… كلها تتحسن مع كل إصدار جديد من هذه النماذج.
كيف يمكنك تجربة هذه الأدوات؟
إذا كنت مهتمًا بتجربة هذه الطرق، يمكنك العثور على النموذج المستخدم في تجربة John Wick على CivitAI. ومع ذلك، فإن سير العمل ليس متاحًا للجمهور بعد. ستحتاج إلى تجميعه بنفسك أو انتظار التوثيق الرسمي.
إذا كنت تمتلك جهاز Mac قويًا، يمكنك محاولة تشغيل سير العمل باستخدام الإعدادات التالية:
- Pinokio
- Hunyuan Video
- CivitAI John Wick LoRA
كيفية تدريب نموذج LoRA الخاص بك لنموذج الفيديو Hunyuan
حسنًا، دعني أريك كيف يمكنك تدريب نموذج ذكاء اصطناعي باستخدام مدخلات الفيديو الخاصة بك. سنستخدم نموذج zsxkib/hunyuan-video-lora من منصة Replicate.
هناك معاملان مهمان تحتاج إلى تعبئتهما: نموذج الوجهة وملفات الفيديو المدخلة.
- نموذج الوجهة: اختر نموذجًا على Replicate ليكون الوجهة للنموذج المدرب. إذا لم يكن النموذج موجودًا، اختر خيار “إنشاء نموذج”، وسيظهر حقل لإدخال اسم النموذج الجديد.
- ملفات الفيديو: قم بتحميل ملف مضغوط يحتوي على مقاطع الفيديو التي ستستخدمها للتدريب. إذا كنت تريد إضافة تعليقات نصية، تأكد من وجود ملف نصي منفصل لكل فيديو، مثلًا إذا كان لديك فيديو باسم my-video.mp4، يجب أن يكون هناك ملف نصي باسم my-video.txt. إذا لم تقم بإضافة تعليقات، يمكنك استخدام خاصية التلقين التلقائي (وهي مفعلة افتراضيًا).

بعد الإنشاء، ستتم إعادة توجيهك إلى صفحة تفاصيل التدريب، حيث يمكنك مراقبة تقدم التدريب وتنزيل الأوزان وتشغيل النموذج المدرب.
في سلسلة الـ Prompt، صف نوع الفيديو الذي تريد رؤيته. في المثال أدناه، كانت مقاطع الفيديو المدخلة من روز، عضوة فرقة BlackPink.
Prompt: على طريقة RSNG. امرأة بشعر أشقر تقف على شرفة ليلًا، مع أضواء المدينة خلفها. ترتدي بلوزة قصيرة بيضاء وجاكت داكن، تبدو واثقة وهي تحدق مباشرة في الكاميرا.
بعد تعيين جميع المعلمات، انقر على زر “Boot + Run” وانتظر حتى يتم إنشاء الفيديو النهائي. المقطع الذي مدته ثانيتين أدناه تم إنشاؤه في دقيقة ونصف.
النتيجة تبدو رائعة! قد تكون الصورة النهائية ضبابية قليلًا، لكنها تبدو واقعية بشكل مدهش، حيث تلتقط تشابه روز مع توزيع ظلال صحيح.
تكلفة تشغيل هذا النموذج على Replicate تبلغ حوالي 0.20 دولار، أو 5 عمليات تشغيل لكل دولار، لكن هذا يختلف حسب المدخلات. النموذج أيضًا مفتوح المصدر، ويمكنك تشغيله على جهازك الشخصي باستخدام Docker.
رأيي الشخصي حول تدريب نماذج LoRA
تدريب نماذج LoRA قد يبدو بسيطًا بشكل مدهش. قبل أن تصبح LoRA شائعة، كان عليك تدريب أجزاء كبيرة من النموذج، مما كان يتطلب وقتًا ومالًا وأجهزة قوية.
مع LoRA، أنت تدرب فقط مصفوفة صغيرة (أو مجموعة من المصفوفات ذات الرتبة المنخفضة) يتم إدخالها في النموذج الأكبر. هذا يعني عددًا أقل بكثير من المعلمات، ووقت تدريب أقصر، وتقليل كبير في الحمل الحسابي.
LoRA يقوم بضبط طبقات الانتباه المتقاطع (أجزاء QKV في مُتنبئ الضوضاء U-Net). على الرغم من أنك يمكنك تدريب هذه “رؤوس التكيف” الصغيرة بسرعة، إلا أن النتائج غالبًا ما تبدو قريبة من جودة تدريب النموذج الكامل. هذا المزيج من الكفاءة والجودة هو ما يجعلني متحمسًا لمستقبل هذه الصناعة.
نحن الآن في مرحلة يمكن فيها لمطور واحد، أو حتى هاوٍ متحمس، إنشاء ذكاء اصطناعي متخصص وعالي الجودة، وهو ما كان في السابق حكرًا على شركات التكنولوجيا الكبرى.
علاوة على ذلك، تمنح LoRA المطورين تحكمًا إبداعيًا أكبر. إذا كنت أدرب نموذجًا لتقليد أسلوب جمالي معين، مثل المظهر التشكيلي أو مظهر الأفلام القديمة، أو التقاط البنية الدقيقة للوجه وتعبيرات شخصية مشهورة، فإن التدريب القائم على LoRA يقدم نتائج متسقة.
الآثار الأخلاقية لتقنية “الديب فيك”
دعنا الآن نخوض في الحديث عن الآثار الأخلاقية المترتبة على استخدام تقنية “الديب فيك” (التزييف العميق).
لنأخذ مثالًا شهيرًا يسبق موجة الذكاء الاصطناعي الحالية: إحياء الممثل بيتر كوشينغ باستخدام تقنية CGI في فيلم Rogue One: A Star Wars Story عام 2016.
بيتر كوشينغ، الذي جسد شخصية غراند موف تاركين في فيلم Star Wars: A New Hope عام 1977، توفي عام 1994. وبما أن أحداث فيلم Rogue One تتصل مباشرة بفيلم A New Hope، اعتبرت شخصية تاركين أساسية للقصة، مما دفع المنتجين إلى إعادة كوشينغ رقميًا إلى الشاشة.

هذا القرار أثار جدلاً واسعًا: هل من المقبول أخلاقيًا إظهار ممثل متوفٍّ في فيلم جديد باستخدام التقنيات الرقمية دون موافقته الصريحة؟
بعضهم يرى أن هذا الأمر يحافظ على استمرارية القصة ويكرم شخصيات محبوبة. بينما يعتقد آخرون أنه ينتهك حق الممثل في التحكم في صورته وإرثه الفني.
السؤال الأكبر هنا: إذا لم يوافق الممثل على الظهور في قصة أو سياق معين أثناء حياته، هل يحق للاستوديو إعادته رقميًا بعد وفاته؟
هذه القضايا لا تقتصر على الموتى فقط. ماذا عن الممثلين الأحياء الذين لا يرغبون في المشاركة في مشروع معين؟ في الماضي، كانت تُستخدم أشخاص يشبهون المشاهير في الأفلام أو الأعمال الساخرة. أما اليوم، فإن الذكاء الاصطناعي يمكنه إنشاء نسخة شبه مثالية من وجه وصوت أي شخص، مما يزيل أي حواجز أمام “المشاركة القسرية”.
في العديد من الدول، توجد قوانين حول “حقوق الشهرة بعد الوفاة”، والتي تسمح للورثة بالتحكم في كيفية استخدام صورة المتوفى تجاريًا. لكن هذه القوانين تختلف من دولة إلى أخرى، وغالبًا ما تكون بطيئة في التكيف مع التطورات التكنولوجية الجديدة.
إضافة إلى ذلك، فإن إمكانية التلاعب السياسي، تشويه السمعة، ونشر الأخبار المزيفة هائلة. في عالم يعاني بالفعل من حملات التضليل، يمكن أن تصبح تقنية “الديب فيك” أداة خطيرة في الأيدي الخطأ.
ومع ذلك، وكما هو الحال مع معظم التقنيات، فإنها سيف ذو حدين. نفس التقنية التي يمكن استخدامها في الدعاية السياسية الخبيثة يمكن أيضًا أن تُستخدم في الأعمال الساخرة، أو التعبير الفني المشروع، أو تقنيات صناعة الأفلام المتقدمة. المسؤولية تقع على عاتقنا في كيفية استخدامها، وكيف تتعامل المجتمعات وجهات إنفاذ القانون مع سوء الاستخدام.
مخاوف تتعلق بالملكية الفكرية
جانب آخر يجب النظر إليه هو حقوق الملكية الفكرية.
إذا قمت بتحميل مقاطع لممثل لتدريب نموذج ذكاء اصطناعي، هل أملك الحق القانوني للقيام بذلك؟ أين يقع مفهوم “الاستخدام العادل”، وكيف يتقاطع مع حق الشخص في التحكم في صورته؟
نرى بالفعل دعاوى قضائية مبكرة تتحدى كيفية استخدام شركات الذكاء الاصطناعي التوليدي للبيانات التدريبية. على سبيل المثال، هل تتذكر عندما رفعت سكارليت جوهانسون دعوى قضائية ضد OpenAI، معربة عن غضبها من أن صوت روبوت الدردشة ChatGPT كان “شبيهًا بشكل مخيف” بصوتها؟
في وقت نعاني جميعًا من انتشار “الديب فيك” وحماية صورنا وأعمالنا وهوياتنا، أعتقد أن هذه الأسئلة تستحق إجابات واضحة. أنا أتطلع إلى حلول تتمثل في الشفافية وإصدار تشريعات مناسبة لضمان حماية حقوق الأفراد.
من المرجح أننا سنشهد قريبًا دعاوى قضائية مماثلة تتعلق ببيانات الفيديو والوجوه.
بالنسبة للمطورين ورواد المحتوى، هذه الأسئلة قد تكون محيرة. التكنولوجيا تتطور أسرع من أن تستطيع الأطر القانونية والأخلاقية مواكبتها. من الصعب التحكم في كيفية استخدام الناس لهذه التقنية، لكن أقل ما يمكننا فعله الآن هو: إذا كنا ندرّب نموذجًا على صورة شخص ما، يجب أن نكون واضحين جدًا بشأن المصدر والاستخدام المقصود للنموذج الناتج. بينما لن يحل هذا كل الإشكاليات القانونية، إلا أنه بداية لبناء الثقة والمسؤولية.
الخلاصة
الذكاء الاصطناعي يمكنه الآن استبدال أي ممثل في فيلم! بعد قضاء ساعات لا تُحصى في استكشاف أدوات مثل Hunyuan وLoRA وتقنيات توليد الفيديو بالذكاء الاصطناعي، يمكنني أن أقول بثقة إننا نقف على أعتاب عصر جديد في صناعة الأفلام والترفيه والإعلام الرقمي.
عملية التدريب على منصة Replicate بسيطة وأرخص بكثير من Fal AI، مما يجعلها سهلة التجربة للجميع. النتائج أيضًا جيدة جدًا. على سبيل المثال، النموذج الذي يحاكي وجه روز من فرقة BlackPink يبدو مطابقًا لها بشكل لافت، مما يظهر دقة الأداة.
نقل وجه كيانو ريفز باستخدام نموذج Hunyuan هو أحد أكثر الأمثلة واقعية رأيتها. الوجه يبدو حقيقيًا جدًا ويتمازج بسلاسة مع الخلفية. هناك بعض المشاكل الصغيرة إذا نظرت عن كثب، مثل الشعر، لكن معظم الناس لن يلاحظوها.
ما يثير الحماس هو مدى سهولة استخدام هذه التقنية. فكرة إعادة صور ممثلين راحلين أو حتى أفراد من العائلة، وإن كانت مثيرة للتفكير، إلا أنها بلا شك مذهلة.
كمطور يعمل في مجال الذكاء الاصطناعي، أنا أتطلع إلى إضافة هذه الميزة إلى Flux Labs AI. إذا كنت مطورًا تعمل على تطبيقات تعتمد على الذكاء الاصطناعي، فإن نموذج Hunyuan يستحق التجربة. إنه أداة تحمل إمكانيات هائلة.