جنرال لواء

يمكن لنظام معالجة الفيديو الجديد إعادة إنتاج تعبيرات وجه أي شخص بشكل واقعي


قام باحثون من معهد ماكس بلانك للمعلوماتية بألمانيا وتكنيكولور وفرنسا وجامعة ميونيخ التقنية بألمانيا وجامعة باث بالمملكة المتحدة وجامعة ستانفورد بالولايات المتحدة بتوحيد قواهم من أجل مشروع جديد مثير للقلق إلى حد ما. يكشف العمل ، الذي نُشر في دراسة الشهر الماضي ، عن طريقة جديدة لاستخدام التعلم العميق في إنشاء الفيديو ، مما ينتج عنه إعادة صياغة واقعية للغاية لتعبيرات الوجه وحركاته الكاملة.

"نقدم أسلوبًا جديدًا يتيح إعادة الرسوم المتحركة الواقعية للصور لمقاطع الفيديو الشخصية باستخدام إدخال فيديو فقط. على عكس الأساليب الحالية التي تقتصر على التلاعب بتعبيرات الوجه فقط ، نحن أول من نقل وضع الرأس ثلاثي الأبعاد بالكامل ، دوران الرأس ، وتعبيرات الوجه ، ونظرة العين ، وميض العين من ممثل مصدر إلى فيديو بورتريه لممثل مستهدف ، "تذكر الورقة.

صور فيديو عميقة

الورقة بعنوان Deep Video Portraits ومن المقرر عرض نتائجه في أغسطس في SIGGRAPH ، وهي مجموعة اهتمامات خاصة لدى ACM حول رسومات الكمبيوتر والتقنيات التفاعلية. يوضح مقطع فيديو للتكنولوجيا المستخدمة كيف يستخدم الباحثون مقطع فيديو لموضوع مختار ، في هذه الحالة ، الرئيس السابق باراك أوباما ، لاستقراء وتحليل كيفية تحرك وجهه بشكل طبيعي.

يتم بعد ذلك تتبع المعالم التي تشكل تعبيرات وجه حقيقية من أجل إعادة إنشائها باستخدام تعبيرات الباحثين كمصادر لمعلومات الإدخال المرئي. والنتيجة هي استنساخ مماثل بشكل مخيف لكل فارق بسيط من التعبير البشري الذي ينتمي إلى المصدر المستهدف.

للتأكد من أن تقنيتهم ​​كانت دقيقة كما توقعوا ، أجرى الفريق عمليات المحاكاة الخاصة بهم من خلال اختبارات مختلفة. توضح الورقة البحثية "لإثبات الجودة العالية لمخرجاتنا ، نجري سلسلة واسعة من التجارب والتقييمات ، حيث تظهر دراسة المستخدم على سبيل المثال أنه من الصعب اكتشاف تعديلات الفيديو لدينا".

الآثار الأخلاقية كثيرة

المشروع ، بالطبع ، يأتي مع العديد من الآثار الأخلاقية والمخاطر المحتملة. في الواقع ، كانت القضايا المحيطة باستخدام أنظمة الذكاء الاصطناعي الترفيهية لأغراض إجرامية وشائنة مصدر قلق لبعض الوقت الآن.

قامت وكالة مشاريع الأبحاث الدفاعية المتقدمة (DARPA) ، الذراع البحثية للجيش الأمريكي ، مؤخرًا بتمويل منصة الطب الشرعي الإعلامي (MediFor) من أجل "محاولة تسوية مجال الصور الرقمية ، والذي يفضل حاليًا المتلاعب". يسعى المشروع إلى تطوير تقنيات "التقييم الآلي لسلامة صورة أو مقطع فيديو" من أجل تحديد مصداقية المصادر المشكوك فيها وتجنب استخدامها في حملات الدعاية والمعلومات المضللة.

لا تتناول الورقة حاليًا أي مخاوف أخلاقية تحيط بالمجال. ومع ذلك ، يوضح مؤلفوها أن عملهم هو باب لزيادة قدرات التكنولوجيا.

"إننا نعتبر نهجنا خطوة نحو توليف واقعي للغاية للإطار الكامل
محتوى الفيديو تحت سيطرة معلمات ذات مغزى. نأمل أن يلهم البحث في المستقبل في هذا المجال الصعب للغاية ".


شاهد الفيديو: كيف اصور فيديوهات اليوتيوب بالهاتف فقط ! معدات التصوير بالهاتف ونصائح سريعة (سبتمبر 2021).