أداة جديدة تصنع تزييفاً عميقاً لك من مجرد صورة وتسجيل قصير فقط

⬤ كشف باحثون في شركة Microsoft، عن أداة ذكاء اصطناعي تصنع التزييف العميق بسرعة كبيرة ومن صورة فقط.

⬤ كل ما تحتاجه الأداة هو صورة للوجه وتسجيل صوتي قصير لتنتج فيديو واقعياً لكلام الشخص وبنبرته الصحيحة.

⬤ قالت الشركة أنها لن تتيح الأداة للعامة بسبب مخاوف إساءة الاستخدام، لكن الأرجح أن تظهر أدوات تجارية مشابهة.

ابتكر باحثون من شركة Microsoft أداة ذكاء اصطناعي جديدة تدعى VASA-1 قادرة على تحويل صورة وجه ومقطع صوتي إلى فيديو حقيقي لوجه ناطق، بحسب ورقة بحثية نشرتها شركة التكنولوجيا الكبرى هذا الأسبوع.

وأشارت الشركة إلى أن هدف الأداة لا يتمثل في إنشاء محتوى بقصد التضليل أو الخداع، لافتة إلى أن الأداة، وعلى غرار تقنيات إنشاء محتوى أخرى، قد تُستخدم لأهداف مسيئة، وانتحال صفة أيّ كان.

ويثير النمو السريع للذكاء الاصطناعي التوليدي، الذي يتيح بسهولة إنتاج مختلف أنواع المحتوى: نصوص، وصور، وأصوات، بجودة عالية جداً، مخاوف كثيرة، خصوصاً فيما يتعلق بالاستغلال لأغراض الاحتيال، والتضليل، والتزييف العميق، حسبما أفاد العديد من الخبراء.

مواضيع مشابهة

يُزعم أن أداة VASA 1 يمكنها إنتاج محتوى فيديو عالي الجودة مع ديناميكيات واقعية للوجه والرأس. كما تدعم إنشاء مقاطع فيديو بدقة 512 × 512 بكسل عبر الإنترنت بمعدل يصل إلى 40 إطاراً في الثانية مع زمن وصول ضئيل لبدء التشغيل، وهي قادرة كذلك على إنشاء مقاطع فيديو تصل مدتها إلى دقيقة واحدة.

تُوفّر الأداة تحكماً دقيقاً للمستخدمين للسماح لهم بضبط جوانب مختلفة من الفيديو مثل اتجاه نظرة العين الرئيسية، ومسافة الرأس، وتعابير الوجه، والمزيد. تتيح عناصر التحكم هذه، ووضعية الرأس ثلاثية الأبعاد، وديناميكيات الوجه لأي شخص، إنتاج الفيديو النهائي بأدق طريقة ممكنة.

ومع ذلك، أعلنت Microsoft أن أداة VASA-1 لن تكون متاحة للجمهور، مؤكدة عزمها على استخدام التكنولوجيا لإنشاء شخصيات افتراضية واقعية بدلاً من إطلاقها كمنتج مستقل أو واجهة برمجة التطبيقات (API). ينبع هذا القرار من التزام الشركة بالممارسات الأخلاقية للذكاء الاصطناعي.

سلطّت Microsoft الضوء على المخاوف بشأن سوء الاستخدام المحتمل للأداة، وأوضحت موقفها قائلةً: «يركز بحثنا على التطبيقات الإيجابية لتوليد المهارات العاطفية المرئية للصور الرمزية الافتراضية للذكاء الاصطناعي. نحن نعارض أي استخدام لهذه التكنولوجيا للتضليل أو الخداع. في حين أنه من المحتمل إساءة استخدام أداتنا في مجالات انتحال الشخصية، ألا أننا ملتزمون بتطوير تقنيات للكشف عن التزوير والانتحال للتخفيف من حدة هذه المخاطر.»

وإلى أن تصبح Microsoft واثقة من أنه سيتم استخدام التكنولوجيا بشكل مسؤول وبما يتوافق مع اللوائح القانونية والأخلاقية، لا توجد خطط لإصدار عرض توضيحي عبر الإنترنت، أو واجهة برمجة التطبيقات (API)، أو تفاصيل تنفيذ إضافية تتعلق بأداة VASA في الفترة القادمة.

شارك المحتوى |
close icon