"BBC لا تتيح لي التحدث بصراحة".. سر أغرب ظهور تلفزيوني لملكة بريطانيا

"تقنية التزييف العميق"

"BBC لا تتيح لي التحدث بصراحة".. سر أغرب ظهور تلفزيوني لملكة بريطانيا
عبدالغفور أحمد محسن

عبدالغفور أحمد محسن

7:10 م, الخميس, 24 ديسمبر 20

“على BBC لا أتحدث بصراحة ومن قلبي.. أنا ممتنة للقناة الرابعة التي أتاحت لي الفرصة لأقول ما أريد دون أن يحشر أحدهم الكلام في فمي”، بهذه الكلمات يبدأ أغرب ظهور تلفزيوني لملكة بريطانيا.

الكلمات التي تعد بأجرأ حديث للملكة الثانية ليس سوى مقدمة كاذبة لمجموعة من الأكاذيب اللاحقة في خطاب مفبرك كليا عبر تقنية التزييف العميق.

والفيديو الذي أعدته “القناة الرابعة” في بريطانيا سيذاع كاملا (مدته 5 دقائق) غدا في توقيت الخطاب الأصلي للملكة والذي يبث بشكل معتاد سنويا على قناتي BBC و ITV.

وتقول القناة الرابعة إن الغرض من هذا الفيديو المفبرك هو إعطاء “تحذير صارخ” بشأن الأخبار الكاذبة في العصر الرقمي.

ويمكن استخدام تقنية التزييف العميق Deepfake لإنشاء محتوى فيديو مقنع ولكنه خيالي تمامًا وغالبًا ما تُستخدم تلك التقنية لنشر معلومات مضللة.

ومن جهته قال قصر باكنجهام لـبي بي سي إنه ليس لديه تعليق على هذا البث.

جزء من الفيديو المفبرك:

خطاب حقيقي لملكة بريطانيا في عيدالميلاد 2019:

“التقليد ليس جيدا”

ولم يبدو نيكولاس ويتشل مراسل بي بي سي الملكي معجبا بالخطاب، قائلا إن هناك عدد لا يحصى من محاولات التقليد للملكة لكن هذا ليس جيدًا.

وتابع: “الصوت يبدو محاولة سيئة إلى حد ما لانتحال شخصيتها”.

وقالت هيئة الرقابة على وسائل الإعلام Ofcom إنها تلقت “عددًا صغيرًا من الشكاوى” حول الفيديو، لكن نظرًا لأنها جهة تنظيمية لمرحلة ما بعد البث فلا شيء يمكنها النظر فيه حاليا.

ورغم أن تقنية التزييف العميق تتيح أيضا انتحال الصوت، إلا أن الصوت الذي يظهر في هذا الفيديو هو للممثلة البريطانية ديبرا ستيفنسون.

والنجمة التلفزيونية أدت سابقا صوت الملكة في نسخة عام 2020 من برنامج الدمى الساخر Spitting Image.

وتم تنفيذ الفيديو في استوديو VFX studio Framestore الحائز على جائزة الأوسكار.

تقنية التزييف العميق

وظهرت تقنية التزييف العميق لأول مرة في أوائل عام 2018، عندما قام أحد المطورين بتكييف تقنيات الذكاء الاصطناعي المتطورة لإنشاء برنامج يبدل وجه الشخص بوجه بآخر.

وبعد ذلك أصبحت العملية أكثر سهولة.

ويوجد الآن العديد من التطبيقات التي تتطلب صورة واحدة لتنفيذ الغرض.

وفي وقت سابق من هذا العام كشفت مايكروسوفت عن أداة يمكنها اكتشاف التزييف العميق، لكن خبراء حذروا من أن التقنية ستتطور وتتجوزها.