تقنية التزييف العميق Deepfakes



التزييف العميق Deepfakes هى احدى تقنيات الذكاء الاصطناعى، التي تستخدم لإنتاج فيديو أو التعديل على محتواه بشكل كامل، لينتج شيئًا مزيفاً لم يكن موجودًا بالاساس فى الفيديو الأصلى.  بالطبع تزييف الفيديوهات كان منتشرا من قبل من سنوات طويلة، و تقوم بة جهات أمنية المحترفة وشركات الإنتاج السينمائي، كما أن النتيجة لم تكن مرضية فى اغلب الاحيان.  الا أن خطورة تقنية التزييف العميق هى أن مقاطع الفيديو أو التسجيلات الصوتية المزيفة تبدو وكأنها حقيقية تماما و يصعب تمييزها و التعرف عليها، كما أن هناك مشكلة خطيرة تمثلها سهولة وصول الأشخاض الآن من خلال الإنترنت إلى برامج التزييف العميق و التعديل على الفيديوهات أو تركيبها بالكامل، مما يفتح باب لإساءة سمعة الأخرين أو الترويج لأجندة معينة من الاكاذيب.

سبب تسمية تقنية التزييف العميق Deepfakes

و تعود تسمية هذه التقنية إلى حساب في موقع التواصل الاجتماعي ريديت Reddit لمستخدم مجهول يحمل اسم deepfakes، استخدام هذا الشخص تقنيات الذكاء الاصطناعي للتعلم العميق، ليعدل بوجوه النجوم والمشاهير وإدخال وجوههم في فيديوهات لا علاقة لهم فيها، ولذلك، فإنّ التسمية جاءت لتجمع بين تقنيات التعلم العميق والتزييف.


خطورة فيديوهات التزييف العميق Deepfakes 

و رغم أن معظم مقاطع الفيديو التي تعتمد على تقنية التزييف العميق الآن تقتصر على وضع وجوه المشاهير على أجساد ممثلى الافلام الاباحية، أو إنتاج مقاطع فيديو مضحكة للسياسيين، لأغراض ترفيهية سواء للتسلية أو السخرية. لكن سهولة إنتاج هذه المقاطع المزيفة الآن يمثل تهديد كبير لخصوصية وحياة المستخدمين، بالإضافة إلى التأثير على مصداقية الأخبار ووسائل الإعلام والإضرار بالعلاقات السياسية. فمع اعتماد تقنية التزييف العميق على تقنيات الذكاء الصناعي وتعلم الآلة، أصبح تزييف مقاطع الفيديو والصوت باحترافية عملية سهلة لا تحتاج سوى إلى ثلاث خطوات، فكل ما يتطلبة الامر هو صورة لشخص ما ومقطع فيديو إباحي على سبيل المثال ثم ندع الامر للبرنامج ليقوم باستبدال الوجوه أو الصوت.


في بداية ظهور تقنية الديب فيك كانت تُستخدم على النجوم أو المشاهير، و وقتها كان من السهل للغاية معرفة الفيديو الحقيقي من المزيف، لأن طبيعة الفيديو ببساطة لا يمكن أن تكون صحيحة. مع ازياد شعبية هذه التقنية أدى إلى وصولها إلى عدد أكبر من الناس، فقد انتشرت في الهند خلال الفترة الماضية حالات كثيرة من إساءة السمعة واتهام النساء في مجال الصحافة بمشاهد غير أخلاقية تم تركيبها لازعاجهن و توجية تهم فاسدة ضدهن. ومثل هذه الحالات تزداد يومًا بعد يوم نظرًا إلى سهولة استخدام هذة التقنية كما سبق و أشرنا، وبات هنالك الكثير من المحاولات لنشر أخبار كاذبة “موثوقة” بفيديوهات، وارتفع معدل الإهانات والازعاجات عبر الإنترنت بشكل ملحوظ. و هناك مخاوف حالية هي أن نصل إلى مرحلة من التطور لن نتمكن فيها أن ندرك أبدًا أننا نرى فيديو مزيف تم إنشاؤه بهذه التقنية. 

هل هناك فائدة من تقنية التزييف العميق?

رغم المخاوف العديدة و الجدل الدائر حول هذة التقنية و أخطارها لا يزال هنالك من يجادل بأهمية هذة التقنية وان لها دور إيجابي لا غنى عنه فى تنمية الوعى عند الناس الذى اعتادوا على تصديق كل شيء يرونه في الأخبار سواء عبر الإنترنت أو عبر قنوات التلفاز، و الآن مع انتشار هذه التقنية و معرفة الناس بها، سوف يبدأ الجميع بالتشكيك فى كل ما يراه قبل تصديقه و هو الأمر الجيد لمنع نشر الأفكار الخاطئة بين الناس.

يتمّ استغلال هذه التقنيّة في المجال الأكاديمي في بضعِ مجالات على رأسها مجال الرؤية الحاسوبية وهو حقل فرعي لعلوم الكمبيوتر يستند غالبًا إلى الذكاء الاصطناعي و يركز على معالجة الصور ومقاطع الفيديو الرقمية بشكلٍ آلي. و تركز المشاريع الأكاديمية المُعاصرة على إنشاء مقاطع فيديو أكثر واقعية وعلى جعل التقنية أكثر بساطة وأكثر سهولة. و فى عام 2017 نشرَ فيديو للرئيس الأمريكي السابق باراك اوباما وهوَ يتكلّم بصوتٍ عالٍ حول هذه التقنيّة مُحاولًا شرحَ مخاطرها وهو ما لم يفعلهُ الرئيس الأمريكي أصلًا بل إنّ البرنامج قامَ بجمعِ عددٍ من فيديوهات الرئيس ثمّ حاولَ استخراج الكلمات التي يحتاجها – والتي نُطقت في سياقٍ مختلفٍ – من أجلِ استعمالها في الفيديو الوهميّ الجديد.



ردود الفعل على الإنترنت

أعلنت بعض مواقع الويب و اشهرها تويترأنها ستحذف أى محتوى مصنوع تم إنتاجة عبر تقنيّة التزييف العميق كما انها ستقوم بحظر ناشر مثل هذا النوع من المُحتوى. كذلك بدأت بعض المنصات بمنع تداول وتبادل مقاطع الفيديو المزيفة و حظر كل من ينشر أو يتبادل تلك النوعيّة من الفيديوهات بدعوى خرق سياسة الموقع. كما أضافَ موقع جوجل «الصور الإباحية الاصطناعية» لقائمة النتائج الممنوعة من الظهور.


#deepfakes




إرسال تعليق

0 تعليقات