جدة : البلاد
لم تكن عملاقة التقنية “جوجل” الوحيدة التي عملت على تقنين “التزييف العميق” (deepfake)، بعد أن حظرت مؤخرًا خوارزميات هذه التقنية المتقدمة من Google Colaboratory، خدمة الحوسبة المجانية التي تتيح إمكانية الوصول إلى وحدات معالجة الرسومات في الأجهزة. فالعديد من الولايات الأمريكية وضعت تشريعات تنظم وتقنّن استخدام التزييف العميق، أما الصين فتعمل على مشروع قانون يتطلب وجود هوية تعريفية للمحتوى التي يتم إنشاؤه باستخدام الحاسوب، فيما قد تتضمن لائحة الاتحاد الأوروبي التشريعية المرتقبة لتنظيم الذكاء الاصطناعي بندًا حول هذه التقنية المثيرة للجدل.
وقد شرح خبراء كاسبرسكي عن التزييف العميق مبيّنين أسباب الجدل الدائر حوله، والسبل الكفيلة لحماية المستخدمين من أخطاره:
- يشير مصطلح “التزييف العميق” عادةً إلى أنواع مختلفة من المحتوى الاصطناعي التي يتم إنشاؤه باستخدام الحاسوب بالاعتماد على أشخاص وشبكات عصبية عميقة. وقد يكون هذا المحتوى مقاطع فيديو أو صورًا أو تسجيلاتٍ صوتية. ويقلّل اللجوء إلى “التعلّم العميق” بدلًا من تقنيات تحرير الصور التقليدية، كثيرًا من الجهد والمهارة المطلوبين لإنشاء تزييف مقنع.
- في الأصل، يشير المصطلح إلى برمجية معينة اكتسبت شهرة على Reddit، بإمكانها زرع وجه شخص في مقطع فيديو يظهر فيه شخص آخر، وقد استُخدمت في إنشاء مواد إباحية ونشرها بغرض الإساءة إلى بعض المشاهير. ووفقًا لبعض التقديرات، فإن 96% من جميع محتوى التزييف العميق هو مواد إباحية، ما يسلّط الضوء على المخاوف من استخدام هذه التقنية في الإساءة والابتزاز والتشهير.
- ويمكن أن تساعد هذه التقنية أيضًا مجرمي الإنترنت. في حالتين معروفتين على الأقلّ، ففي إنجلترا، استُخدم تزييف عميق للصوت في خداع شركات لتحويل الأموال إلى محتالين، من خلال التظاهر بكون المتحدثين مسؤولين في شركات معنية. وأظهرت الأبحاث الحديثة أن الخوارزميات التجارية التي تستخدمها المؤسسات المالية للتحقق من هوية العملاء، يمكن خداعها بالتزييف العميق الذي يتم إنشاؤه من صور الهوية، ما يؤسس لنواقل هجوم جديدة ويجعل من الهويات المسربة مشكلة أخطر.
- هناك كذلك مشكلة أخرى تتمثل في أن تقنية التزييف العميق تقوّض الثقة في محتوى الصوت والفيديو، الذي يمكن استخدامه في أغراض خبيثة. وفي إحدى الحالات الحديثة، مثلًا، استخدمت مقابلة مزيفة مع إلون مسك للترويج لعملية احتيال في مجال العملات الرقمية. ويحذّر الخبراء والمؤسسات، مثل الشركة الأوروبية (اليوروبول)، من أن تزايد ملفات التزييف العميق يمكن أن يؤدي إلى زيادة انتشار المعلومات المضللة على الإنترنت.
- ليس كل ما يتعلق بالتزييف العميق سيئًا؛ فالتلاعب بالصور قديم قِدم الصور نفسها، وإنشاء الصور حاسوبيًا موجودة منذ عقود، وكلاهما وجد استخدامًا لائقًا، والحال هذه تنطبق على تقنية التزييف العميق. ومن الأمثلة على ذلك، استخدام تقنية التزييف العميق لتحويل وجه مغني الراب كندريك لامار في مقطع فيديو حديث بعنوان Heart Part 5 إلى مشاهير آخرين، مثل مغني الراب كاني ويست. وفي فيلم Top Gun: Maverick، استُخدمت خوارزمية لتجسيد صوت الممثل فال كيلمر في الفيلم بعد أن فقد صوته. كذلك استُخدمت خوارزمية تزييف عميق لإنشاء سلسلة فيديوهات من بطولة توم كروز مزيف لاقت انتشارًا واسعًا على “تيكتوك”. ويبحث عدد من الشركات الناشئة عن سُبل جديدة للاستفادة من هذه التقنية في إنشاء شخصيات ميتافيرية نابضة بالحياة.
ويوضّخ خبراء كاسبرسكي للمستخدمين سبل اكتشاف التزييف العميق بالنقاط التالية:
- ما زال التزييف العميق المقنِع، كالفيديو الذي يظهر فيه توم كروز، يتطلب الكثير من الخبرة والجهد، وأحيانًا حتى منتحلَ شخصية محترفًا. وما يزال التزييف العميق المستخدم في عمليات الاحتيال يميل إلى انخفاض الجودة ويمكن رصده بملاحظة حركات الشفاه غير الطبيعية، والتنفيذ الضعيف للشعر، وأشكال الوجه غير المنسجمة، وانعدام حركة أجفان العيون تقريبًا، وعدم انسجام لون البشرة، وما إلى ذلك. ويمكن أن تذهب جهود هواة التزييف العميق سُدىً بسبب التنفيذ السيئ للملابس أو مرور يد أمام الوجه في الفيديو.
- إذا شاهدت فيديو لشخصية عامة أو مشهورة تخرج بتصريحات غريبة أو تقدّم عروضًا يصعب تصديقها، وحتى لو بدا الفيديو مقنعًا، عليك بالتحقق مما شاهدت وسمعت مع مصادر موثوق بها. ضع في اعتبارك أن بوسع المحتالين إخفاء أوجه القصور في التزييف العميق عن طريق الخفض المتعمَّد لجودة الفيديو، لذا فإن أفضل استراتيجية تتمثل في عدم التحديق في الفيديو بحثًا عن أدلة، وإنما اللجوء إلى الفطرة السليمة والتحقق من المعلومات.
- يمكن أن يتيح وجود حل أمني موثوق به دعمًا جيدًا إذا أدّى مقطع مبني على التزييف العميق عالي الجودة إلى إقناع المستخدم بتنزيل ملفات أو برمجيات خبيثة، أو زيارة روابط مشبوهة أو مواقع ويب تصيّدية.
- في حال وقعت ضحية لمحتوى إباحي صُمّم بتقنية التزييف عميق، فيمكنك التواصل مع كلٍّ من موقع الويب لطلب إزالة الفيديو (إذ تحظر العديد من مواقع الويب نشر التزييف العميق)، والتواصل كذلك مع السلطات القانونية المعنية، إذ يُعد التزييف العميق بغرض الإساءة جريمة جنائية في بعض التشريعات.
وقال عالم البيانات لدى كاسبرسكي، فلاديسلاف توشكانوف، إن التزييف العميق مثال بارز على التطوّر التقني السريع الذي “لا يمكننا مواكبة فهمه ولا الإمساك بزمام السيطرة على تبعاته”، معتبرًا أن هذا الأمر يجعله “إضافة مهمة إلى مجموعة أدوات الفنان، وفي الوقت نفسه أداة تضليل جديدة تتحدّى قدرة المجتمع على تمييز ما يمكن الوثوق به”.