كشف النقاب عن أداة Deepfake من Microsoft
طورت Microsoft أداة لاكتشاف التزييف العميق - الصور التي تم التلاعب بها بواسطة الكمبيوتر والتي تم فيها استخدام صورة شخص ما لاستبدال صورة شخص آخر.
يقوم البرنامج بتحليل الصور ومقاطع الفيديو لإعطاء درجة ثقة حول ما إذا كان من المحتمل أن تكون المادة مصطنعة. وتقول الشركة إنها تأمل أن تساعد التكنولوجيا في "مكافحة المعلومات المضللة".
قال أحد الخبراء إنها تخاطر بأن تصبح قديمة بسرعة بسبب الوتيرة التي تتقدم بها تقنية deepfake. لمعالجة هذا الأمر ، أعلنت Microsoft أيضًا عن نظام منفصل لمساعدة منتجي المحتوى على إضافة رمز مخفي إلى لقطاتهم بحيث يمكن تمييز أي تغييرات لاحقة بسهولة.
البحث عن تغيرات الوجه
برز برنامج Deepfakes في أوائل عام 2018 بعد أن قام أحد المطورين بتكييف تقنيات الذكاء الاصطناعي المتطورة لإنشاء برنامج يقوم بتبديل وجه شخص بآخر.
نجحت العملية عن طريق تغذية الكمبيوتر بالكثير من الصور الثابتة لشخص واحد ولقطات فيديو لشخص آخر. ثم استخدم البرنامج هذا لإنشاء مقطع فيديو جديد يظهر وجه الأول بدلاً من الأخير ، مع تعبيرات متطابقة وتزامن الشفاه وحركات أخرى.
منذ ذلك الحين ، تم تبسيط العملية - فتح المجال أمام المزيد من المستخدمين - وتتطلب الآن عددًا أقل من الصور للعمل.
توجد بعض التطبيقات التي لا تتطلب سوى صورة شخصية واحدة لاستبدال وجه نجم سينمائي بواجهة المستخدم داخل مقاطع من أفلام هوليوود.
ولكن هناك مخاوف من إمكانية إساءة استخدام العملية لإنشاء مقاطع مضللة ، حيث يتم جعل شخصية بارزة تقول أو تتصرف بطريقة لم تحدث أبدًا ، لتحقيق مكاسب سياسية أو غيرها.
في وقت مبكر من هذا العام ، حظر Facebook عمليات التزييف العميق التي قد تضلل المستخدمين للاعتقاد بأن الشخص المعني قال شيئًا لم يقله . وتبعه Twitter و TikTok لاحقًا بقواعد مماثلة خاصة بهما.
تعمل أداة Microsoft Video Authenticator من خلال محاولة اكتشاف إشارات البيكسلات التي تشير إلى أن الصورة قد تم إنشاؤها بشكل مصطنع ، والتي قد تكون غير مرئية للعين البشرية.
وتشمل هذه البيكسلات الخافتة أو ذات التدرج الرمادي عند حدود المكان الذي تم فيه دمج النسخة التي أنشأها الكمبيوتر لوجه الهدف مع تلك الخاصة بجسم الموضوع الأصلي.
لإنشائه ، طبقت الشركة تقنيات التعلم الآلي الخاصة بها على مجموعة بيانات عامة تضم حوالي 1000 تسلسل فيديو مزيف عميقًا ، ثم اختبرت النموذج الناتج مقابل قاعدة بيانات أكبر لتبادل الوجوه أنشأها Facebook .
أشار أحد مستشاري التكنولوجيا إلى أن مقاطع الفيديو المزيفة العميقة لا تزال نادرة نسبيًا في الوقت الحالي ، وأن معظم المقاطع التي تم التلاعب بها تتضمن عمليات إعادة تحرير غير دقيقة يقوم بها الإنسان. ومع ذلك ، رحب بتدخل مايكروسوفت.
وعلقت نينا شيك ، مؤلفة كتاب Deep Fakes and the Infocalypse: "الاستخدام الوحيد الواسع الانتشار الذي رأيناه حتى الآن هو المواد الإباحية غير التوافقية ضد النساء".
"ولكن من المتوقع أن تصبح الوسائط التركيبية موجودة في كل مكان في غضون ثلاث إلى خمس سنوات ، لذلك نحن بحاجة إلى تطوير هذه الأدوات في المستقبل.
"ومع ذلك ، مع تحسن قدرات الاكتشاف ، ستتحسن أيضًا قدرة التركيب- لن يكون الأمر هو أن Microsoft يمكنها إطلاق أداة واحدة يمكنها اكتشاف جميع أنواع التلاعب بالفيديو."
أخبار بصمات الأصابع
أقرت Microsoft بهذا التحدي. على المدى القصير ، قالت إنها تأمل أن يساعد منتجها الحالي في تحديد التزييف العميق قبل الانتخابات الأمريكية في نوفمبر.
وبدلاً من نشره للجمهور ، فإنه يعرضه فقط عبر منظمة خارجية ، والتي بدورها ستوفرها لناشري الأخبار والحملات السياسية دون مقابل.
والسبب في ذلك هو منع الجهات الفاعلة السيئة من الحصول على الشفرة واستخدامها لتعليم مولدات التزييف العميق الخاصة بهم كيفية التهرب منها.
لمواجهة التحدي طويل المدى ، تعاونت Microsoft مع BBC ، من بين مؤسسات إعلامية أخرى ، لدعم Project Origin ، وهي مبادرة لـ "تمييز" المحتوى عبر الإنترنت بطريقة تجعل من الممكن اكتشاف أي تلاعب في المواد تلقائيًا.
ستقوم شركة التكنولوجيا الأمريكية بذلك عبر عملية من جزأين.
أولاً ، أنشأت أداة إنترنت لإضافة بصمة رقمية - في شكل شهادات وقيم "هاش" - إلى البيانات الوصفية للوسائط.
ثانيًا ، لقد أنشأت قارئًا ، للتحقق من وجود أي دليل على أن بصمات الأصابع قد تأثرت بتغييرات طرف ثالث في المحتوى.
تقول Microsoft إن الأشخاص سيكونون قادرين بعد ذلك على استخدام القارئ في شكل امتداد متصفح للتحقق من أن الملف أصلي والتحقق من الشخص الذي أنتجه.
يعد التلاعب بالصور والفيديو أمرًا بالغ الأهمية لنشر معلومات مضللة مقنعة في كثير من الأحيان على وسائل التواصل الاجتماعي.
لكن التكنولوجيا المعقدة أو التزييف العميق في الوقت الحالي ليست ضرورية دائمًا. غالبًا ما تكون تقنية التحرير البسيطة هي الخيار المفضل.
كان هذا هو الحال مع مقطع فيديو تم التلاعب به مؤخرًا للمرشح الرئاسي الأمريكي جو بايدن ، والذي تمت مشاهدته أكثر من مليوني مرة على وسائل التواصل الاجتماعي.
يظهر المقطع مقابلة تلفزيونية بدا خلالها أن بايدن ينام. لكنها كانت مزيفة - مقطع المضيف كان من مقابلة تلفزيونية مختلفة وتمت إضافة تأثيرات الشخير اليه.
من ناحية أخرى ، أصبحت الصور التي تم إنشاؤها بواسطة الكمبيوتر لوجوه الأشخاص من السمات المميزة الشائعة لحملات التدخل الأجنبي المعقدة ، والتي تُستخدم لجعل الحسابات المزيفة تبدو أكثر واقعية.
هناك شيء واحد مؤكد ، وهو أن المزيد من الطرق لاكتشاف الوسائط التي تم التلاعب بها أو تغييرها ليس بالأمر السيئ في مكافحة المعلومات المضللة عبر الإنترنت.
أقرأ أيضا:
إرسال تعليق