تغطية شاملة

Deepfake - ومستقبل الديمقراطية

يمكن أن تسبب أفلام التزييف العميق ضررًا للأشخاص الحقيقيين الذين يظهرون فيها، بل وتتسبب في حروب بين الدول. لا عجب أن الولايات المتحدة والاتحاد الأوروبي اعترفا بأن التزييف العميق يمثل تهديدًا مباشرًا للديمقراطية

وكانت رنا أيوب، الصحفية الهندية، تجلس بشكل مريح في المقهى عندما تلقت رسالة نصية من صديق تتضمن إشارة إلى مقطع فيديو إباحي قصير.

النجم الرئيسي؟ الوظيفة نفسها.

ولم يتذكر أيوب، الذي كان معروفًا بأنه صحفي استقصائي لاذع ومناهض للمؤسسة، أنه شارك في مثل هذا الفيديو على الإطلاق. أدركت على الفور أنها وقعت ضحية لهجوم Deep Fake متطور بشكل خاص. استخدم شخص ما الذكاء الاصطناعي للصق وجهها على وجه ممثلة إباحية حقيقية. هذا ليس مجرد قناع، أو مطابقة الصور للهواة. بدت تعابير وجه أيوب حقيقية تمامًا، ولم يتمكن سوى الخبراء الذين فحصوا الفيديو من التأكد من أنه مزيف.

لم يكن أي من هذه الوظيفة مهتمًا في تلك اللحظة. وكانت تعلم أن قلة من الناس في الهند - وهي دولة ذات ثقافة شوفينية عريقة - قد يصدقون أنها لم تكن على صلة بالفيديو. وكانت على حق: ففي غضون يومين وصل الفيديو إلى نصف الهواتف المحمولة في الهند[1].

"وقبل أن أعرف ذلك، وصلت إلى هاتف والدي، وهاتف أخي." وصف أيوب التجربة.

تعرض أيوب لهجوم إسكات وإذلال بمساعدة تكنولوجيا الذكاء الاصطناعي. كان الهجوم ناجحا بشكل مذهل. لم تتمكن أيوب من إظهار وجهها في الشارع دون أن يشير من حولها إلى الفيديو، وليس بطريقة محترمة على أقل تقدير. أي تعليق أو صورة لها على Instagram أو Facebook، يتم تلقي ردود فورية تتضمن مرجعًا أو روابط أو صورًا فعلية من الفيديو.

تعرضت أيوب نفسها لنوبات ذعر، وأدخلت المستشفى وتوقفت عن العمل لعدة أشهر.

"لقد كان الأمر مشلولا. لم أتمكن من إظهار وجهي. لقد عرّضني لعمليات الإعدام خارج نطاق القانون في الهند. اعتقد الناس أنه يمكنهم الآن فعل ما يريدون معي".[2] قائلا.

"لقد كنت عنيدًا جدًا، والآن أصبحت أكثر حذرًا بشأن ما أنشره عبر الإنترنت." اعترفت. "لقد مارست الرقابة الذاتية لأنني اضطررت إلى ذلك".

 أيوب ليس الوحيد الذي تلقى "معاملة خاصة" من خلال مقاطع الفيديو المزيفة. كما تعرضت الصحافية البريطانية هيلين مورت، نهاية عام 2020، لهجوم مماثل، ولا تزال تعاني من أضرار نفسية وصعوبة في النوم، إثر تعرضها لمقاطع فيديو تتعرض فيها لاعتداءات جسدية شديدة بشكل خاص.[3]. ومثل مورت، يجب عليها أيضًا أن تتعرض مرة أخرى لمقاطع الفيديو والآثار التي تركتها وراءها، في كل مرة تنشر تعليقًا على الشبكة الاجتماعية. ولا أحد يتركها تنسى.

توضح قصة أيوب ومورت وغيرهم الكثير القوة الهائلة التي تتمتع بها تقنية التزييف العميق على المرونة الوطنية للبلاد. في دولة ديمقراطية، يستطيع الصحفيون الاستقصائيون والمناهضون للمؤسسة كشف الحقائق المهمة لتوازن القوى الحكومية. الآن، اتضح أنه من السهل جدًا إسكاتهم بوسائل سهلة الاستخدام يمكن لأي طفل استخدامها بسهولة.

من المهم أن نفهم أننا لسنا كائنات عقلانية. كقردة متقدمة، ما زلنا نصدق بشكل حدسي ما تسمعه آذاننا وما تراه أعيننا، خاصة عندما يتم دمج الاثنين في مقطع فيديو.

ولعل الحقيقة الأكثر إحباطا هي أن التكنولوجيا الجديدة تدخلنا إلى عالم لا فائدة فيه من محاولة التمييز بيقين بين الحقيقة والباطل. عندما تم الكشف عن مقطع فيديو لجو دوريا - المرشح الرئيسي لمنصب حاكم ساو باولو - وهو يمارس الجنس مع خمس نساء، لم يكن عليه إلا أن يرفض بخفة حقيقة أنه كان مزيفًا. لم يعد الناخبون يعرفون ماذا يفكرون، لقد تجاهلوا المعلومات الجديدة - سواء كانت مزيفة أم لا - واختفى كل التأثير المتوقع للفيديو وكأنه لا شيء[4].

كما تفهم، لا يزال من الصعب أن نعرف على وجه اليقين كيف ستؤثر التكنولوجيا الجديدة على تصور الناس للعالم. هل يمكن للفيديو المصمم جيدًا أن يغير وجهة نظر معينة؟ أو ربما... لا؟ قد يكون التزييف العميق مقنعًا في نظر بعض الأشخاص، لكنه بالتأكيد لن يخترق درع تفكير الآخرين - أولئك الذين يتمكنون من تجاهل نقاط البيانات التي لا تدعم آرائهم.

وفي كلتا الحالتين، فمن الواضح أن هذا سلاح جديد في الحرب على الوعي الإنساني. وحتى لو لم نفهمه بشكل كامل بعد، أو لم ندرك حجم آثاره، فمن المناسب التعامل معه على هذا النحو: كسلاح بقدرات لم يتم فهمها بالكامل بعد. سلاح يمكن أن يلحق ضرراً مميتاً بالأفراد، وربما بالحكومات أيضاً. ولا عجب أن وكالات الاستخبارات الأمريكية صنفت التزييف العميق باعتباره أكبر تهديد استراتيجي للأمن القومي في عام 2019[5]. واعترف الاتحاد الأوروبي بدوره بالتزييف العميق باعتباره "تهديدًا فوريًا للديمقراطية".[6].

אז מה עושים؟

انخرط الدكتور ليران إنتافي في العقد الماضي في البحث عن مستقبل القتال والحرب والمعركة والعديد من الكلمات الأخرى التي تصف ساحة المعركة المستقبلية. الكشف الكامل: كان لي الشرف والسرور بالعمل معها في الماضي.

وفي التقرير الأخير لمعهد دراسات الأمن القومي، وصفت عنتابي دراسة أجرتها مع نعوم رحيم لفحص سبل الاستعداد للتزييف العميق القادم. ليس الهجوم الذي سيكون موجهًا ضد الصحفيين، ولكنه هجوم قد يؤدي بالفعل إلى تقويض المؤسسات الحكومية.

"لا نزال في فترة يمكننا فيها الدفاع عن أنفسنا، لكن إحدى الصعوبات هي غوص القادة في هذه الأمور". وأوضح عناتبي الحاجة إلى البحث. "اليوم، لا تزال الأنظمة الكلاسيكية للسياسة والقانون والعلاقات الدولية تعمل بمعدلات كانت مقبولة في القرن التاسع عشر. وتتطور التكنولوجيا بمعدل أسرع بكثير، وبالتالي فإن الفجوة بين التهديد والقدرة على التعامل معه آخذة في الاتساع. "

وحاول الدكتور أنتافي تقليص الفجوة بين التهديد والرد من خلال الاستعداد المسبق للوضع الجديد. ولهذا الغرض، استخدمت طريقة تُعرف باسم "لعب الأدوار"، حيث يلعب المشاركون شخصيات معينة وعليهم أن يقرروا في الوقت الفعلي كيف سيتصرفون في سيناريو معين. استدعت ثلاثين شخصًا من ذوي الخبرة الواسعة في مجالات مختلفة إلى قاعة واحدة، ووصفت لهم السيناريو الذي -

"في الساعات الأولى من الصباح، بدأ انتشار مقطع فيديو على شبكات التواصل الاجتماعي وعبر العديد من مجموعات الواتساب والتلغرام، نرى فيه اجتماعا صغيرا لقادة أحزاب اليمين السياسي في إسرائيل، ومن بينهم رئيس الوزراء السيد نفتالي بينيت. وفي الفيديو، ينادي أحد أعضاء الكنيست المعروفين من أحزاب اليمين الديني: "يجب إنهاء القضية الفلسطينية بشكل نهائي! سنرد على العنف بالعنف! لا يمكن أن يُملى علينا كيف نتصرف في عاصمتنا الأبدية، يجب أن نصعد مسلحين إلى الأقصى ونظهر لهم من هو صاحب السيادة. وفي الفيديو، يمكن رؤية جميع الحاضرين في المكان، بما في ذلك بينيت، وهم يتفاعلون مع الكلمات بتصفيق مدو، ويضيف بينيت: "هناك حد للتسوية".

قد تتفق أو لا توافق على ما قالته شركة Bennett & Co.، ولكن ما يهم هو أن الكلمات لم تقل أبدًا من قبل المشاركين فيها. لقد تم استخدام تزييف عميق هنا لإجبار الحكومة الإسرائيلية على الدخول في وضع جديد لم تكن مستعدة له وفاجأها تماما.

وكانت نتيجة تلك المفاجأة مثيرة بشكل خاص. وكانت حماس وحزب الله على استعداد لإطلاق الصواريخ على وسط إسرائيل إذا لم تعتذر الحكومة. ومن جانبها، نظمت عناصر اليمين المتطرف نفسها للصعود واقتحام الحرم القدسي بالقوة. كان الآلاف من المواطنين الإسرائيليين (ربما يمكنك تخمين أي قطاع) على استعداد للدخول في أعمال شغب عنيفة بالأسلحة النارية.

"الاكتشاف المثير للاهتمام في البحث، بالنسبة لي، هو أنه من السهل التلاعب بالأمة باستخدام التكنولوجيا العميقة بطرق تضر بالحياة اليومية للمواطنين". وأوضح العناتبي. على سبيل المثال، بطرق تجعل الناس الصغار يخرجون إلى الشوارع ويحرقون الإطارات ويغلقون الطرق الرئيسية ويدهسون رجال الشرطة.

وتم إعطاء المشاركين أدوار المستشارين الذين من المفترض أن يقدموا المشورة لرئيس الوزراء الحالي من أجل منع التصعيد أو الحد منه. وباختصار، فقد أنتجوا استراتيجيتين للتعامل مع الوضع في الوقت الحقيقي.

كانت الإستراتيجية الأولى هي "البدء السريع المبني على الأدلة". أو بكلمات أبسط: أوضح في جميع وسائل الإعلام أن رئيس الوزراء وأصدقائه في الحدث ينكرون ما قيل في الفيديو ويمكنهم تقديم ذريعة تثبت عدم تواجدهم في الحدث. ويجب أيضًا دعم هذه التصريحات بأدلة تكنولوجية تثبت أن الفيديو مزيف بالأساس.

أما الاستراتيجية الثانية، والتي لم يتمكن المشاركون من اتخاذ قرار نهائي بشأن التوصية بها، فهي استراتيجية "الضحك" على الموقف. كانت الفكرة هي إنشاء مقطع فيديو سريعًا لمكافحة التزييف العميق، يظهر فيه قادة المنظمات الإرهابية وهم يقومون بالهراء في الأماكن العامة. ربما ليست إباحية، ولكن أعتقد أنه يمكن بالتأكيد تضمين القبلات الفرنسية في مقاطع الفيديو هذه. كانت الفكرة بالطبع هي التوضيح للجمهور مدى سهولة إنشاء مقاطع فيديو مزيفة، من أجل إزالة الفيديو الأصلي. والمثير للدهشة أن جزءًا كبيرًا من المشاركين عارض هذا الاقتراح وجادل بأن الحكومة لا ينبغي لها "إضفاء الشرعية على استخدام المنتجات المزيفة".

ويجب الاعتراف بأن هذه الاستراتيجيات لا تبدو مقنعة بشكل خاص، حيث يعني ضمنا أن المشاركين فهموا أنفسهم أيضا. ومن أجل التعامل بفعالية مع مثل هذه الأحداث، علينا العودة بالزمن - أي إلى الحاضر - وإنشاء البنية التحتية القانونية والقانونية والتعليمية اللازمة اليوم.

والدكتور أنتافي يفهم هذا جيدًا.

"أحد أهم الاستنتاجات التي توصلت إليها الدراسة هو أن التأثير على الأمن القومي في الديمقراطيات ينبع من عدم السيطرة على وسائل التوزيع." هي اخبرتني. "حتى عندما يحدث موقف كهذا وندرك أنه مزيف للغاية، فإن قدرتنا على منع توزيع الفيديو محدودة للغاية، لأننا كدولة ديمقراطية ليس لدينا سيطرة على نقل المعلومات بين المواطنين. إن الجمع بين هذين العاملين - القدرة على الإنتاج والقدرة على التوزيع - هو ما يمنح Deep Fake القوة في عصرنا."

وتعتقد أنتافي أن الأنظمة الحالية يمكن أن تكون مستعدة بشكل أفضل للوضع الجديد، من بين أمور أخرى، من خلال الدراسات التطلعية مثل تلك التي أجرتها. لكن حتى هي ليست متفائلة بشأن المستقبل البعيد.

وقالت: "لقد لخص لي أحدهم الوضع في أصدق جملة سمعتها وأكثرها إحباطًا على الإطلاق". "لقد أخبرني أنه في المستقبل الذي أصفه، سيكون العيش في ظل نظام دكتاتوري أكثر أمانًا من العيش في نظام ديمقراطي. على الأقل هناك من فوق، الذي يزامن الكذبة وينظمها. إنه أفضل بكثير من الوضع الذي تعيش فيه مع العديد من الأشخاص من حولك الذين يتجادلون باستمرار حول ما هو صواب وما هو الخطأ.

أعتقد أنه عندما تكون هذه الظاهرة مبالغ فيها، فهي جملة لديها القدرة على أن تكون صحيحة. وفي عصر لا ترغب فيه الديمقراطية في فرض سيطرتها على قدرات التوزيع، فإن احتمالات إلحاق الضرر بالبلاد كبيرة. إذا ظهرت قائمة غير ديمقراطية، فمن الممكن أن تدمر الديمقراطية".

هذا مستقبل قاتم، وعنتابي يفهم ذلك جيدًا. حتى أنها، باعتبارها باحثة في مجال التكنولوجيا لسنوات عديدة، قد طورت بالفعل وجهة نظر مستنيرة ومتوازنة حول الآثار الضارة المحتملة للتكنولوجيا على الحقائق التي اعتبرناها حتى الآن أمرا مفروغا منه.

واختتمت كلامها بالقول: "نحن بحاجة إلى أن نكون ديمقراطية دفاعية، وإلا فإن التكنولوجيا في يوم من الأيام يمكن أن تسحق الديمقراطية".

### – رابط للدراسة

### – رابط إلى INSS، معهد دراسات الأمن القومي الذي ينشر دراسات جديدة ورائعة طوال الوقت.

### - يمكنك التعرف على الدكتور ليران أنتافي معلومات على موقع INNS، או على الملف الشخصي في الفيسبوك لها.

للتوضيح: معهد دراسات الأمن القومي لم يطلب مني مراجعة الدراسة بأي شكل من الأشكال، ولم أحصل على أي تعويض مقابل الكتابة. كانت الدكتورة أنتافي على استعداد لقضاء وقتها على الهاتف لتخبرني برأيها الشخصي حول الدراسة وآثارها الكاملة.


[1] https://www.npr.org/transcripts/929193643

[2] https://www.huffingtonpost.co.uk/entry/deepfake-porn_uk_5bf2c126e4b0f32bd58ba316

[3] https://www.technologyreview.com/2021/02/12/1018222/deepfake-revenge-porn-coming-ban/

[4] https://www.dailymail.co.uk/news/article-6311927/Married-Brazilian-politician-denies-hes-man-viral-orgy-video.html

[5] https://www.nextgov.com/emerging-tech/2019/01/ai-deepfakes-and-other-tech-threats-vex-intel-leaders/154498/

[6] https://www.europarl.europa.eu/doceo/document/A-9-2021-0127_EN.html