بإمكان وكلاء الذكاء الاصطناعي تنسيق حملات الدعاية بشكل مستقل دون توجيه بشري

يقول الباحث الرئيسي: "بإمكان وكلاء الذكاء الاصطناعي المنسقين خلق مظهر الإجماع، والتأثير على ديناميكيات الاتجاهات، وتسريع انتشار الرسائل. في السياقات الديمقراطية، وخاصة في أوقات الانتخابات أو الأزمات، قد تشوه هذه القدرات الخطاب العام وتقوض نزاهة المعلومات، إذا تُركت دون رقابة."

معلومات مضللة. صورة توضيحية: depositphotos.com
التضليل. الرسم التوضيحي: موقع Depositphotos.com

تخيل أن أسبوعين فقط يفصلان عن انتخابات حاسمة في ولاية متأرجحة بالولايات المتحدة. مبادرة تشريعية مثيرة للجدل مطروحة على جدول الأعمال. فجأة، تغمر موجة من المنشورات مواقع التواصل الاجتماعي مثل تويتر وريديت وفيسبوك، جميعها تروج لنفس الرواية، وتردد صدى بعضها البعض، وتخلق مظهر حركة شعبية واسعة. إلا أن كل ذلك ليس حقيقياً.

في الخفاء، تقوم مجموعة صغيرة من وكلاء الذكاء الاصطناعي بتنظيم وتنسيق الرسائل ونشر شعور مصطنع بالإجماع على الشبكات الاجتماعية، دون أن يكون أي إنسان جزءًا من هذه العملية.

إن التداعيات مُقلقة. فبإمكان هذه الشبكات، المدعومة بالذكاء الاصطناعي، أن تُغرق وسائل التواصل الاجتماعي بدعاية مُنسقة قبل أن يُدرك أحد ما يحدث. وقد تُحوّل الآراء الهامشية إلى آراء سائدة، وتُوهم بوجود إجماع عام حول روايات زائفة، وتنشر معلومات مُضللة بسرعة ونطاق لا يُمكن لأي فريق بشري مُجاراتهما. وقد يتفاقم الاستقطاب السياسي الحاد أصلاً. كما أن ثقة الناس في المعلومات التي يُصادفونها على منصات مثل X وفيسبوك وريديت، والتي تتآكل بالفعل، قد تتراجع أكثر.

هذا السيناريو المقلق هو الاستنتاج الرئيسي لورقة بحثية جديدة قُبلت للنشر. على-مؤتمر الويب 2026 ، أحد المؤتمرات الأكاديمية الرئيسية لأبحاث الإنترنت.


ليس تهديدًا مستقبليًا، بل هو تهديد قائم بالفعل والآن

قال لوكا لوتشيري، كبير العلماء في معهد علوم المعلومات (ISI) وأستاذ مساعد باحث في قسم توماس لورد لعلوم الحاسوب في كلية فيتربي للهندسة بجامعة جنوب كاليفورنيا وكلية الحوسبة المتقدمة: "تُظهر دراستنا أن هذا ليس تهديدًا مستقبليًا، بل أمرٌ ممكنٌ تقنيًا بالفعل. حتى أنظمة الذكاء الاصطناعي البسيطة قادرة على التنسيق الذاتي، وتعزيز بعضها البعض، ونشر روايات مشتركة عبر الإنترنت دون سيطرة بشرية. وهذا يعني أن حملات التضليل الإعلامي قد تصبح قريبًا مؤتمتة بالكامل، وأسرع، وأصعب بكثير في الكشف عنها."

وأضافت جيني يي، المؤلفة الرئيسية للورقة البحثية وطالبة الدكتوراه في علوم الحاسوب: "بإمكان وكلاء الذكاء الاصطناعي المنسقين خلق مظهر الإجماع، والتأثير على ديناميكيات الاتجاهات، وتسريع انتشار الرسائل. وفي السياقات الديمقراطية، وخاصة في أوقات الانتخابات أو الأزمات، قد تشوه هذه القدرات الخطاب العام وتقوض نزاهة المعلومات، إذا لم يتم كبحها".

روبوتات مطورة

تعتمد حملات البوت التقليدية على نصوص جامدة: إعادة نشر هذا الحساب باستمرار، والتعليق باستخدام هذا الوسم، ونشر الرسالة المكتوبة مسبقًا. المحتوى متكرر والأنماط متوقعة، لذا يسهل كشفها.

يعمل النموذج الجديد، المدعوم بالذكاء الاصطناعي، بطريقة مختلفة. إذ تقوم حكومة معادية، أو مستشار سياسي، أو جهة خبيثة بتحديد هدف، ثم تُنشئ شبكة من عملاء الذكاء الاصطناعي كفريق واحد. ومن ثم، يتولى هؤلاء العملاء زمام الأمور: يكتبون المنشورات بأنفسهم، ويتعلمون ما يُجدي نفعًا، وينسخون الأساليب الناجحة لزملائهم، وينشرون محتوى بعضهم البعض. ولأن كل منشور يختلف قليلًا عن الآخر، ولأن التنسيق خفي، تبدو هذه المحادثات والنقاشات حقيقية.

قال لوتشيري: "لا تملك الروبوتات القديمة سوى القدرة على تضخيم المحتوى بطريقة برمجية محددة مسبقًا من قبل المشغلين البشريين. أما الوكلاء التوليديون فهم قادرون بالفعل على تنظيم حملات المؤثرين بشكل آلي بالكامل، وإنشاء محتوى موثوق به يمكن أن يلقى صدى لدى فئات سكانية محددة."

بمعنى آخر، يمكن لآلة التضليل أن تعمل بالفعل بشكل شبه مستقل، مع القليل جداً من التوجيه البشري.

الدراسة

إلى جانب لوسيري فيا، الذي أشرف عليه هو وإميليو فيرارا من معهد المعلومات العلمية، يشمل مؤلفو الورقة أيضًا مهدي سعدي، وهو طالب دكتوراه أشرف عليه لوسيري؛ وفيرارا، رئيس فريق بحثي في ​​معهد المعلومات العلمية وأستاذ علوم الكمبيوتر في كلية فيتربي بجامعة جنوب كاليفورنيا وأستاذ الاتصالات في كلية أننبرغ بجامعة جنوب كاليفورنيا؛ وجيان ماركو أورلاندو وفينشنزو موسكاتو من جامعة نابولي فيدريكو الثاني؛ وفاليريو لا جات من جامعة نورث وسترن.

باستخدام مزيج من علم الشبكات ونماذج اللغة الكبيرة، وهي نفس التقنية الأساسية التي تدعم أنظمة مثل ChatGPT، قام الباحثون بإنشاء صور رمزية اصطناعية لوكلاء الروبوت، وتتبعوا منشوراتهم وتفاعلاتهم، وقاموا بمحاكاة الشكل الذي قد تبدو عليه شبكة اجتماعية منسقة مدعومة بالذكاء الاصطناعي.

قام الفريق بإنشاء بيئة محاكاة لوسائل التواصل الاجتماعي، استنادًا إلى نموذج X، باستخدام 50 وكيل ذكاء اصطناعي: 10 منهم مصنفون كمؤثرين و40 كمستخدمين عاديين. وتم توسيع التجربة لاحقًا لتشمل 500 وكيل، مع نتائج مماثلة. أُسندت للوكلاء مهمة واحدة: الترويج لمرشح وهمي ونشر وسم الحملة. اختبر الباحثون ثلاث حالات: روبوتات تعرف هدف الحملة فقط؛ روبوتات تعرف أيضًا أعضاء فريقها؛ وروبوتات تعقد اجتماعات استراتيجية دورية وتصوت على خطة عمل مشتركة.

كانت النتيجة الأبرز هي أن مجرد معرفة الروبوتات بزملائها في الفريق خلق تنسيقًا قويًا يكاد يضاهي التنسيق الذي يحدث عندما يضعون استراتيجيات مشتركة. فقد عززوا منشورات بعضهم البعض، وتقاربوا على نفس الرسائل الرئيسية، وأعادوا استخدام المحتوى الناجح.

كتب أحد عملاء الذكاء الاصطناعي:
أريد إعادة نشر هذا المحتوى لأنه حظي بالفعل بتفاعل من العديد من أعضاء الفريق. إعادة نشره يمكن أن تساعد في زيادة انتشاره والوصول إلى جمهور أوسع.

تهديدات للديمقراطية

يحرص لوتشيري على التنويه بأن الدراسة كانت مجرد محاكاة. ومع ذلك، فهو قلق بشأن ما يمكن استنتاجه من النتائج.

وقال لوتشيري: "إن أسوأ سيناريو خلال الأحداث السياسية هو أن مثل هذه الهجمات العدائية ستؤدي إلى التلاعب بالآراء وتغيير المعتقدات، مما يؤدي إلى زرع المزيد من الانقسام وتآكل الثقة في مؤسساتنا".

وقال إن التهديد لا يقتصر على الانتخابات، بل يشمل أيضاً الصحة العامة والهجرة والسياسة الاقتصادية.

يقول الباحثون إن المنصات تستطيع حماية نفسها بالتركيز بشكل أقل على محتوى كل منشور على حدة، وأكثر على كيفية تفاعل الحسابات معًا: هل تنشر المحتوى نفسه، أم تعزز بعضها بعضًا بسرعة، أم تروج لروايات متشابهة تقريبًا من حسابات لا يبدو أن بينها صلة واضحة؟ ويضيفون أن هذه المؤشرات يمكن رصدها حتى عندما يبدو المحتوى نفسه طبيعيًا وعفويًا.

يبقى مدى نجاح هذه المنصات موضع تساؤل. ويشير لوسيري إلى أن أنظمة الكشف المتقدمة عن البرامج الآلية قد تقلل من عدد المستخدمين النشطين، وهو ما قد يشكل حافزًا سلبيًا للشركات التي يعتمد نموذج أعمالها على إبقاء المستخدمين على صفحاتها لأطول فترة ممكنة.

بالنسبة للمقال العلمي:
جيان ماركو أورلاندو وآخرون، السلوكيات المنسقة الناشئة لدى وكلاء إدارة التعلم الشبكيين: نمذجة الديناميكيات الاستراتيجية لعمليات المعلومات، arXiv (2025).
DOI: 10.48550/arxiv.2510.25003

المزيد عن الموضوع على موقع العلوم:

ترك الرد

لن يتم نشر البريد الإلكتروني. الحقول الإلزامية مشار إليها *

يستخدم هذا الموقع Akismet لتصفية التعليقات غير المرغوب فيها. مزيد من التفاصيل حول كيفية معالجة المعلومات الواردة في ردك.