أسراب من الشخصيات الافتراضية المدعومة بالذكاء الاصطناعي: التهديد الصامت للديمقراطية الذي يتحدث إلينا بالفعل عبر الإنترنت

تحذر ورقة بحثية في مجلة ساينس من أن الشبكات المنسقة للهويات الاصطناعية يمكن أن تندمج في المجتمعات، وتبني الثقة، وتؤثر على الخطاب السياسي - دون أن تبدو مثل الروبوتات.

تُستخدم البرامج الآلية في الانتخابات. صورة توضيحية: depositphotos.com
تشارك البرامج الآلية في الانتخابات. الرسم التوضيحي: موقع Depositphotos.com

يحذر الباحثون من شكل جديد من أشكال التلاعب عبر الإنترنت: ليس "برامج الروبوت" التي تنشر الرسائل المزعجة دفعة واحدة، بل أسراب الشخصيات المدعومة بالذكاء الاصطناعي – شبكات من الحسابات التي تبدو وتتحدث مثل البشر العاديين، وتعمل بمرور الوقت داخل مجتمعات حقيقية، ومن خلال التنسيق المنهجي تكون قادرة على تحويل المحادثات السياسية والتأثير على ما يراه الناس ويشاركونه ويؤمنون به.

بحسب باحثين في جامعة كولومبيا البريطانية، لا تحتاج الأنظمة الجديدة إلى التواجد في تجمعات أو الإدلاء بأصواتها لـ"تحريك" الديمقراطية. فهي تعمل حيث يتشكل الرأي العام: في منصات التواصل الاجتماعي، والمجموعات، والتعليقات، والمشاركات. ويكمن القلق الرئيسي في أن قدرة جهة واحدة على تفعيل مجموعة كاملة من الهويات الاصطناعية - المنسقة فيما بينها - تخلق قوة تأثير لم تكن متاحة من قبل.

ما الذي تغير مقارنةً بشبكات الروبوتات "الكلاسيكية"؟

تصف مقالة نُشرت في مجلة ساينس، ضمن منتدى للسياسات، كيف يمكن لهذه الجماعات أن "تندمج" في المجتمعات القائمة، وتكتسب المصداقية تدريجياً، ثم تدفع الخطاب في اتجاهات محددة - بوتيرة آلية. ولا يقتصر الابتكار على القدرة على كتابة نصوص جيدة فحسب، بل العمل الجماعي المستمر:

  • بدلاً من نشر الرسالة نفسها آلاف المرات، تنخرط الحسابات في محادثة متنوعة، بأساليب مختلفة.
  • يتعلمون في الوقت الفعلي ما الذي "يلتقط" وما الذي يتم حظره.
  • إنهم يحافظون على خط رسائل متسق حتى في حالة سقوط الحسابات الفردية وإعادة إنشائها.

وهذا يخلق شعوراً بأن "الجميع يتحدث عن ذلك"، حتى عندما يتم بناء الإجماع بشكل مصطنع.

كيف يعمل ذلك من الناحية التقنية، ولماذا يصعب تحديده

ويشير المؤلفون إلى أن الجمع بين نماذج اللغة المتقدمة وأنظمة الوكلاء المتعددين يسمح لمشغل واحد بإدارة شبكة من "الأصوات" التي تبدو محلية وأصيلة: يمكن لكل شخصية أن تتكيف مع معايير المجتمع، وتستجيب بسرعة للحجج المضادة، وتتحدث بأسلوب مختلف قليلاً عن الآخرين.

ومن القدرات الأخرى التي تُثير قلق الباحثين إجراء "اختبار A/B" على نطاق واسع: إذ يُمكن للمجموعات تجربة العديد من نسخ الرسالة نفسها بسرعة، وتحديد الصياغات الأكثر فعالية في تغيير المواقف، ثم تضخيمها. وعندما يتم هذا النشاط بمهارة وتنسيق، يبدو من الخارج وكأنه نقاش طبيعي.

وهنا تبرز النقطة الأساسية مرة أخرى: أسراب الشخصيات المدعومة بالذكاء الاصطناعي ليس عليهم أن يتصرفوا مثل الروبوتات لتحقيق تأثير مماثل - بل وأقوى.

علامات تحذيرية ظاهرة بالفعل على الأرض

على الرغم من أن انتشار الأخبار المزيفة على نطاق واسع لم يصبح ظاهرة "مؤسسية" في كل مكان بعد، يقول الباحثون إن هناك بالفعل مؤشرات لما هو قادم. ويشير الباحث في علوم الحاسوب، الدكتور كيفن ليتون براون، إلى مقاطع الفيديو المزيفة بتقنية التزييف العميق وظهور مصادر الأخبار المصطنعة، والتي يقول إنها أثرت على المناظرات الانتخابية في دول من بينها الولايات المتحدة وتايوان وإندونيسيا والهند.

بالإضافة إلى ذلك، ووفقًا لتقارير هيئات الرصد، تعمل شبكات محتوى موالية للكرملين على الإنترنت، حيث تغمر الشبكة بمواد تهدف إلى "تلويث" قواعد البيانات، وذلك جزئيًا للتأثير على طريقة تعلم أنظمة الذكاء الاصطناعي في المستقبل. ويكمن القلق في أن هذا التلاعب لا يغير الخطاب الحالي فحسب، بل يشكل أيضًا "المادة الخام" التي ستعتمد عليها أنظمة الذكاء الاصطناعي غدًا.

ماذا يعني ذلك بالنسبة للديمقراطية والثقة في وسائل التواصل الاجتماعي؟

يُقدّر الباحثون أن مثل هذه التجمعات قد تُغيّر موازين القوى في الأنظمة الديمقراطية، ليس بالضرورة من خلال التأثير المباشر على كل فرد، بل عبر تأثير تراكمي على ما يُعتبر "طبيعياً" أو "مقبولاً" أو "عاجلاً". ويقول الباحثون إن أحد السيناريوهات المحتملة هو تآكل الثقة في الأصوات غير المألوفة على وسائل التواصل الاجتماعي. وقد يُعزز هذا الوضع نفوذ الشخصيات المعروفة والمشاهير، مما يُصعّب على الرسائل "النابعة من القاعدة الشعبية" الوصول إلى الوعي العام.

ويضيف الباحثون أن الانتخابات المقبلة في جميع أنحاء العالم قد تكون بمثابة الاختبار العملي الأول لهذه القدرة - والسؤال الملح هو ما إذا كان سيتم تحديد مثل هذه الحملات المنسقة في الوقت المناسب، قبل أن تحرف الخطاب العام بطريقة يصعب تصحيحها بأثر رجعي.

شرح الصورة المترجم (من المقال)

يحذر الباحثون من أن أسراباً منسقة من الشخصيات التي يتحكم بها الذكاء الاصطناعي قد تعيد تشكيل الخطاب السياسي على الإنترنت دون أن تبدو كبرامج الروبوت "التقليدية". (مصدر الصورة: Shutterstock)

مصدر علمي

"كيف يمكن لأسراب الذكاء الاصطناعي الخبيثة أن تهدد الديمقراطية"، منتدى السياسات، العلوم، 22-1-2026.
DOI: 10.1126/science.adz1697

المزيد عن الموضوع على موقع العلوم:

ترك الرد

لن يتم نشر البريد الإلكتروني. الحقول الإلزامية مشار إليها *

يستخدم هذا الموقع Akismet لتصفية التعليقات غير المرغوب فيها. مزيد من التفاصيل حول كيفية معالجة المعلومات الواردة في ردك.