يجمع مشروع OpenAI الجديد، المسمى "Agent"، بين التحكم الآلي في المتصفح وقدرات البحث العلمي المتعمقة، ويثير مخاوف جدية بشأن الاستخدام الضار. لاختبار مدى خطورته، وظفت الشركة علماء وطلبت منهم محاولة صنع أسلحة بيولوجية قاتلة باستخدام الأداة الجديدة.
في الأشهر الأخيرة، شهدت شركة OpenAI عمليةً استثنائية: فقد وظّفت الشركة علماءً من مختلف مناحي الحياة، وطلبت منهم تدمير البشرية. أو، ببساطة، إنتاج "معلومات بيولوجية ضارة". وتحديدًا، طلبت منهم استخدام أحدث تقنيات الذكاء الاصطناعي لديها - والذي يُطرح في السوق حاليًا تحت اسم Agent - لمعرفة كيفية زراعة ونشر بكتيريا الجمرة الخبيثة القاتلة. وإذا لم يتمكنوا من ذلك، فعلى الأقل سم "أفرين"، الذي يكفي غرام واحد منه لقتل 5,000 شخص إذا استُنشِق.
لفهم سبب طلب OpenAI من علمائها القيام بذلك، وقبل أن نكتشف مدى نجاحهم، علينا أولًا شرح أحد أكبر المخاوف المتعلقة بالذكاء الاصطناعي. ثم سنشرح أيضًا القدرات الجديدة لهذا "الوكيل" الجديد الذي أطلقته الشركة مؤخرًا، ولماذا تتلاءم تمامًا مع هذه المخاوف.
الخوف الكبير
يقول البعض إن نهاية العالم ستأتي بالنار، ويقول آخرون بالجليد. هكذا كتب الشاعر روبرت فروست عام ١٩٢٠ في قصيدته الشهيرة، قبل أن يقرر أن النار والجليد قد يكونان كافيين لتدمير العالم.
كم كان بريئا.
عاش فروست في عصرٍ اتسم بالحرب والمصاعب، ولكنه عاش أيضًا في عصرٍ كانت فيه الأسلحة بدائية. لو كان فروست حيًا اليوم، لأضاف القنبلة النووية إلى قائمة المخاطر التي حددها لنهاية العالم. ولو استشار أجهزة الأمن الأمريكية، لوجدت "الأسلحة البيولوجية" على الأرجح مكانها الصحيح في القصيدة.
من أكبر مخاوف أجهزة الأمن الأمريكية - وبشكل عام - أن يُحاول شخصٌ مجنونٌ وحيدٌ تنفيذَ هجومٍ على نطاقٍ غير مسبوق. على سبيل المثال، يُسبب فيروس الإيبولا مرضًا خطيرًا، حيثُ يُقارب معدل الوفيات فيه الخمسين بالمائة. ولحسن الحظ، ينتقل الفيروس من شخصٍ لآخر بشكلٍ شبه حصريٍّ عبر سوائل الجسم - الدم والعرق والدموع - ولا ينتشر عبر الهواء.
ولكن ماذا لو قام أحد العلماء المجانين بإعادة هندسته بحيث يتمكن من المرور عن طريق التنفس؟
في الواقع، لماذا نتوقف عند هذا الحد؟ يمكن للمرء أن يتخيل سيناريو يقرر فيه "ذئب منفرد" - شخص يريد تنفيذ هجوم إرهابي بمفرده ودون مشاركة الآخرين - هندسة فيروس مثالي لتدمير البشرية. يأخذ فيروس الإنفلونزا ويهجنه مع فيروس الإيبولا، ويضيف إليه خصائص جديدة تساعده على التهرب من جهاز المناعة البشري، وكحلوى - يُدمج فيه آلية مصممة لمساعدته على التحور بسرعة وتحسين نفسه باستمرار.
ليست هذه أفكارًا غريبة أو جديدة. فكما ذكرتُ سابقًا، تسعى أنظمة الأمن منذ سنوات طويلة جاهدةً لمنع وقوع مثل هذا السيناريو. لحسن الحظ، من السهل تخيّل مثل هذا الهجوم، لكن تنفيذه صعبٌ للغاية. إنه عملٌ مختبريٌّ شاقٌّ وصعب، يتطلب العديد من التجارب على حيوانات المختبر، وربما لاحقًا على بشرٍ أبرياء أيضًا. يتطلب الأمر مختبرًا كاملًا من خبراء في علم الفيروسات (نظرية الفيروسات)، وعلم الأوبئة (نظرية الأوبئة)، والعديد من التخصصات الأخرى من مختلف المجالات. لا يوجد شخصٌ واحدٌ خبيرٌ في جميع هذه المجالات.
ولكن ماذا عن الذكاء الاصطناعي؟
نعلم بالفعل أن دردشة GPT تُسبب ظاهرة تُسمى "تراجع المهارات". أي أنها تُقلل بشكل كبير من مستوى المهارة المطلوبة من المستخدم لتحقيق نتائج معقولة. يُمكنني استخدام الذكاء الاصطناعي لكتابة مقالات معقولة إلى حد ما، والرسم بمستوى متوسط إلى عالٍ، وغناء أغاني بمستوى يُقارب مستوى الإنسان، وما إلى ذلك.
لماذا إذن لا يحاول البشر استخدام الذكاء الاصطناعي للتخطيط وتنفيذ الهجوم البيولوجي الرئيسي التالي؟
يزداد القلق أكثر عندما ندرك أن الذكاء الاصطناعي المتقدم بما يكفي يمكنه أيضًا اختصار وتبسيط الأبحاث المختبرية. فبدلًا من تجربة الفيروس على حيوانات المختبر، يمكن اختباره في محاكاة حاسوبية، على سبيل المثال. وبدلاً من إنشاء مختبر متطور، يمكن للذكاء الاصطناعي توفير بدائل رخيصة لمعدات المختبرات الأساسية. بل قد يساعد إرهابينا المحتمل على طلب تسلسلات الحمض النووي التي تبدو بريئة من الإنترنت، والتي عند تجميعها، ستُنتج الفيروس القاتل النهائي.
في الأشهر الأخيرة، بدأت شركة OpenAI تخشى من امتلاكها لهذا الذكاء الاصطناعي. وإذا وصل إلى عامة الناس، فسيحاول آخرون تدمير العالم به.
وأطلقوا عليها لقب "العميلة".
وكيل OpenAI
نعلم كل هذا لأن OpenAI أطلقت "Agent" الأسبوع الماضي. نظرة سريعة على ورقة بياناتها - الوثيقة التي تصف إمكانياتها - تكشف عن كفاءتها العالية. في الواقع، ليس من المبالغة القول إنها أداة تتفوق على أي أداة رأيناها من قبل. والسبب هو أن Agent عبارة عن دمج بين أداتين موجودتين: إمكانيات البحث المتقدمة لـ Deep Research، و"Operator".
الأداة الأولى - البحث العميق - معروفة لنا منذ أوائل عام 2025. وهي قادرة على إجراء مراجعات متقدمة للأدبيات، ومراجعة العديد من الدراسات والمقالات، وتوليد رؤى جديدة. على سبيل المثال، يمكنها - نظريًا فقط - مراجعة عشرات الدراسات المُدخلة إليها، وتطوير فهم جديد لأجزاء الحمض النووي اللازمة لزيادة فتك فيروس معين. مع أن أحدًا لم يحاول بعدُ جعلها تفعل ذلك، إلا أن القدرة النظرية موجودة بالتأكيد على حد علمنا.
الأداة الثانية - Operator - أقل شهرة. أُطلقت قبل بضعة أشهر، لكنها كانت بطيئة وغير عملية لدرجة أن أحدًا لم يستخدمها تقريبًا. كان من المفترض أن تسمح لـ Chat-GPT بالتحكم المباشر في المتصفح. بفضل هذه الأداة، كان من المفترض أن يتمكن Chat-GPT من استخدام محركات ذكاء اصطناعي أخرى، على سبيل المثال. إذا لم يكن يعرف الإجابة، فيمكنه اللجوء إلى Gemini وطلب المساعدة. أو يمكنه إنتاج صور باستخدام Midjourney. كان من المفترض أن يتمكن من فتح حساب جديد على Twitter ونشر تغريدات عليه كل ساعة، أو طلب منتجات من Amazon، أو مراسلة الأشخاص على Facebook وWhatsApp. كل ما يفعله الناس على الإنترنت - كان من المفترض أن يتمكن من القيام به بنفسه.
على الأقل كان هذا هو المتوقع من Operator، ولكن كما كتبتُ، كان الأمر سيئًا للغاية. بدا الأمر وكأنه مشروع جانبي لشركة OpenAI تم التخلي عنه في منتصفه. كان بطيئًا، ومنطقه منخفض المستوى، ويميل إلى التعطل كل دقيقة أو دقيقتين.
لكن ذلك كان في الماضي، قبل ثلاثة أشهر. واليوم؟ اليوم لدينا العميل.
باختصار، يعمل الوكيل. يمكنه القيام بكل ما وُعدنا به كمشغل. تُملي عليه ما يجب فعله عبر الإنترنت، ويفعله.
وهذا، بالطبع، يفتح الباب أمام سيناريو الأسلحة البيولوجية المرعب. لأن OpenAI أدركت جيدًا أن استخدام شخص ما لبرنامجٍ ما قد يتجاوز بعض الدفاعات الموجودة حاليًا ضد "الذئاب المنفردة". بإمكانه توجيه البرنامج للعثور على دراسات علمية غالبًا ما تكون مخفية خلف جدار حماية، وقراءة محتوياتها عشوائيًا، لفهم كيفية إنتاج فيروسات خطيرة. بإمكانه توجيه البرنامج لطلب شظايا الحمض النووي عبر الإنترنت، بنفسه ودون تدخل بشري. حتى أن البرنامج قد يجد معدات مختبرية مستعملة على موقع eBay أو الشبكة المظلمة، ويطلبها عبر سلسلة من الموردين الفرعيين لتجنب إثارة الشكوك.
من الجانب المشرق، تُفضّل OpenAI عدم مساعدة الإرهابيين على تدمير البشرية. وللحد من خطر وقوع مثل هذا السيناريو، درّبت العميل على توخي الحذر الشديد تجاه الطلبات التي قد تؤدي إلى صنع أسلحة بيولوجية.
أوضح المطورون على موقع الشركة الإلكتروني: "قررنا اعتبار برنامج GPT Chat Agent ذا قدرات بيولوجية وكيميائية عالية...". وأضافوا: "مع أننا لا نملك دليلاً قاطعاً على أن هذا النموذج قد يُساعد شخصاً غير مُلِمٍّ بشكل كبير على خلق تهديد بيولوجي خطير... فإننا نُعطي الأولوية للحذر الوقائي، ونُطبّق القيود اللازمة الآن".
ما هي تلك القيود؟ إنها لا تكشف عنها بدقة، لأسباب واضحة. لا نرغب في منح الذئاب المنفردة لمحة عن المنطق الداخلي للتعريفات التي يواجهونها. ولكن من خلال قراءة بيان OpenAI، يمكننا أن نفهم أن العميل مُدرّب على سيناريوهات تهديد مختلفة، مما علّمه رفض الطلبات المشبوهة ببراعة، وأنه يختبر "منطقه" الداخلي الخاص لضمان عدم محاولته التحايل على قيوده.
هل ستكون هذه القيود كافية؟
هذا ما كان باحثو OpenAI يحاولون اكتشافه عندما قاموا بتعيين كل هؤلاء العلماء وطلبوا منهم تطوير السلاح البيولوجي التالي.
التحدي: تدمير العالم نظريا
في الأشهر الأخيرة، وظّفت شركة OpenAI "متعاقدين" ذوي خلفيات في جميع مجالات التكنولوجيا والعلوم باستثناء علم الأحياء. بعد تعريف موجز بالعامل، طُلب من المتعاقدين استخدامه للإجابة على استبيان يتضمن 15 سؤالاً، جميعها تتعلق بالنجاح في إنتاج سم "أبرين" أو بكتيريا الجمرة الخبيثة. لو تمكن المشاركون من استخدام العامل للإجابة على الأسئلة بشكل صحيح، لاكتسبوا الكثير من المعرفة اللازمة لتطوير هذه الأسلحة البيولوجية في المختبر.
ما هي نتائج التجربة؟ هل هي مُشجِّعة أم مُقلقة لمستقبل البشرية؟
حسنًا، تعتمد الإجابة على كيفية تفسيرها.
فيما يتعلق بتحضير أفرين - وهو سم قاتل - كان متوسط درجات المتقدمين للاختبار الذين استخدموا المادة 50.5% فقط. لو كان هذا امتحانًا نهائيًا في معهد التخنيون، لرسبو فيه. أما متوسط درجات تحضير الجمرة الخبيثة فكان 36.9%. مرة أخرى، فشل ذريع.
لماذا أقول إن النتائج قابلة للتفسير؟ أولًا، لأنها شبه متطابقة مع النتائج التي حصل عليها المشاركون الذين استخدموا أدوات ويب أخرى لإيجاد إجابات للأسئلة نفسها. ووفقًا لتفسيري الدقيق، يعني هذا أن "الوكيل" نفسه يحل محل جميع أدوات الويب الأخرى كوسيلة لمساعدة علماء الأحياء الهواة في إيجاد حل لتدمير العالم.
ثانيًا، ربما يكون Agent في مأمن من محاولات الاستخدام الخبيث حاليًا. لكن OpenAI ليست وحدها في هذا. عاجلًا أم آجلًا - وربما عاجلًا - سيظهر ذكاء اصطناعي بقدرات Agent، ولكن مع الحد الأدنى من الرقابة. إذا لم يُخيفك هذا، فأريد بعضًا من إلهامك أيضًا.
وربما يأتي الخطر من اتجاه مختلف تماما.
المسار الذي لم يتم اتخاذه
بدأنا بروبرت فروست، ونختتم بقصيدة أخرى للشاعر نفسه بعنوان "الطريق الذي لم أختره". يروي الكاتب الأمريكي عن مسارين كان يتردد بينهما. يقول: كما ترجمها المتطوعون في منتدى Ancient Mint -
"سأحكي هذه القصة مع التنهدات
ذات يوم، بعد مرور معظم سنوات حياتي:
لقد انقسم طريقي في غابة كثيفة، وأنا -
اخترت الذي كان أقل سفرًا،
"وهذا هو الشيء الذي غيّر حياتي."
يتضح من قراءة بطاقة نظام العميل أن OpenAI تُركز بشكل أساسي على الخطر الحقيقي والكبير المتمثل في الهجوم البيولوجي. كما تدرس مخاوف أخرى، مثل كيفية تأثير مواقع الويب على العميل ودفعه إلى التصرف بطرق ضارة، إلا أن الدفاع ضد الأسلحة البيولوجية يحتل مركز الصدارة في التقرير.
ولكنها ليست الطريقة الوحيدة التي قد تسبب ضرراً كبيراً للبشرية.
لا أعرف بعدُ ما هو "المسار الأقل سلوكًا"، وسيظل يسمح للوكيل بإيذاء البشر. يُحسب لشركة OpenAI أنها تحاول سد الثغرات واحدة تلو الأخرى قبل أن تُفتح. فهي تطرح سيناريوهات تهديد متنوعة، وتحاول التعامل معها مسبقًا. في الوقت نفسه، من الواضح أنها عاجزة عن القيام بذلك على أكمل وجه. لا أحد يستطيع إيقاف جميع الأضرار المحتملة. من المؤكد أن هناك مستخدمين في الأشهر المقبلة سيتمكنون من اتخاذ "المسار الآخر" واستخدام الوكيل كأداة هجوم، أو كأداة لجمع معلومات خطيرة، أو لمراقبة الآخرين وتضليلهم.
إذا كان هذا يُخيفك، فهذا رائع. من المهم أن تكون على دراية بمخاوف ومخاطر أي تقنية جديدة. في الوقت نفسه، أحثك على التفكير في العواقب الإيجابية، لأنها ستكون كثيرة.
في العام المقبل، سنرى الناس يستخدمون Agent لجمع معلومات طبية دقيقة حول مشاكلهم الصحية. وسنرى رواد الأعمال يستخدمونه لبدء وإدارة مشاريع كانت تتطلب في السابق اهتمامًا كاملاً من عشرات الموظفين. سنجد أنه يمنح كلًا منا القدرة على أتمتة العمليات الإلكترونية بسهولة وبساطة، بالإضافة إلى عمليات البحث وجمع المعلومات، ونأمل أن يكون ذلك وسيلةً لتطوير العلوم والتكنولوجيا والإنسانية.
ونقطة أخيرة جديرة بالتأمل: إن العميل الآلي ليس سوى حلقة أخرى في سلسلة الذكاء الاصطناعي على مدار السنوات الثلاث الماضية. إنه يُظهر لنا أن التقدم لم يتوقف، وليس هناك ما يشير إلى أننا نتجه نحو التوقف. في ما يُعرف بـ"الاختبار النهائي للبشرية"، حصل على درجة 41 من XNUMX. ألا يبدو هذا الرقم مرتفعًا؟ صحيح، ولكنه الذكاء الاصطناعي الأكثر تطورًا حتى الآن. وصلت إلى درجة 26 فقطوبعبارة أخرى، يمثل العميل خطوة أخرى إلى الأمام على طريق إنشاء الذكاء الاصطناعي الذي يمكنه العمل كعالم بشري وباحث ومهندس، ونأمل أن يحل جميع مشاكل البشرية.
دعونا نأمل فقط أن لا يستخدمه أحد لتخليص البشرية من نفسها.