تغطية شاملة

الروبوت الذي (لم) يعتقد أنه قادر على ذلك: على الروبوتات المستقلة والنجاحات غير المتوقعة

أحاول الانخراط في هذه المدونة حول مواضيع ذات مستوى عالمي: علاجات السرطان، والذكاء الاصطناعي الذي يسيطر على العالم، ومستقبل العمل، وما إلى ذلك. لكن بين الحين والآخر يلفت انتباهي قصة خاصة جدًا لدرجة أنني لا أستطيع إلا أن أتوقف عن كل شيء وأكتب عنها. هذه هي قصة الروبوت الذي (لم) يعتقد أنه قادر على ذلك.

طائرة بدون طيار من نوع الظل. مصدر الصورة: وزارة الدفاع الأمريكية.
طائرة بدون طيار من نوع الظل. مصدر الصورة: وزارة الدفاع الأمريكية.

تبدأ قصتنا في نهاية يناير 2017، عندما يتم إطلاق مركبة جوية بدون طيار (UAV) من ولاية أريزونا في الولايات المتحدة في مهمة تدريبية بسيطة. اسم الروبوت ؟ الظل (الظل) RQ-7Bv22. سوف نسميه تسيلي للاختصار. وتستخدم الروبوتات من نوع تسيلي في رصد الأهداف العسكرية في أغلب الأحيان، ويجب ألا تبعد أكثر من مائة وعشرين كيلومترا عن المحطة التي تتحكم فيها. لكن تسيلي كان لديه خطط أخرى: مباشرة بعد الإطلاق، انقطع الاتصال بينه وبين محطة التحكم.

من المؤكد أن الأدوات الأبسط ستتعطل بعد دقائق قليلة من فقدان الاتصال، لكن تسيلي كان مميزًا. تتمتع طائرات الظل بدون طيار بمستوى عالٍ من الاستقلالية. أو ببساطة، يمكنهم البقاء في الهواء والاستمرار في إنجاز المهمة حتى لو فقدوا الاتصال بالمشغل. ولهذا السبب أسمح لنفسي أن أسميهم روبوتات مستقلة. لكن تسيلي لم يكن يعرف ما هي مهمته. وكما أدرك البشر الذين بقوا على الأرض تحت ظل تسيلي فجأة، لم يكن أحد يعرف في الواقع ما هي مهمته.

تتم برمجة المركبات الجوية بدون طيار لتتصرف بطرق مختلفة عندما تفقد الاتصال بالأرض. وبعضها يحوم في الهواء فوق نقطة معينة حتى يتجدد الاتصال. يقوم آخرون بإنزال الرم ومحاولة الهبوط، أو محاولة العودة إلى النقطة التي انطلقوا منها في الأصل. يتم تنشيط أنظمة الطوارئ بمجرد أن تدرك الطائرة بدون طيار أنها الآن وحدها في السماء. لكن بالنسبة لتسيلي، لا يبدو أن هذه الأنظمة قد تم تفعيلها. وكان لها رأي مختلف تذكر الشاذلي بالصدفة إحداثيات منزله السابق في قاعدة عسكرية بولاية واشنطن، وحاول ببسالة العودة إلى هناك. أو ربما لم يتم تفعيل أنظمة الطوارئ على الإطلاق، وواصل تسيلي ببساطة الإبحار عبر السماء، في رحلته إلى المجهول.

وفي كلتا الحالتين، ترك تسيلي وراءه الجنود والمهندسين المحبطين، وبدأ في الطيران شمالًا. شمال، شمال، شمال، متجاهلاً أي محاولة لإعادة الاتصال به. صعد في الهواء فوق الرياح القوية، واستخدمها للإبحار فوق الغابات والمحميات الهندية. طوال الوقت، كانت السلطات تتعقبه باستخدام أنظمة الرادار، ولكن بعد خمس ساعات، وصل تسيلي إلى جبال روكي. لم يكن من المفترض أن يكون قادرًا على تجاوزهم، وفقد الجيش توقيعه الراداري في تلك المرحلة وافترض أنه تحطم.

جبال صخرية. كما عبرهم تسيلي. المصدر: ريك كيمبل.
جبال صخرية. كما عبرهم تسيلي. مصدر: ريك كيمبل.

انه لم تحطم. لقد ارتفعت أكثر من ذلك، إلى ارتفاع 4,000 متر، وأبحرت فوق جبال روكي وما وراءها، إلى ارتفاعات لم تكن مصممة لها، إلى مسافات لم تكن مصممة لابتلاعها. وتابع شمالاً دون كلل في رحلة ألف كيلومتر، حتى تحطمت سيارته بالقرب من دنفر. ما زلنا لا نعرف سبب الحادث، لكن من الصعب تصديق أن تسيلي كان بإمكانه الاستمرار لفترة أطول، حيث لا بد أن وقوده قد نفد بالفعل، أو كان على وشك النفاد، في ذلك الوقت.

وهذه هي قصة تسيلي، الروبوت الذي لم يعتقد أنه يستطيع - لأنه ليس لديه القدرة على التفكير على الإطلاق - لكنه لم يقطع بأي حال من الأحوال مسافات لم يكن من المفترض أن يسافرها، في فترة من الزمن كان لم يكن من المفترض أن يبقى على قيد الحياة في السماء، وهذا مخالف للتعليمات التي كان من المفترض أن يتلقاها.

يوم الروبوتات المستقلة

تسيلي هو مجرد جزء من جيل جديد من الروبوتات - تلك التي تستفيد من الاستقلالية المحدودة، وتكون قادرة على تنفيذ مهمة محددة لها، مع الحد الأدنى من مشاركة المشغل البشري. تعكس قضية تسيلي في الواقع خطأً في نظام تشغيل الروبوت. في بعض الأحيان نكتشف أخطاء في البرنامج الذي نستخدمه: قد يتجمد المتصفح فجأة أو يبدأ في حذف الحروف والكلمات من تلقاء نفسه، أو قد يتعطل نظام تشغيل الكمبيوتر ويتوقف عن العمل. هذه أخطاء مزعجة، لكننا نتوقعها وندرك أنها لا مفر منها تقريبًا في أنظمة الكمبيوتر المعقدة هذه.

حسنًا، كان لدى تشيلي خلل أيضًا. والفرق الوحيد هو أن تسيلي هي طائرة عسكرية بدون طيار قيمتها مليون ونصف دولار، والحشرة جعلتها تطير عبر ثلاث دول وجبال روكي. ويمكننا أن نقول بحق أننا كنا محظوظين لأن تسيلي يستخدم لأغراض المراقبة فقط، وبالتالي فهو غير مسلح. لكن ابن عمه المفترس وتستخدم (Predatorr) أيضًا لأغراض المراقبة والتجسس، وهي مسلحة -للحفاظ على الأمان فقط- بصاروخين مضادين للدبابات من طراز Hellfire وستة صواريخ جو-أرض من طراز Griffinn.

ابن عم تسيلي الأقل إعجابًا، المفترس. المصدر: صورة للقوات الجوية الأمريكية / اللفتنانت كولونيل ليزلي برات.
ابن عم تسيلي الأقل إعجابًا، المفترس. مصدر: صورة القوات الجوية الأمريكية / المقدم ليزلي برات.

أظن أننا كنا سنكون أقل متعة من الأمر برمته لو أن أحد طائرات بريديتور المسلحة قد حل محل تسيلي وشرع في رحلة مماثلة عبر أمريكا، دون أن نفهم إلى أين يسافر أو ما هي قدراته الدقيقة.

الرغبة وراء الروبوت

لا بد أن الكتابة العاطفية في الجزء الأول من السجل قد جلبت الضحك إلى أفواه خبراء الروبوتات، وذلك لسبب وجيه. الروبوتات ليس لديها رغبات خاصة بها. ليس لديهم أفكار أو وعي ذاتي. لكن الروبوتات المتطورة اليوم بدأت تكتسب ما يمكن أن نطلق عليه بحق "النبضات". يزرع المبرمجون في الروبوتات المستقلة الدوافع للتفاعل مع المواقف المختلفة بطرق معينة تم تحديدها لهم مسبقًا. وفي هذا الصدد، تشبه الروبوتات المستقلة الحشرات، التي يمكنها الاستجابة لنفس الموقف مرارًا وتكرارًا بنفس الطريقة تمامًا - حتى لو ثبت أن هذه الطريقة كارثية بالنسبة لها. ومع ذلك، لديهم الدافع للتصرف بهذه الطريقة.

الحشرات مخلوقات متطورة للغاية، لكنها تكشف أيضًا عن "الخلل" عندما تواجه مواقف غير متوقعة. ولهذا السبب يستمر البعوض في تلقي تيارات كهربائية عندما يطير في الضوء المنوم للمصيدة الكهربائية، أو يستمر الذباب في الدخول إلى مصيدة ذباب ميكانيكية بسيطة، على الرغم من أنهم يرون جميع أصدقائهم محاصرين بالداخل. إن النبضات البسيطة المبرمجة في جهازهم العصبي لا تستطيع التكيف مع البيئة الحديثة المعقدة.

وإذا كانت الحشرات يمكن أن تتعرض للحشرات عندما تقع في بيئة غير متوقعة، فإن هذا ينطبق بشكل خاص على الروبوتات المستقلة. توضح قصة تسيلي ما يحدث عندما يطيع الروبوت نبضات خاطئة، أو عندما يحدث فشل في النظام يهدف إلى "دفعه" إلى المنزل. مثل هذه الأخطاء أمر لا مفر منه في أي نظام معقد، ولكن عواقبها يمكن أن تكون كارثية عندما يتعلق الأمر بالروبوتات المستقلة، وخاصة الروبوتات المسلحة من النوع الذي يمكن العثور عليه في ساحة المعركة.

وإذا كان يخيفك أيضاً..

إذا كنت أيضًا خائفًا من السيناريو الذي يتم فيه اكتشاف أخطاء غير متوقعة في الروبوتات المستقلة، فقد ترغب في التوقيع الرسالة المفتوحة الذي أطلقه منذ عام ونصف معهد مستقبل الحياة (معهد مستقبل الحياة)، ضد استخدام الأسلحة المستقلة في ساحة المعركة. لن تكون وحدك في التوقيع عليه: أكثر من ألف خبير وباحث وفي مجال الذكاء الاصطناعي، فقد وقعوا بالفعل على الرسالة التي تدعو إلى فرض حظر على استخدام الأسلحة المستقلة.

فهل تنجح الرسالة في ثني الحكومات عن منح الروبوتات قدرات ذاتية التحكم في ساحة المعركة؟ أنا في شك. وإذا لم نتمكن من وقف التسلح النووي، فمن الصعب أن نصدق أننا قادرون على وقف التسلح الآلي. ولكن على الأقل عندما يضيع تشيلي أو فريدي المفترس في المرة القادمة، يمكنك أن تدق ألسنتك بخيبة أمل وتشير إلى أنك تعلم أن ذلك سيحدث.

باختصار، يمكنك أن تكون مستقبليًا.

تعليقات 17

  1. الخطأ مهم للتكييف الفعال. بشرط أن يؤدي إلى العقاب (الشعور أو الانفعال بالألم). لن تخطئ البرامج المحددة مسبقًا لمهام محددة. الذكاء الاصطناعي يرتكب الأخطاء، على الرغم من أنه لا يزال لا يملك القدرة على التعلم بشكل مستقل، ولكن بناءً على ردود الفعل التي يتلقاها من البشر بعد الخطأ.

  2. مايك
    ليس فقط أننا لا نقترب من وابل الشمبانزي، بل لا نقترب من قدرات دماغ الذبابة.

    هناك شيء مهم جدًا في محاكاة الدماغ الذي يحبون تجاهله. الآلة ليست مخطئة، لكن الذكاء البيولوجي مخطئ. لابد أنها مخطئة!

  3. في بعض القدرات، لا تسقط الشبكات العصبية أو لا تسقط أبدًا من المصدر. بشكل عام، لا يزال الذكاء الاصطناعي لا يقترب من دماغ الشمبانزي.

  4. مايك
    هناك اختلافات أخرى لا حصر لها بين الإنسان والآلة.
    هل تعتقد أن الشمبانزي لديه "المرونة العقلية"؟ بشكل عام - هل يمكن أن تخبرني ما الذي يميز فكر الإنسان عن فكر الشمبانزي؟

  5. جميل أنك تتفق معي :) أن المرونة العقلية هي ما يميز الإنسان عن الآلة. تأتي المرونة من القدرة على محاكاة شيء ما لشيء ما.
    يعرف كل من الإنسان والآلة كيفية تلقي المدخلات، وتحديد ما إذا كان سيتم التعامل معها أم لا، وكذلك كيفية التعامل معها.
    والفرق هو أن الآلة لا تعرف كيفية التعامل مع المدخلات التي لم تكن مبرمجة لها مسبقاً. ومن ناحية أخرى، يعرف الإنسان كيف يستقبل مدخلات لم يرها من قبل، ويربطها بشيء مشابه لها ومن ثم يقرر ما إذا كانت مدخلات مهمة مثل مشكلة تحتاج إلى معالجة، كما أنه قادر على حل المشكلة على أساس الخيال.
    أود أن أشير إلى أن ما قصدته بإنسانية الآلة يشير إلى مجال اتخاذ القرار، وليس إلى الإنسانية بالمعنى العام. وأشرت إلى الإنسانية بمعنى مساعدة نظام اتخاذ القرار من خلال الارتباط، ونظام صنع القرار في حد ذاته أيضا لا يزال في رأيي على الأقل لا يصل إلى المستوى الإنساني، على الرغم من تقدم الفهم في هذا المجال، انظر "نظرية القيمة".

  6. مايك
    لذلك من العار أنها ليست مزحة، وإلا فهي محزنة. ما تقوله هو أن كل ما يفتقر إليه الكمبيوتر ليكون إنسانًا هو أن يكون إنسانًا.
    عميق جدا…..

  7. المعجزات
    إن القدرة على تحليل المشكلات والحلول على أساس ترابطي، أو في الخيال القصير، هي إلى حد ما ما يفتقر إليه الكمبيوتر من أجل اتخاذ القرارات بطريقة مماثلة للبشر.

  8. وبعيدًا عن التمثيل الدرامي، يبدو الأمر وكأنه خطأ تشغيلي.
    نظام التحكم في الطيران وأنظمة القياس يعمل بشكل صحيح. وإلا فإن الطائرة سوف تسقط على الفور من السماء.
    لا أعرف المنطق الداخلي للنظام المحدد، ولكن عادةً في وضع "عدم الاتصال"، اعتمادًا على الإعداد المسبق للمشغل، ستواصل الطائرة مهمتها أو تحاول العودة إلى المنزل على طريق بنقاط مخططة مسبقًا لإعادة الاتصال. وسيستمر على هذا المنوال حتى النقطة التي يكون فيها على اتصال بصري بالمحطة الأرضية أو في أنظمة معينة حتى الهبوط النهائي.
    يبدو من الوصف المختصر أن المشغل لم يتحقق من صلاحية المسار. ولا يزال الخطأ خطأً بشريًا وليس له علاقة بـ "deus ex machina" أو "رغبات" الآلة.

  9. مايك
    لا تستخدم الطائرة المقاتلة الطيار الآلي أبدًا. له استخدام قليل في الرحلات الليلية على المرتفعات، لكن بخلاف ذلك لا يتم التطرق إليه كثيرًا.
    على أي أساس تقول أن الكمبيوتر سيكون إنسانا؟ هذا هو آخر شيء نريده! من يريد جهاز كمبيوتر يخطئ؟؟

  10. ليس بالضرورة خطأ. يبدو الأمر كما لو أن النظام الذاتي قد تحطم للتو. واستمر الطيار في الطيران الآلي. لنفترض أن هناك طيارًا بشريًا على متن طائرة مسلحة ومات في الهواء، فستستمر الطائرة في الطيران الآلي. فهل سيكون الوضع أقل كارثية إذا وقع في منطقة مأهولة بالسكان؟
    بشكل عام، يعتمد المقال بأكمله على افتراض أن الكمبيوتر لا يمكن أن يكون إنسانًا أبدًا، لكن هذا ينطبق فقط على قليلي الإيمان.

  11. هل يعتقد أحد حقًا أن الجيش سيتوقف عن تطوير الأسلحة المستقلة خوفًا من الأخطاء؟ يبدو غريبا جدا بالنسبة لي. تهدف الرسائل المفتوحة من هذا النوع إلى التعريف بالمعهد الذي بدأها وليس التأثير فعليًا على الواقع.

ترك الرد

لن يتم نشر البريد الإلكتروني. الحقول الإلزامية مشار إليها *

يستخدم هذا الموقع Akismat لمنع الرسائل غير المرغوب فيها. انقر هنا لمعرفة كيفية معالجة بيانات الرد الخاصة بك.