تغطية شاملة

لبرمجة الروبوتات الأخلاقية

في المستقبل القريب، قد تصبح الكائنات التي تتمتع بالذكاء الاصطناعي "كائنات أكثر أخلاقية من البشر" - أو على الأقل أولئك الذين يتخذون قرارات أفضل عند التعامل مع معضلات معينة.

طائرة هليكوبتر روبوتية. الصورة: شترستوك
طائرة هليكوبتر روبوتية. الصورة: شترستوك

في عام 2009، نشرنا تقريرًا على موقع العلوم حول تقرير أعده باحثون من معهد بوليتكنيك كاليفورنيا لتطبيق مدونة أخلاقية، والتي ستعتمد على شيء مشابه لقوانين أسيموف الثلاثة الخاصة بالروبوتات في الروبوتات للاستخدام العسكري. وفقًا للباحثين، سيتعين على الروبوتات العسكرية المستقلة أن تطيع قواعد المحارب وإلا فإنها ستصبح أسياد البشرية.

وفي السنوات التي مرت منذ ذلك الحين، كما انعكس ذلك أيضًا في إطار عملية Solid Cliff، تم استخدام الكثير من التكنولوجيا، ومن بين أمور أخرى، أظهروا كيفية استخدام الطائرات بدون طيار المجهزة بأجهزة الرؤية الليلية وحتى (بعض من لهم) مهاجمة الأجهزة. اليوم، الحكمة الرئيسية لهذه الأنظمة هي المساعدة في الملاحة والإدارة، ولكن كل ما يتعلق بتشغيلها يتم بواسطة مشغلين بشريين.

في المستقبل القريب، قد تصبح الكائنات التي تتمتع بالذكاء الاصطناعي "كائنات أكثر أخلاقية من البشر" - أو على الأقل أولئك الذين يتخذون قرارات أفضل عند التعامل مع معضلات معينة.

قد يتضمن تصميم الروبوتات ذات القدرة الأخلاقية المستقلة تنفيذ قدرة ضميرية متطورة تمامًا للتمييز بين الخير والشر، والتصرف وفقًا لذلك. قد تكون هذه الروبوتات المستقبلية أكثر أخلاقية من البشر.

في عام 2002، صاغ عالم الروبوتات جيانماركو فيروجيو مصطلح أخلاقيات الروبوتات - استيعاب الأخلاق الإنسانية في إطار تصميم وإنتاج وعمل الروبوتات - مؤكدا على الهدف البحثي الذي ينبغي للمرء أن يسعى لتحقيقه. في ذلك الوقت، تم تقسيم أخلاقيات الذكاء الاصطناعي إلى مجالين فرعيين:

  •  أخلاقيات الآلة: الفرع الذي يتعامل مع سلوك الوكلاء الأخلاقيين المصطنعين؛
  • أخلاقيات الروبوت: الفرع المسؤول عن الأسئلة المتعلقة بسلوك البشر – كيفية تطويرهم وبناءهم واستخدامهم والتصرف تجاه الروبوتات تجاه الكائنات الأخرى ذات الذكاء الاصطناعي. ويتضمن هذا المجال أيضًا التساؤل عن إمكانية برمجة الروبوتات بحيث تكون لديها مدونة أخلاقية يمكنها توجيه سلوكها وفقًا للأعراف الاجتماعية التي تفرق بين الخير والشر.

منطقيا، لكي نتمكن من إنشاء روبوتات مستقلة أخلاقيا مثل هذه، يجب على الباحثين الاتفاق على عدد من المعايير الأساسية: ما هي القدرة الأخلاقية وما الذي يجب أن يتوقعه البشر من الروبوتات التي تعمل إلى جانبهم بينما تتقاسم معهم عملية صنع القرار في مجالات مثل الطب والحرب. وفي الوقت نفسه، برز سؤال آخر: ما هي مسؤولية البشر في خلق ذكاء اصطناعي يتمتع بالاستقلال الأخلاقي؟ والسؤال البحثي الرئيسي: ما الذي يجب أن نتوقعه من الروبوتات القادرة أخلاقيا؟

ومن أهم القضايا، رغم أن العديد من الأسئلة حولها لا تزال دون إجابة، تتعلق بفكرة "القدرة الأخلاقية". نشر البروفيسور بيرترام إف مالي من جامعة براون وماتياس شويتز من جامعة تافتس ورقة بحثية هذا العام بعنوان: “الكفاءة الأخلاقية للروبوتات الاجتماعية". ويزعمون في هذا المقال أن القدرة الأخلاقية تتكون من أربعة مفاهيم عامة:

  1. الجوهر الأخلاقي: "نظام من المعايير واللغة والمصطلحات التي تهدف إلى تعريف هذه المعايير، بما في ذلك مفاهيم ولغة الأخلاق وشبكة من المعايير الأخلاقية"؛
  2. العمل الأخلاقي: "الوعي بالأخلاق والعواقب" - تكييف أفعال القضية مع الأعراف؛
  3. الإدراك الأخلاقي والعاطفة: "اتخاذ القرارات واتخاذ الإجراءات الأخلاقية"، الاستجابة العاطفية لمخالفة الأعراف والأحكام الأخلاقية؛
  4. التواصل الأخلاقي: التفكير والتبرير والمساومة والتصالح مع انتهاكات الأخلاق.

قد يكون تصميم الروبوتات ذات القدرة الأخلاقية المستقلة أمرًا ملهمًا ورائعًا، لكنه سيكون أمرًا صعبًا بلا شك. يجب على المهندسين اتباع الخطوات اللازمة. أولاً، يجب عليهم بناء تمثيل محوسب للأنظمة الأخلاقية وتضمين المصطلحات والمفردات في مجال الأخلاق في بنية الروبوت. وفي الخطوة التالية، يجب عليهم تطوير خوارزميات يمكنها حوسبة التعرف واتخاذ القرارات الأخلاقية.

في سيناريو عملي، على سبيل المثال، سيتعين على النظام الذي يتمتع بقدرة معنوية مستقلة مخصص لأغراض النقل الطبي أن يقرر ما إذا كان تغيير مسار حركة المرور من نقطة التفتيش "أ" إلى نقطة التفتيش "ب" هو أفضل طريقة لتحقيق غرضه، وهو توصيل الإمدادات إلى منطقة معينة. منطقة الكارثة أو ساحة المعركة.

 

تعليقات 8

  1. الأخلاق مسألة اجتماعية، وتختلف بين الثقافات، فالخير والشر تعريف غامض لا أساس له من الصحة، والأخلاق في ثقافة ما يمكن أن تكون غير أخلاقية في أخرى، فأخلاق الروبوت تعود إلى من برمجه.

  2. أريد التوسع في ما كتبه المعلقون هنا بمساعدة مثال قمت بمشاركته. تم تغيير التفاصيل قليلاً لأسباب واضحة.

    لقد أُمرت بمهاجمة إشارة مرور في مكان معين، في شارع مزدحم. لم يكن لدي أي معلومات أخرى. كجندي منضبط، قمت بتنفيذ الأمر كما تعلمت، مع إيذاء المدنيين.

    هل كان الأمر أخلاقياً؟ في ظاهر الأمر، يبدو الأمر وكأنه لا. لكن - اتضح أن إغلاق الطريق في هذه المرحلة حال دون وقوع هجوم جماعي كان سيقتل فيه العشرات، إن لم يكن المئات، من المدنيين الأبرياء.

    ما الذي يمكن أن يقرره السلاح المستقل في مثل هذه الحالة بالضبط؟ ولا يتعرض لمعلومات لدى الآخرين. فالتقدير يجب، في رأيي، أن يترك للبشر.

  3. وفي السياق نفسه، فإن من الأمور المثيرة للقلق بشأن تلك المركبات التي تسير بمفردها هو إمكانية تنفيذ هجمات واغتيالات وغيرها بها.

  4. بالطبع، في الوقت الحالي ما زلنا لا نعرف أين يمكن تضمين القانون الأخلاقي في الروبوت، وما زال الأمر بعيدًا جدًا عن ذلك
    إن الأمر يشبه تقريبًا الرغبة في زرع قانون أخلاقي في حشرة، على افتراض أنه سيكون ممكنًا في المستقبل.
    سيتم تكييف الروبوتات المستقلة مع الأخلاق التي تعتمد على الثقافة لدى البشر، وحتى ذلك الحين ستكون هناك استثناءات،
    لنبدأ بالاعتماد على الثقافة، فمن الواضح أن هيئة مثل النازيين على سبيل المثال ستصمم الروبوت وفقًا لقواعدهم "الأخلاقية"،
    ولا شك أنه من الناحية التكنولوجية لو كان هناك شيء من هذا القبيل وكانت هناك مثل هذه الثقافة عندما يجتمعون سيكون الاتصال سيئا،
    ولكن حتى لو كان جعل الروبوت أكثر وحشية قليلاً من شأنه أن يمنح جانبًا واحدًا ميزة، فحتى الجانب الأخلاقي لن يكون قادرًا على مقاومة الإغراء.
    على سبيل المثال، يمكننا أن نأخذ الحلفاء في الحرب العالمية الثانية في تحليل أفعالهم، على سبيل المثال قصف المدن
    إن الأمر بعيد كل البعد عن تلبية المعايير الأخلاقية التي نريدها اليوم، لكن الشر أيضًا يتغلب على الخير
    لن يكونوا قادرين على الهروب من كابوس الحرب القاتل، سيكون عليهم أن يشمروا عن سواعدهم ويتسخوا،
    وفي النهاية، يتعلق الأمر بالوجود الجماعي، الذي يصبح أعلى مستوى فوق الفرد
    إذا كان يستطيع أن يتماشى مع الأخلاق فلا بأس، ولكن إذا لم يكن كذلك، فحتى الخير سوف يزيح الأخلاق جانبًا من أجل البقاء،
    يمكنك أن تأخذ كمثال درجة الاستقلالية التي يتمتع بها النظام الآلي، ويتعلق الأمر بنظام لاتخاذ القرار السريع، ويمكن أن يخرج الاستقلال النظري الزائد عن نطاق السيطرة
    ويمكن أن يعرض المبدع للخطر، ولكن إذا أدرك منشئ الروبوتات ميزة في نظام آلي أكثر استقلالية
    ولن يتمكن من عدم استيعابها له إلا لسبب أن العدو سوف يهضمها ومن ثم ينهار نظامه أمام الخصم،
    الأمر نفسه ينطبق على إزالة العناصر المحذوفة من النظام، على سبيل المثال، إذا أدركنا أن العناصر المحذوفة مضمنة
    يتسبب نظامنا الآلي في التلعثم والتباطؤ في مواجهة النظام الآلي للخصم والنتيجة
    فالأمر الواضح سيكون الخسارة فيما نختاره من الأخلاق وانقراض أو تلف العناصر الأخلاقية التي نؤمن بها
    لكننا لن نتمكن من تنفيذها بنفس النظام الآلي،
    ولعل هذا هو الأساس الخطير لهذه الأنظمة، أنه بمجرد تنفيذها سيكون من الصعب للغاية التحكم فيما يخرج منها
    بالإضافة إلى ذلك، فإن النظام الآلي يعتبر مع ذلك نظامًا فائقًا لاتخاذ القرار وإذا كان نظامًا آليًا مثل الجندي في ساحة المعركة
    وإذا كان لديه القدرة على استيعاب القواعد الأخلاقية، فإنه سيكون أيضًا نظامًا شديد التعقيد
    ستبقى هناك دائمًا عناصر غير متوقعة كما هو الحال في الشخص، كل من يطورها يعرف ذلك، مرحلة الإطلاق مثل الشركة
    بوينغ مع البطارية في الطائرة التي تعطلت ونحن نتحدث عن أفضل المهندسين في العالم،
    أو أي نظام قرثي، كلما زاد التعقيد، زادت الأحداث غير المتوقعة، وهو عنصر أساسي آخر في النظام الآلي
    المحارب الذي يمنحها الميزة سيكون لديه حرية التصرف للرد على المواقف غير المتوقعة تمامًا مثل الإنسان
    أنه من هذه المتطلبات ينشأ أيضًا الخطر في هذا النظام،
    إحدى المعضلات البشرية التي لن يتمكن النظام الآلي من مواجهتها هي التعامل مع الروبوت الذي تعرض للتلف أو لم يعد موجودًا،
    بحيث يكون دائمًا قادرًا على الاستمرار في العمل بنفس مجموعة قواعد الاعتبارات ولن يغير مسار العمل عاطفيًا
    ستكون هذه التغييرات دائمًا تكتيكية أو استراتيجية،
    ونظرًا لتعقيد هذا الأمر، فسوف يستغرق الأمر سنوات عديدة قبل أن نراه، ولكن هذه ستكون المشاكل
    التي سيتعين على البشرية مواجهتها في المستقبل.

ترك الرد

لن يتم نشر البريد الإلكتروني. الحقول الإلزامية مشار إليها *

يستخدم هذا الموقع Akismat لمنع الرسائل غير المرغوب فيها. انقر هنا لمعرفة كيفية معالجة بيانات الرد الخاصة بك.