تغطية شاملة

"حقيقة أنه يمكن القيام بشيء ما باستخدام الذكاء الاصطناعي لا تعني أنه ينبغي القيام به"

هذا ما قالته البروفيسور فرانشيسكا روسي، نائبة رئيس شركة آي بي إم لأخلاقيات الذكاء الاصطناعي، في مؤتمر صحفي عقد في مختبر أبحاث آي بي إم في زيورخ، وكمثال على ذلك، أعطت روسي المشكلة المعروفة بمشكلة السيارة، وقالت ردا على ذلك يتساءل موقع العلوم عما إذا كانت جميع السيارات ذاتية القيادة ستواجه مثل هذا الخطر على الإطلاق، لأنه لا يزال من المتوقع وقوع حوادث مع المشاة وراكبي الدراجات

الأخلاق والذكاء الاصطناعي. الرسم التوضيحي: شترستوك
الأخلاق والذكاء الاصطناعي. الرسم التوضيحي: شترستوك

 

وقالت البروفيسور فرانشيسكا روسي، نائب رئيس شركة آي بي إم لأخلاقيات الذكاء الاصطناعي: "إن حقيقة إمكانية القيام بشيء ما باستخدام الذكاء الاصطناعي لا تعني أنه ينبغي القيام به". وقد ناقش البروفيسور روسي والبروفيسور باري أوسوليفان من جامعة كورك في أيرلندا، والذي يشغل أيضًا منصب رئيس مجموعة الباحثين في مجال الذكاء الاصطناعي التي تقدم المشورة لمفوضية الاتحاد الأوروبي، هذه القضية مع الصحفيين، في اجتماع عقد في مركز أبحاث العملاق الأزرق في زيوريخ. وألقى الاثنان كلماتهما عبر الفيديو، لأنهما كانا في مؤتمر الاتحاد الأوروبي في بروكسل وقت المحادثة.

ووفقا للبروفيسور روسي، "يحب الناس فوائد التقنيات الجديدة، لكنهم يخشونها أيضا. هناك الكثير من المخاوف التي تحتاج إلى إجابة. أحد هذه المخاوف هو التحيز، الذي يكون في بعض الأحيان غير واعي. تعتمد الأنظمة بالفعل على التعلم الآلي، ولكن إذا كانت البيانات التي يتعلم منها النظام والنموذج الذي تم تطويره عليه يعاني من التحيز، حتى لو كان صغيرًا، فإن التوصيات التي سيقدمها لن تكون عادلة. كما يجب على النظام أن يعرف كيف يشرح كيف وصل إلى النتيجة، وإلا فلن يصدقه أحد".

البروفيسور فرانشيسكا روسي، نائب رئيس شركة IBM لأخلاقيات الذكاء الاصطناعي. الصورة: العلاقات العامة
البروفيسور فرانشيسكا روسي، نائب رئيس شركة IBM لأخلاقيات الذكاء الاصطناعي. الصورة: العلاقات العامة

وقالت: "نحن في شركة IBM نخطط للأنظمة منذ اليوم الأول لتصميمها بحيث تكون مهتمة بالقضايا الأخلاقية". وذكر البروفيسور روسي عدداً من الخطوات التي تم اتخاذها في بلو جاينت للوصول إلى هذا الهدف: "نحن نقوم بإجراء التدريبات ونخرج بقائمة طويلة من الأسئلة التي يجب على مصممي هذه الأنظمة أن يطرحوها على أنفسهم، من أجل تحديد التحيزات والتعامل معها في كل مكون من مكونات النموذج لقد فتحنا أيضًا واجهات برمجة التطبيقات (API) للأنظمة لزيادة الشفافية. نحن نقوم بالبحث المستمر في هذا المجال ونقل نتائج البحث إلى تطوير المنتجات والخدمات، وتوسيع الشراكة حول هذا الموضوع مع أصحاب المصلحة. ويجب علينا، وكذلك المنظمات الأخرى، أن نكون على دراية بقدرات الذكاء الاصطناعي، ولكن أيضًا بحدوده."

أمثلة على التحيزات

وعرض البروفيسور روسي المشكلة المعروفة باسم مشكلة العربات، والنقطة الأساسية فيها هي أن العربات تسير على مسار في اتجاهين متعاكسين، وعلى سائق إحدى العربات أن يقرر ما إذا كان سيصطدم بالعربة الأخرى أو ينحرف إلى اتجاه آخر. تقاطع حيث سوف دهس المشاة. بالطبع، عندما تتخذ سيارة ذاتية القيادة قرارًا في حالة وقوع حادث معين، عليك فقط أن تقرر ضد من، ويجب عليك مراعاة الاعتبارات الأخلاقية والمعنوية فيه. ردا على سؤال موقع العلم، إذا لن يتم حل المشكلة عندما تكون جميع السيارات ذاتية القيادة حيث أنها ستكون قادرة على التواصل مع البنية التحتية وحتى مع السيارات التي تقع خارج خط الرؤية (على سبيل المثال، خلف دوار أو تقاطع)، أجاب روسي أنه من الواضح أن فرصة الاضطرار إلى اتخاذ مثل هذا القرار ستكون ضئيلة، ولكن لا يزال ينبغي أن يؤخذ في الاعتبار، مع حقيقة أن المشاة وراكبي الدراجات سيستمرون في التحرك على الطرق، على الرغم من أن الحوادث ستكون أكثر ندرة، إلا أنها لن يتم القضاء عليها تمامًا، لذلك عليك الاستعداد.

وأشار البروفيسور أوسوليفان إلى "مثال بسيط جدًا للتحيز، والذي يحدث عند الترجمة على الإنترنت. وبالتالي، يحتاج المريض إلى تحديد موعد مع الطبيب، ويفترض النظام تلقائيًا أن الطبيب رجل. لكن بالطبع يمكن للمرأة أن تكون طبيبة أيضًا. أيضًا، في أبريل، تم نشر مقال في مجلة Science، والذي أظهر أنه في العديد من اللغات، تكون ألقاب الأشخاص رفيعي المستوى مثل الرئيس أو القائد أو المدير بصيغة المذكر (على سبيل المثال، باللغة العبرية، عادة - AB). ومن ناحية أخرى، ترتبط الإناث بأدوار الرعاية أو أدوار الدعم. وهذا تحيز متأصل في اللغة نفسها ومن الضروري التغلب على هذه الأنواع من التحيزات عندما يتعلق الأمر بالتكنولوجيا والحوسبة."

وأضاف أن "هناك تحيزات أخرى تنشأ من أنظمة تتفاعل مع بعضها البعض. على سبيل المثال، قامت مايكروسوفت بتطوير نظام دردشة يعتمد على تغريدات تويتر. وفي غضون 18 ساعة، اضطرت إلى إسقاط النظام، لأن الدردشات التي جرت هناك أصبحت عنصرية ومهينة. ذلك لأن الأشخاص يستخدمون تويتر بلغة معينة. كما ينعكس ميل الناس إلى تفكيك النظام ومحاولة فحصه".

قال البروفيسور أوسوليفان: "يمكن أن يكون سبب مشكلة التحيز الأخرى هو التوصية بمنتج ما". "على سبيل المثال، يوصي نظام Netflix للمشاهد بأفلام مشابهة لتلك التي شاهدها، وعنها فقط. هذه هي الطريقة التي تتشكل بها الفقاعة. وهذا أكثر خطورة في مجال الأخبار، فالناس لا يتلقون إلا الأخبار التي تتوافق مع آرائهم السياسية".

ما هو لائق؟ ما هو الأخلاقي؟

وتحدث الاثنان خلال المحادثة أيضًا عن الحشمة والأخلاق. وقال البروفيسور روسي إن "هناك تعريفات عديدة للعدالة. إن الأفكار المختلفة للعدالة مناسبة لسياقات مختلفة ومهام مختلفة. قد يكون تعريف العدالة معقولاً في مهمة واحدة، ولكن ليس في مهمة أخرى. الشفافية يمكن أن تساعد، لأنه بهذه الطريقة يمكننا أن نعرف كيف تم إدخال العدالة في النظام."

ووفقا للبروفيسور أوسوليفان، "لا يوجد اتفاق حول ما هو الشيء الأخلاقي والأخلاقي، لأن هذه الأشياء تعتمد على الأعراف الاجتماعية. عندما نأتي إلى بناء أنظمة تكنولوجية أخلاقية، فإننا نثق في العمليات التي يتم من خلالها إنتاجها، ولكن هل نثق في الشركات التي تفعل ذلك؟ نحن بحاجة إلى التفكير بشكل أقل في الأخلاقيات وأكثر في قوة الأنظمة وممارسات استخدامها." وقال البروفيسور روسي "علينا أن نترك السوق يقوم بعمله".

المزيد عن الموضوع على موقع العلوم:

تعليقات 5

  1. "نحن بحاجة إلى السماح للسوق بالقيام بعمله" - بهذا البيان ناقضت الأستاذة كلماتها وألغت أهمية الاعتبار الأخلاقي لتحدي الذكاء الاصطناعي.
    "السوق" ليس له أي معنى أخلاقي. إن "السوق" ـ سواء كانت اقتصادية أو أيديولوجية ـ تشكل أهمية هائلة إذا كانت حرة وقادرة على المنافسة. ولكن بشرط أن تظل تعمل ضمن حدود الإطار الأخلاقي الخارجي الذي لا يعتمد على المنطق الداخلي للسوق، على الرغم من أنها تتمتع بالحرية والمرونة الكافية لتركها مستقلة بالقدر الكافي للعمل على مستوى تنافسي. وإلا فإنه يتحول إلى وحش (- في هذه الحالة ذكاء اصطناعي غير خاضع للرقابة يمكن أن يصبح عامل تهديد أو ضار)، والوحش الذي يظهر التلميح المحفوظ في الفصل الأول - يقتل في الفصل الثالث، إن لم يكن قبل ذلك.

  2. هذه هي مشكلة "الأخلاقيين". ففي نهاية المطاف، فإنهم لا يساهمون في الرؤية، ويتم تعيينهم بشكل عام "كمتحدثين رسميين" (يحتاج شخص ما إلى نشر الشعبوية بين الجماهير الخائفة).
    من المؤكد أن شركة IBM تريد أن تظهر أنها تتعامل مع هذه القضية بعناية.
    تجدر الإشارة إلى أن هذه شركة رائعة تعمل جاهدة لتكون رائدة وتقود "مشروع الدماغ" في الطريق إلى أن تكون عكس ما تقول السيدة أنه يجب أن يكون تمامًا.

  3. "إن حقيقة إمكانية القيام بشيء ما باستخدام الذكاء الاصطناعي لا تعني أنه ينبغي القيام به": إذا كان هناك شيء ممكن باستخدام الذكاء الاصطناعي، فسيتم إنجازه. وهذا يتوافق مع القوانين 34 و 35 للإنترنت.

    وبصرف النظر عن ذلك، حتى يتم القيام بشيء ما، سيكون من المستحيل فهم كل عواقبه. على سبيل المثال، فكرت للحظة في إمكانية إدخال الروبوت كخادم في منزلي، وأدركت أنني قد فاتني شيء مهم للغاية، لم ألاحظه طوال العقود الماضية: قانون أسيموف الأول معيب، و ينبغي صياغته على النحو التالي: "لا يجوز للروبوت أن يؤذي شخصًا أو قطة، ولا يسمح بأي فعل أو في حالة التقصير سوف يتأذى شخص أو قطة.

    وهذا له تعليقان:
    1. الغفوون مدعوون لتعريف كلبهم بأنه "قطة".
    2. هناك مشكلة أساسية في التكيف المماثل للقانون الثاني، لأنه إذا تم تمديده بطريقة مماثلة، فسيتم تخصيص كل وقت الروبوت منذ ذلك الحين للخدش خلف آذان القطط.

  4. لقد كتبت "إذا لن تحل المشكلة متى" بدلاً من الطريقة المعتادة في الكتابة "إذا لن تحل المشكلة متى"، لكنك خرجت بما لا يقل عن الصواب. ربما عن قصد؟

ترك الرد

لن يتم نشر البريد الإلكتروني. الحقول الإلزامية مشار إليها *

يستخدم هذا الموقع Akismat لمنع الرسائل غير المرغوب فيها. انقر هنا لمعرفة كيفية معالجة بيانات الرد الخاصة بك.