تغطية شاملة

هل ستقرر الطائرة بدون طيار من ستقتل؟

"في النهاية، إذا قررت الآلات من سيموت، خاصة عندما يتعلق الأمر بالقتل الجماعي، فقد يؤدي ذلك إلى أكثر ما يخشاه منتقدو الذكاء الاصطناعي، وهو أن الآلات يمكن أن تدمر البشرية، وفقًا لبيتر لي، مدير الأمن والمخاطر والخبير في السياسة والأخلاق. في جامعة بورتسموث.

طائرة بدون طيار تدمر مدينة. الرسم التوضيحي: شترستوك
طائرة بدون طيار تدمر مدينة. الرسم التوضيحي: شترستوك

في بداية شهر مارس 2018، تم الإعلان عن أن جوجل تعمل مع وزارة الدفاع الأمريكية لتصنيع طائرات بدون طيار، والتي هي بالفعل في خدمة جيش الولايات المتحدة، تعتمد على الذكاء الاصطناعي، وربما أيضًا لغرض إضافة الذكاء الاصطناعي إلى الأسلحة الإضافية.

سيقوم المشروع المشترك، المسمى Project Maven، بإنشاء تقنية متقدمة يمكنها تحديد الأشياء الموجودة في الفضاء الذي تعمل فيه الطائرة بدون طيار. أثار هذا المشروع سخطًا بين موظفي Google ووقع عدة آلاف منهم على عريضة يطلبون بموجبها من Google إلغاء مشاركتها في المشروع.

وقال البروفيسور بيتر لي، مدير الأمن والمخاطر والخبير في السياسة والأخلاق بجامعة بورتسموث (جامعة بورتسموث) في بريطانيا العظمى، إن "جوجل وغيرها من الشركات التي تطور أنظمة الذكاء الاصطناعي للأسلحة، قد تجد نفسها كشركة مشروعة". هدف عسكري للعدو".

ووفقا له، "أعلن جيش الولايات المتحدة مؤخرا أنه يقوم بتطوير أول طائرات بدون طيار يمكنها تحديد واستهداف المركبات والأشخاص باستخدام الذكاء الاصطناعي (AI)." هذه خطوة كبيرة إلى الأمام. "في حين أن الصواريخ العسكرية الحالية لا تزال تحت سيطرة البشر، فإن هذه التكنولوجيا الجديدة ستقرر من سيقتل دون أي تدخل بشري تقريبًا"، كتب البروفيسور لي في مقال نشر على موقع The Conversation.

وكتب أنه بمجرد اكتمال تطويرها، "ستمثل هذه الطائرات العسكرة النهائية للذكاء الاصطناعي وستتسبب في عواقب قانونية وأخلاقية بعيدة المدى على المجتمع. هناك احتمال أن تتحول الحرب من المعارك إلى الإبادة، وفقدان كل مظاهر الإنسانية في هذه العملية. ومع ذلك، يمكنها توسيع مجال الحرب، بحيث تصبح الشركات والمهندسين والعلماء أهدافًا عسكرية صالحة".

غرفة مشغلي الطائرات بدون طيار في القوات الجوية الأمريكية. صورة العلاقات العامة
غرفة مشغلي الطائرات بدون طيار في القوات الجوية الأمريكية. صورة العلاقات العامة

يجب أن يكون الشخص الذي يضغط على الزناد أخيرًا شخصًا
وقال البروفيسور لي: "الطائرات العسكرية بدون طيار القاتلة موجودة بالفعل". "أحدها هو MQ-9 Reaper، ويتم مراقبتها وتوجيهها بعناية عبر الأقمار الصناعية. إذا أسقطت هذه الطائرة بدون طيار قنبلة أو أطلقت صاروخا، فسيتم تنشيط جهاز استشعار بشري يوجهها بشكل فعال إلى الهدف المحدد باستخدام الليزر.

"في نهاية المطاف، يتحمل فريق المشغل المسؤولية الأخلاقية والقانونية والعملياتية النهائية عن قتل أهداف بشرية محددة. وكما أشار أحد مشغلي Reaper: "سأوافق دائمًا على أن المتمردين، بغض النظر عن مدى أهميته كهدف، سوف يرحلون ولن يخاطروا بقتل المدنيين".

"حتى عندما تكون لدينا قدرة متطورة على قتل الأشخاص بطائرات بدون طيار، كانت المشاعر الإنسانية والأحكام والأخلاقيات من العوامل التي أثرت على القتال. وقال البروفيسور لي إن انتشار حالات الصدمة العقلية واضطراب ما بعد الصدمة (PTSD) بين العاملين يظهر التأثير النفسي للقتل عن بعد.

"يشير هذا في الواقع إلى حجة عسكرية وأخلاقية محتملة من قبل رونالد أركين، لدعم الطائرات بدون طيار المستقلة. وربما إذا كانت هناك طائرة بدون طيار لإسقاط القنابل، فقد يتم تجنب المشاكل النفسية بين أفراد الطاقم. نقطة الضعف في هذه الحجة هي أنه ليس من الضروري أن تكون مسؤولاً عن القتل حتى تتعرض لصدمة نفسية بسببه. يقوم خبراء الاستخبارات وغيرهم من الأفراد العسكريين بشكل روتيني بتحليل اللقطات الرسومية لضربات الطائرات. وتشير الدراسات إلى أنه من الممكن التعرض لأضرار نفسية حتى من مشاهدة الصور التي تظهر العنف الشديد".

"عندما أجريت مقابلات مع أكثر من 100 من أفراد طاقم ريبر من أجل كتاب مستقبلي، كان كل شخص تحدثت إليه ونفذ ضربات مميتة يعتقد أن الشخص الذي يضغط على الزناد في النهاية يجب أن يكون إنسانًا. خذ الشخص - وأنت أيضًا تُخرج الإنسانية من قرار القتل".

عواقب وخيمة

إن إمكانية وجود طائرات بدون طيار ذاتية التحكم ستغير بشكل جذري العمليات والقرارات المعقدة وراء القتل العسكري. لكن المسؤولية القانونية والأخلاقية لا تختفي برفع الإشراف البشري. وبدلا من ذلك، ستقع المسؤولية بشكل متزايد على عاتق أشخاص آخرين، بما في ذلك علماء الذكاء الاصطناعي.

ووفقا للبروفيسور لي، فإن "العواقب القانونية لهذه التطورات أصبحت واضحة بالفعل. ووفقاً للقانون الإنساني الدولي الحالي، يمكن مهاجمة المنشآت "ذات الاستخدام المزدوج" - تلك التي تطور منتجات لتلبية الاحتياجات المدنية والعسكرية على حد سواء - في ظل الظروف المناسبة. وهكذا، على سبيل المثال، في حرب كوسوفو عام 1999، هوجمت مصفاة النفط في بانسيفو لأنها كان من الممكن أن تزود وقود الخزانات اليوغوسلافية، وكذلك الوقود المدني.

"من شبه المؤكد أن يتم تصنيف سطور معينة من أكواد الكمبيوتر على أنها ذات استخدام مزدوج. من الممكن أن تتعرض شركات مثل Google أو موظفيها أو أنظمتها لهجوم من دولة معادية. على سبيل المثال، إذا تم دمج برنامج Motion Image MIL القائم على الذكاء الاصطناعي من Google في طائرة بدون طيار عسكرية أمريكية ذاتية التحكم، فقد تجد Google نفسها متورطة في أعمال "القتل"، مثل أي مساهم مدني آخر في مثل هذه الأنظمة الذاتية القاتلة.

"من الناحية الأخلاقية، هناك مشاكل أكثر خطورة. الفكرة الكاملة لخوارزميات التعلم الذاتي هي برمجيات تتعلم بشكل مستقل عن أي معلومات يمكنها جمعها، وتستخدم التكنولوجيا لتحسين أي مهمة تتلقاها.

"إذا تحسنت طائرة بدون طيار قاتلة مستقلة في وظيفتها من خلال التعلم الذاتي، فسيتعين على شخص ما أن يقرر مرحلة مقبولة من التطوير - إلى أي مدى لا يزال النظام بحاجة إلى التعلم. وفي التعلم الآلي العسكري، يعني هذا أنه سيتعين على القادة السياسيين والعسكريين والصناعيين تحديد عدد الوفيات بين المدنيين التي سيتم اعتبارها مقبولة مع تحسن التكنولوجيا.

"إن حالات القتل الأخيرة على يد الأنظمة المستقلة يجب أن تثير القلق. تُظهر التجارب المميتة التي أجرتها شركتا أوبر وتيسلا مع السيارات ذاتية القيادة أننا نضمن إلى حد كبير حدوث وفيات غير مرغوب فيها بسبب تشغيل النظام الذاتي بسبب أخطاء برمجية.

وفي تلخيص كلامه، يخشى البروفيسور لي أنه في النهاية إذا قررت الآلات من يموت، خاصة عندما يتعلق الأمر بالقتل الجماعي، فإن ذلك قد يؤدي إلى ما كان يخشاه معظم منتقدي الذكاء الاصطناعي - بما في ذلك البروفيسور الراحل ستيفن هوكينج. الكل - أن الآلات يمكن أن تدمر البشرية.

للمقال على موقع المحادثة

تعليقات 3

  1. جميع المقالات هنا لإقناعنا بأننا بعيدون عن اليوم مضللة في رأيي - مع الحذر، فكري الشخصي. وقد اعترف نائب رئيس جوجل نفسه مؤخراً في أحد المؤتمرات بأن المستقبل يبدو كالخيال العلمي. لكن في تقديري سيكون خيالًا علميًا مثل فيلم ماتريكس وليس مثل الخيال العلمي. بالمناسبة، أنا مطور ذكاء اصطناعي متقدم.

  2. هناك قاعدة أكثر أساسية: بمجرد أن يصبح أحد الأذكياء أكثر ذكاءً من الآخر، فمن غير المحتمل أن يصبح الشخص الأقل ذكاءً أكثر ذكاءً بمرور الوقت. وبطبيعة الحال، قد تكون القاعدة معقدة، ولكنها صحيحة من حيث المبدأ. . الآن استغرق التطور حوالي 2.5 مليار سنة لهندسة الذكاء البشري. وفي الذكاء الاصطناعي، تتضاعف جودة المعرفة كل عامين. أطلقت IBM وIntel وGoogle أجهزة كمبيوتر كمومية في نطاق 50 و70 QBIT المتاحة للشركات الكبيرة مثل Samsung Daimler. ويعني ما يصل إلى 2 إلى قوة 70 عملية فاصلة عائمة في دورة واحدة عندما يكون هناك 3E9 دورات في الثانية. تقوم شركات مثل NVIDIA وAMD وASUS بإصدار مسرعات رسومية تمثل المكون الرئيسي للذكاء بسعر 3000 دولار مقابل 16 تيرافلوب، وينخفض ​​السعر بسرعة إلى 300 دولار. 16 تيرافلوب
    هذا حوالي 50E6 المتغيرات. نحن في الدماغ 15E9 نختلف في التقييم.
    إلى أين أتجه؟ وعندما يتجاوز ذكاء النخبة مستوى الذكاء البشري فمن الواضح تماماً أنها مختلفة عنه وليست مثله. متشابهان ومختلفان أيضًا بشكل أساسي - لقد تجاوزنا عتبة اللاعودة. ومن هنا نحن في الوقت الضائع حتى يحل الذكاء الاصطناعي محل الذكاء البشري. إنها بحاجة إلى إتقان جميع المهن أولاً، وذلك بمساعدة كريمة من Google وFacebook Accelerators وIBM. رأس المال المتضمن في هذا والرياضيات المذهلة تبهرنا. ثم أن نكون ناجين مثل البشر، ثم نكون مثل القرود مقارنة بها. وهذا كل شيء.

  3. يبدو تصورًا غريبًا لكاتب المقال "بأن الشركات والمهندسين والعلماء ستصبح أهدافًا عسكرية صالحة". ويبدو الأمر أشبه بتهديده وترهيبه تجاه تلك الشركات منه بوصف واقع معقد.
    وبغض النظر عن الذكاء الاصطناعي، فبحسب تصوره فإن كل شركة متواطئة في القتل، فإذا كنت مثلا منتجا للغذاء فإن الجنود يأكلونه، وإذا كان يمنحهم الطاقة للقضاء على العدو، فبحسب هذا فإن الطعام المنتج أيضًا هدف مشروع، وإلا يجب على منتج الغذاء رفض السماح للعسكريين باستخدام طعامه، بما في ذلك الأستاذ المتميز الذي يشترك مع الجامعة في إنشاء البنية التحتية التكنولوجية في بلاده والتي تستخدم في النهاية للقضاء على قوات العدو أيضًا. يصبح هدفا مشروعا حسب تصوره، ومن الواضح أن جميع جيوش العالم تعتمد على القدرات التكنولوجية لبلادها لخلق التفوق التكنولوجي على العدو، وتستخدم الجيوش في الجانبين نفس المعالجات وأجهزة الاستشعار وغيرها من وسائل التكنولوجيا من جميع أنحاء العالم لتحسين قدراتهم العسكرية وهذا يشمل جميع شركات التكنولوجيا في العالم فهل تصبح جميعها هدفاً مشروعاً؟ أين هو الحد الفاصل بين المتورطين؟
    ولإضافة عنصر آخر من التعقيد، إذا افترضنا أن هناك موقفًا ستؤدي فيه القدرة التحليلية لنظام الذكاء الاصطناعي إلى تقليل الأخطاء البشرية وعمليات القتل غير المتورطين، على عكس وصفه، فهل سيستمر الأستاذ الموقر في معارضة أنظمة الذكاء الاصطناعي بأي ثمن، حتى لو ونتيجة لذلك سيتم قتل المزيد من الناس؟
    ليس من الواضح ما إذا كان الوصف أدناه فيما يتعلق بالأستاذ المتميز مناسبًا ولكن هناك فوائد ضخمة حقًا ولكن هناك أيضًا خطر مستقبلي حقيقي من قدرات الذكاء الاصطناعي ولكن قد يكون هناك أيضًا خطر من أن يتم "اختطاف" القدرة على التعامل مع تلك المشكلات.
    من خلال وجهات نظر عالمية أخرى غير أن هذا الخطر موجود في القمة، فإن وجهات نظر عالمية أخرى تدفعه.

ترك الرد

لن يتم نشر البريد الإلكتروني. الحقول الإلزامية مشار إليها *

يستخدم هذا الموقع Akismat لمنع الرسائل غير المرغوب فيها. انقر هنا لمعرفة كيفية معالجة بيانات الرد الخاصة بك.