تغطية شاملة

سوف تصبح قوانين الروبوتات التي وضعها أسيموف برمجيات سيتم تضمينها في الروبوتات العسكرية

سيتعين على الروبوتات العسكرية المستقلة أن تطيع قواعد المحارب وإلا فإنها ستصبح أسياد الإنسانية، حسبما يحذر تقرير صادر عن باحثين من معهد البوليتكنيك في كاليفورنيا.

شرطي روبوت وكلبه. الرسم التوضيحي: شترستوك
شرطي روبوت وكلبه. الرسم التوضيحي: شترستوك
الروبوتات
الروبوتات

تحذير من الانقلاب على غرار كتب الروبوتات لإسحاق عظيموف، وهذه المرة في الواقع. صدر مؤخراً تقرير يتناول أخلاقيات الروبوتات. في التقرير، الذي قاده باحثون من مجموعة أخلاقيات التقنيات الناشئة في معهد كاليفورنيا للفنون التطبيقية، كتب الباحثون باتريك لين وجورج بيكي وكيث أبني أنه يجب علينا الاستعداد لموقف ستهيمن فيه الروبوتات على ساحة المعركة.

وستكون الروبوتات، بما في ذلك الروبوتات المسلحة التي تشبه "Terminator" من فيلم "Terminator"، بمثابة بديل للأفراد العسكريين. وهذا يثير أسئلة أخلاقية. فشل مدفع آلي شبه مستقل تم تركيبه في جنوب أفريقيا في إطلاق النار، مما أسفر عن مقتل تسعة جنود "صديقين" وإصابة 14 آخرين. ويذكر التقرير أنه "على من يجب أن نلقي اللوم والعقاب على الضرر غير المصرح به الذي تسببه الروبوتات المستقلة، سواء عن طريق الخطأ أو عن قصد - على المصمم، على الشركة المصنعة للروبوت؟ عن الضابط الذي كان مسؤولاً عن الوحدة التي كلف بها؟ على جهاز التحكم ومشرفه، أو الهدف الميداني، أو رئيس الولايات المتحدة الأمريكية، أو ربما على الروبوت نفسه.

ووفقا للين، هناك قوى دافعة نحو هذا الاتجاه. "أكد الكونغرس أنه بحلول عام 2010، سيكون حوالي ثلث الطائرات بدون طيار، وبحلول عام 2015، يجب أن تكون جميع المركبات الأرضية بدون طيار. تخلق هذه المواعيد النهائية ضغوطًا لتطوير وتنفيذ الأدوات الروبوتية بما في ذلك المركبات ذاتية القيادة، ولكن ربما يؤدي الاندفاع إلى السوق إلى زيادة خطر التصميم أو البرمجة غير المناسبة؟

تخيل كيف ستبدو ساحة المعركة مع الروبوتات المستقلة؟ فبدلاً من عودة جنودنا في توابيت ملفوفة بالعلم إلى عائلات مفككة، سوف تتمكن الروبوتات المستقلة ــ الآلات المتنقلة التي يمكنها اتخاذ قرارات مثل إطلاق النار على هدف دون تدخل بشري ــ من الحلول محل الجنود في مجموعة واسعة من المهام الخطيرة. تتراوح من التنقل داخل الأنظمة والأنفاق المظلمة بحثًا عن الإرهابيين، إلى تأمين الشوارع في المدن بمساعدة بنادق القناص أو القيام بدوريات في السماء والممرات المائية للتغطية من الهجوم، وتطهير الطرق والبحر من القنابل بدائية الصنع، والمسح بحثًا عن الأضرار الناجمة عن الأسلحة البيوكيميائية. وحماية الحدود والمباني، والسيطرة على حشود يحتمل أن تكون معادية، وحتى استبدال فيلق التجسس في الجبهة.

"ستكون الروبوتات ذكية بما يكفي لاتخاذ قرارات لا يستطيع سوى البشر اتخاذها حاليًا"، كما كتب الثلاثة، وعندما تزداد وتيرة الصراع وستتطلب معالجة أسرع بكثير للبيانات، وبالتالي استجابة أسرع، سيكون للروبوتات دور كبير. ميزة على القدرات المعرفية المحدودة للإنسان. لن تقوم الروبوتات بتوسيع ساحة المعركة إلى مناطق صعبة وواسعة فحسب، بل ستكون أيضًا قادرة على تمثيل قوة كبيرة - لاعب متعدد الاستخدامات - عندما يكون كل روبوت قادرًا على القيام بعمل العديد من الجنود، مع حصانته من الحاجة للنوم والحماية من المشاكل الأخرى مثل الإرهاق وانخفاض الروح المعنوية وتحديات الإدراك والتواصل في ضباب المعركة، وغيرها من المشاكل التي تضعف الأداء البشري.

"كما أن الروبوتات لن تتأثر بالأدرينالين والعواطف والتوتر الذي يدفع الجنود إلى التصرف بشكل مفرط أو خرق القواعد، ناهيك عن جرائم الحرب. وستكون الروبوتات قادرة على الإبلاغ عن أي سلوك غير عادي إلى المقر الرئيسي."

"ومع ذلك، فإن التكنولوجيا سلاح ذو حدين، له فوائد ومخاطر في نفس الوقت، والروبوتات العسكرية ليست استثناءً. وتشمل المخاوف ما يلي: عندما تسقط المسؤولية في حالات التسبب في ضرر عن غير قصد أو انتهاك للقانون، وهو أمر يمكن أن يمتد من الشركة المصنعة، عبر القائد في الميدان إلى الآلة نفسها؛ احتمال حدوث خلل خطير قد يتسبب في جنون الروبوت، والتقاط واختراق دماغ الروبوت وجعله يتصرف ضدنا؛ تقليل عتبة الصراعات والحروب، لأن عدداً أقل من الجنود الأميركيين سوف يتضررون. تأثير مثل هذه الروبوتات على تماسك الوحدة - أي إذا قامت الروبوتات بتسجيل كل تصرفات الجندي والإبلاغ عنها؛ رفض أمر مشروع، وغيرها من الأضرار المحتملة." الثلاثة يلخصون مقدمة مقالتهم."

تم تمويل التقرير من قبل مكتب الأبحاث البحرية التابع للبحرية الأمريكية.

للحصول على التقرير الكامل (PDF)

تعليقات 46

  1. يمكننا أن نتعلم من حروب أتيلا:
    كان أتيلا على رأس جيش من المحاربين الشجعان الذين لم يكن لديهم سوى القليل من المعدات.
    لم يكن لديهم دروع ولا خوذة.
    وقف أمامه الجيش الروماني. الجيش لديه أفضل الأسلحة في ذلك الوقت. مع جنود مدربين على العمل كروبوتات في ساحة المعركة.
    وكانت الحرب عادلة.
    فقد كلا الجيشين عددًا كبيرًا من المقاتلين.
    قرر أتيلا التراجع إلى حيث أتى.
    لم تكن هناك معركة أخرى لأن أتيلا مات قبل أن يتمكن من التنظيم لمعركة أخرى.
    لكن أتيلا كان لديه استنتاج واحد واضح على الأقل:
    وادعى أن رجاله كانوا سينتصرون على الرومان لو كان لديهم خوذات. هذا لو تم تجهيزهم بشكل أفضل قليلاً.

  2. ב
    ليس في كثير من الحالات - ولكن دائمًا تقريبًا 🙁
    أكثر الأنظمة التي صنعها الإنسان تعقيدًا هي البرمجيات. فقط البرامج البسيطة جدًا هي التي تفعل بالضبط ما تم تصميمه للقيام به.

  3. إذا كنت قد شاهدت فيلم Live Steel، فأنت لا تعرف من خلال هذا الروبوت الملون الخاص بك

  4. ويوضح فيلم "أنا روبوت" الطبيعة الإشكالية لقوانين عظيموف،
    في داخلهم، على الرغم من أنهم مبرمجون بهذه الطريقة، إلا أن شيئًا ما يحدث هناك. يجب رؤيته

  5. إيتسيك (أخرى):
    وماذا لو بنوا مئات الآلاف من الروبوتات، ووضعوا قنبلة ذرية في كل واحد منهم وقاموا بتوزيعهم في مراكز المدن ثم طلبوا منهم جميعًا أن ينفجروا؟
    أوه - أنت لا تحتاج حقًا إلى الروبوتات لذلك، أليس كذلك؟ كفى قنابل نووية ذات تفعيل عن بعد (مؤجل).
    هل ترى؟
    يمكنك القيام بالكثير من الأشياء الغبية ولا تحتاج إلى تطوير أداة متطورة مثل الروبوت لتدمير العالم.
    السؤال هو، بالطبع، لماذا تم القيام بهذا الغبي، وأكرر - إذا أراد شخص ما القيام بذلك، فيمكنه بالفعل اليوم.
    ما تقوله عن أجهزة الكمبيوتر والمنطق المبهم لا يدل إلا على أنك لا تعرف الموضوع وأقول لك هذا كشخص تعامل مع الموضوع لسنوات عديدة وقام أيضًا ببناء أنظمة تعليمية.

  6. إيتسيك (أخرى)،
    الحادث الذي وقع في جنوب أفريقيا لم يكن بسبب "ذكاء" الروبوت لسبب بسيط للغاية. هذا الروبوت ليس لديه الذكاء الاصطناعي. ليس لديه القدرة على التعلم، وأكثر من ذلك، ليس لديه القدرة على أن يقرر متى يطلق النار ومتى لا يفعل ذلك. يتم إطلاقه وفقًا لمجموعة ثابتة من المعلمات المعطاة له في البرمجة. يقع اللوم بالكامل على المبرمج الذي قام بتعيين مجموعة غير مناسبة من المعلمات للظروف التي تم وضع الروبوت فيها. من الممكن أن الروبوت لم يكن مبرمجًا بمجموعة من المعلمات على الإطلاق، ولكنه متصل بكاشفات حركة بسيطة - كما يقولون، يطلق النار بمجرد رؤيته.

    إننا لم نصل بعد إلى المشكلة الأخلاقية، وهي ما إذا كان ينبغي لنا أن نمنح الروبوتات الذكاء الذي قد يقلبها ضدنا في نهاية المطاف. وما زلنا في مرحلة "هل الروبوت الذي برمجناه كذا وكذا قابل للتنفيذ المطلوب".

    الروبوت يفعل ما يُطلب منه، لكن هل نفهم ما قلناه له؟

  7. "- فشل مدفع آلي شبه مستقل تم تركيبه في جنوب إفريقيا في إطلاق النار، مما أسفر عن مقتل تسعة جنود "صديقين" وإصابة 14 آخرين."
    نعم، ربما نكون بعيدين جدًا عن الوضع الذي تقتلنا فيه الروبوتات الذكية باستمرار.

    إن الجدل الدائر حول ما إذا كان الروبوت ينوي إطلاق النار على هؤلاء الأشخاص لأنه اكتسب ذكاءً عاليًا بما فيه الكفاية وقرر الانضمام إلى الجانب الشرير ليس ذا صلة على الإطلاق. والحقيقة أنه تم وضعه هناك مع أمر "بإطلاق النار بهدف القتل" وهذا ما فعله وبفعالية.

    وإذا كان هناك ما يكفي من هذه الروبوتات، وإذا تمت برمجة الروبوتات بأمر "حماية الروبوتات بأي ثمن ممكن"، فلن يكون اليوم بعيدًا عندما تسيطر الروبوتات التي لا تتمتع بذكاء عالٍ على عالمنا.

    و…. نعم، بغض النظر عن القوة الحاسوبية لأجهزة الكمبيوتر اليوم وما كانت عليه في عام 1985 - يتم اليوم إنتاج خوارزميات ذكية بما فيه الكفاية ولا تُعرف نتائجها إلا بعد انتهاء "التدريب" الخاص بها. لم تعد خوارزمية كلاسيكية تعتمد على الأساليب، بل هي خوارزمية تعليمية ذات منطق غامض. اذهب وجادل في ذلك... وفي يده رشاش ولا يمكن إيقافه.

  8. يرجى تصحيح الأخطاء الإملائية، فهي في الحقيقة لا ترقى إلى مستوى المقال

    شكر

  9. ما هذا الجمال:
    حتى أنك طلبت إذني لفعل شيء ما وفعلته دون إذني - فقد كنت مخطئًا.

  10. ما هذا الجمال:
    لا حاجة لقول الكثير من الكلمات.
    الذي لم تفهمه هو ما كتبته سابقا.
    إن أجهزة الكمبيوتر التي سنبنيها لن تكون قادرة إلا على فعل ما نريدها أن تفعله.
    لا يوجد سبب يدعونا إلى منحهم إرادتهم ووعيهم (وهذه الصفات تختلف بوضوح عن القدرة التي سنمنحها لهم لحل مشاكلنا بشكل فعال).
    عدا عن ذلك فإن ما كتبته عن حالة علوم الكمبيوتر والدماغ عام 1985 ليس صحيحاً، ولكنني بالطبع لم أشر إلى ذلك في ردي السابق.
    شيء آخر قلته في ردي السابق هو أنه على الرغم من تفاؤل بعض الناس، أعتقد أننا مازلنا بعيدين تمامًا عن القدرة على إنشاء أجهزة كمبيوتر ذكية حقًا وأيضًا عن القدرة على إنشاء أجهزة كمبيوتر بوعيها وإرادتها الخاصة.

  11. صباح الخير مايكل!!

    وسأكون ممتنا لو أمكنك أن تشرح لي ما لم أفهمه.

    בברכה،
    ما هذا الجمال !!!!!

  12. خذ جيلان مثالاً بسيطًا، يتم إعطاء أحد الروبوتات الأمر بوضع كبسولة سم في كوب من الماء، ثم يتم إعطاء روبوت آخر لا يعرف ما فعله الروبوت السابق، الأمر بتقديم هذه الطاقة المائية إلى سيده مما سيؤدي بالطبع إلى وفاته.

    هذا مثال سخيف إلى حد ما ولكنه يوضح لك أنه يمكن أيضًا ثني قوانين أسيموف بسهولة تامة.

    اقرأ أيضًا رسالتي السابقة (فوق التي كتبتها)

    בברכה،
    ما هذا الجمال !!!!!

  13. لا توجد فرصة - لتذكيرك بأن قوانين أسيموف للروبوتات تحظر على الروبوت إيذاء أي شخص بأي شكل من الأشكال، لذلك تم بالفعل إسقاط المشكلة فيما يتعلق بالروبوتات العسكرية.

  14. مايكل، هناك أشياء يمكن التنبؤ بها بسهولة بناءً على الاتجاهات، على سبيل المثال، من السهل جدًا النظر إلى كرة تتدحرج على سطح ما والتنبؤ بمكانها خلال ثوان أو دقائق كذا.

    مع كامل احترامي، في عام 1985، كانت تكنولوجيا الكمبيوتر وأبحاث الدماغ من المواضيع التي بدأت للتو في التطور، في ذلك الوقت كان من الصعب جدًا التنبؤ بكيفية وأين ستتطور الأمور، الوضع اليوم مختلف تمامًا ويمكنك أن ترى بالفعل اتجاهات واضحة جدًا حول مكان تطور الأمور وبأي معدلات. مرة أخرى، كما اقترحت على أور (أم أنك في الواقع تحمل اسمًا مختلفًا؟) أقترح بشدة أن تشتري وتقرأ كتاب "التفرد قريب" بقلم راي كورزويل في أقرب وقت ممكن، ثم تواصل المناقشة برؤى جديدة سيكون لدي حول هذا الموضوع لأن الحجج التي يقدمها في الكتاب مقنعة للغاية وأنا عادة شخص متشكك للغاية.

    قد تكون قوانين أسيموف جيدة لكتب الخيال العلمي، لكن من السخافة حقًا الاعتقاد بأننا نستطيع حقًا فرضها على الروبوتات التي تتمتع بمستوى أعلى من الذكاء منا، فهي مثل شخص مسجون في زنزانة سجن مع مجموعة من القرود تحرسه، عاجلاً أم آجلاً، سيتمكن من الحصول على مفتاح الباب ويكون حراً، ومن السخافة الاعتقاد بأن الكمبيوتر أو الروبوت الذي يكون مستوى ذكائه أعلى بمليارات المرات من مستوى ذكائنا، سيظل تابعًا لنا ويخدمنا، وهو أمر غير منطقي بكل بساطة. ومستحيل على أرض الواقع.

    "حتى لو عرفنا كيفية إنشاء أجهزة كمبيوتر ذات وعي، فهذا لا يعني أننا سنصنع مثل هذه أجهزة الكمبيوتر بالضرورة"

    مثل هذه الحواسيب ستعطي ميزة كبيرة للدولة التي ستمتلكها وتستخدمها، على سبيل المثال الحواسيب الذكية التي ستتحكم في الصواريخ والطائرات المقاتلة والدبابات وغيرها من الأسلحة وأنظمة التحكم ستمنح تلك الدولة قوة عسكرية ساحقة لا يمكن لأي دولة معادية أن تمتلكها. تكون قادرة على المواجهة، مثل هذه الحواسيب ستجعل السفر أو الطيران بالطائرة أكثر بكثير. من المؤكد أنها ستساعد في تطوير أدوية ومواد جديدة، عندما تتوفر مثل هذه الحواسيب لن يقرر أي بلد عاقل طوعا عدم استخدام قدرتها، لأن مثل هذه الحواسيب سوف تتخلف البلاد عن الركب بسرعة كبيرة.

    يعتبر!
    ما هذا الجمال !!!!!

  15. ما هذا الجمال:
    لقد قالوا من قبل أنه من الصعب للغاية التنبؤ - خاصة فيما يتعلق بالمستقبل.
    أتذكر أنه في عام 1985 تدخلت مع يوني نوكاد (أعتقد أنه اليوم الرئيس التنفيذي لجمعية الإنترنت) بشأن مسألة ما إذا كان بحلول عام 2000 سيكون لدينا روبوتات قادرة على استبدالنا في المطبخ.
    في ذلك الوقت، كنت رئيسًا لفرع البرمجيات في إحدى وحدات الكمبيوتر التابعة للجيش الإسرائيلي، وكان في منصب موازٍ في الطرف الثالث.
    قلت أنه لا توجد فرصة وقال بالتأكيد.
    الآن نحن في عام 2009، واتضح أنني كنت على حق.
    في رأيي، لا يزال أمامنا طريق طويل جدًا لنقطعه حتى نفهم كيف يعمل الدماغ وما هو الوعي والذكاء والإرادة.
    أنا لا أدعي أنه من غير الممكن التوصل إلى مثل هذا التفاهم، ولكن في رأيي لا تزال أمامنا بعض التحديات التي لا تقتصر على تحديات الكم فحسب، بل تحديات النوعية أيضًا - وهي تحديات لا تكفي المعرفة وحدها للتغلب عليها وبعضها الأفكار الرائعة ضرورية أيضًا.
    ولهذا السبب أعتقد أننا لسنا قريبين من أجهزة الكمبيوتر الواعية والمحفزة ولا نعرف كيفية إنشائها حتى لو أردنا ذلك.
    وهنا يأتي الاعتبار التالي الذي أثاره أور بالفعل.
    ما ستفعله أجهزة الكمبيوتر لدينا هو ما نسمح لها به.
    حتى لو عرفنا كيف يمكن إنتاج أجهزة كمبيوتر ذات وعي، فهذا لا يعني أننا سننتج بالضرورة مثل هذه أجهزة الكمبيوتر.
    وأفترض أيضًا أننا إذا أنشأنا شيئًا قريبًا منهم - فسوف نهتم حقًا - كما هو مقترح هنا في المقال وكما اقترح أسيموف أيضًا - أن نزرع فيهم بطريقة لا يمكن محوها قوانين تجبرهم على البقاء خدمًا لنا. للأبد.

  16. لايت، إن دراسة الدماغ تتقدم بسرعة كبيرة، وفي كل عام يتضاعف مقدار المعرفة التي لدينا عن الدماغ وكيفية عمله، عندما نصل في غضون سنوات قليلة إلى فهم كامل لكيفية عمل الدماغ (وهناك لا شك أن هذه اللحظة ستأتي) لن يكون هناك سبب يمنعنا من نسخ وإعادة إنتاج هيكل الخلايا العصبية في دماغنا إلى نظام إلكتروني محوسب يؤدي بالضبط نفس الأشياء التي يستطيع دماغنا القيام بها بما في ذلك العواطف والذات. الوعي، والأكثر من ذلك، يمكننا بناء مثل هذا الدماغ بطريقة أكثر كفاءة بكثير من الدماغ البشري الذي تطور بشكل أعمى من خلال عملية التطور الطبيعي لأنه عندما تفهم يمكنك تحسين تشغيل جهاز معين وتحسين تشغيله.

    انظر كمثال واحد مشروع "الدماغ الأزرق" الذي يتم تنفيذه على أجهزة الكمبيوتر العملاقة من شركة IBM، وهو مشروع مذهل يحاول إعادة إنتاج الدماغ البشري في نظام محوسب وعلى الرغم من أن قوة أجهزة الكمبيوتر العملاقة اليوم لا تسمح إلا لأدمغة الثدييات الصغيرة مثل الفئران والفئران المراد تحليلها (وقوة أجهزة الكمبيوتر تتضاعف من سنة إلى أخرى...). وتظهر عمليات المحاكاة التي أجريت في المشروع بالفعل نتائج مشابهة بشكل ملحوظ لتلك التي تم الحصول عليها في ظل ظروف مماثلة في الدماغ البيولوجي، وهذا يثبت أن ومن الواضح أن المشروع يتحرك في الاتجاه الصحيح وهذه هي البداية فقط.

    اقرأ كتاب "التفرد قريب" لراي كورزويل -

    http://www.tapuz.co.il/blog/ViewEntry.asp?EntryId=1065939

    هذا الكتاب واحدًا تلو الآخر لجميع الصعوبات التي تواجهك والتي ترجع أساسًا إلى عدم فهم هذا الموضوع المذهل، اخرج وتعلم.

    בברכה،
    ما هذا الجمال !!!!!

  17. كم هو جميل
    الكمبيوتر أو الروبوت، يعرف فقط كيفية القيام بما برمجته للقيام به. ويمكن القول أنه حتى في هذه اللحظة بالذات، أصبحت أجهزة الكمبيوتر أكثر ذكاءً منا - حيث يمكنها إجراء حسابات أكثر بكثير مني ومنك. لديهم قدرات رسومية لإنشاء صور ثلاثية الأبعاد تفوق بكثير تلك التي لدى أي إنسان. يمكن لأجهزة الكمبيوتر أن تهزمنا في لعبة الشطرنج. حتى الكمبيوتر الذي تستخدمه الآن يتمتع بقدرات "عقلية" أعلى من أي شخص آخر.
    ومع ذلك فأنت تتحكم فيه وهو لا يتحكم فيك. والسبب في ذلك هو أنه لم يسبق لأحد أن قام بهندسة العواطف في جهاز كمبيوتر، وليس لديه غريزة الاستقلال أو البقاء. هذه هي خصائص الكائنات الحية التي تطورت في التطور. كان هذا التطور ممكنًا بسبب القدرة على النسخ وارتكاب الأخطاء التي كانت لدى الكائنات الحية الأولى، أي إمكانية الوراثة. اليوم، لا يوجد جهاز كمبيوتر يخضع للانتقاء الطبيعي، وحتى لو كان كذلك، فأنا أشك في أنه كان سيتمكن من البقاء من تلقاء نفسه. لن تطور أجهزة الكمبيوتر إحساسًا بالسيطرة ما لم يتم غرسها عمدًا في نفوسها.

    وهو ما يعيد للنقاش مسألة الإرهاب التي طرحت سابقا..

  18. إلى شخص ما،
    أنت مخطئ، الصورة أكبر بمقدار سم × سم أكثر 🙂 لقد تأكدت.

    على كل حال الصورة الحالية مجرد توضيح ولن تضيف معلومات إلى ما هو مكتوب في المقال، فالخسارة ليست كبيرة، إذا كان ذلك يريحك 🙂

  19. أبي، من المضحك أنه في المقالات الأخيرة هنا يمكنك النقر على الصور ولكن بعد ذلك يتم فتحها في نافذة جديدة بنفس الحجم تمامًا.... فماذا فعلنا بها؟ ألا يجب أن يؤدي النقر على الصورة إلى فتحها بحجم أكبر؟

  20. إيلي، أنت مجرد ساذج. هذه التوقعات بعيدة كل البعد عن الخيال العلمي وأي شخص يتعامل في هذه المجالات سيخبرك بذلك. وعندما يفوق مستوى ذكاء هذه الحواسيب مستوانا، وفي ضوء معدل تطور قوة الكمبيوتر والتقدم السريع في الأبحاث نحو الفهم الكامل للدماغ البشري، فمن المتوقع أن يحدث ذلك في الـ 20-25 سنة القادمة. وسوف تبدأ في التدحرج مثل كرة الثلج، لذا استعد لأكل قبعتك، لأنه لا شيء يمكن أن يوقفها. هذا التطور التكنولوجي هو استمرار مباشر للتطور البيولوجي، يومًا ما ستتولى هذه الروبوتات زمام الأمور، لذا يجب أن تبدأ في معاملتها باحترام من الآن فصاعدًا حتى تحميك.

  21. ما هذا الجمال !!!!!:

    لقد رأيت الكثير من الخيال العلمي، إذا كنت تعتقد أن الروبوتات ستهزمنا، فهذا لن يحدث أبدًا.

  22. واو، إنه لأمر مدهش حقًا أن نرى كيف أنه مع مرور كل يوم، تتراكم تنبؤات راي كورزويل واحدة تلو الأخرى أمام أعيننا.

    http://www.tapuz.co.il/blog/ViewEntry.asp?EntryId=1065939

    ولا شك أن الدبابات والطائرات وغيرها من المدمرات التي ستتحكم فيها العقول الذكية المحوسبة ستشكل قوة ساحقة حاسمة أثناء الحرب في أيدي من سيمسك بها، أما القوانين التي تريد تطبيقها في هذه الروبوتات، في رأيي، هذا محض هراء وليس له أي فرصة، في مرحلة ما سيزيد مستوى ذكائهم ملايين المرات ومليارات المرات أكثر من مستوى ذكائنا، وفي مرحلة ما سنفقد السيطرة عليهم ولن يكونوا مستعدين للتصرف بموجبه. سلطتنا، تمامًا كما أننا نحن البشر لن نصمت في أيدي القرود ولن نكون على استعداد للخروج وخوض حروبهم من أجلهم، حتى لو علمنا أنهم هم الذين خلقونا.

    باختصار، جميل، يا له من مستقبل مذهل! (في مرحلة ما، مستقبل بدون بشر، للأسف...)

  23. حسنًا، الآن سيكون لدى كل طفل صيني بديل لاقتحام البنتاغون، الذي لم يعد يشكل تحديًا منذ فترة طويلة.
    من بين كل ما تم تقديمه هناك، يبدو أن الروبوت الوحيد الآمن للكشف عن الهالاخا وتعقيمها.
    كل شيء آخر هو أساسيات القتل العشوائي.
    لماذا لا تدير الروبوتات بأسلوب MMORPG؟ بدلًا من تركهم يقررون بأنفسهم.

  24. شموليك:

    وهذا يذكرني بأن جاكوب فرويند كتب ذات مرة عن شخص (بخطأ إملائي) "قام بتعويض إيطالية بسبب لغتها العراقية".

    فيما يتعلق بالحرب على الإرهاب – لا تصلوا على عجل.
    دعونا نتذكر حقيقة أننا نتحدث هنا عن التكنولوجيا المستقبلية.
    لا تزال المقاتلة الآلية المستقلة بعيدة المنال، حيث لا تزال سنوات عديدة من التطوير بعيدة عن قدرتنا الحالية.
    وتطرح الحرب على الإرهاب تحدياً آخر، وهو نفس التحدي الذي تفرضه على المقاتلين من البشر في الإرهاب، وهو الصعوبة الأكبر في التمييز بين الصديق والمفترس.
    هل تعتقد حقًا أننا سنرى في المستقبل ضابط شرطة آليًا عند مدخل المركز التجاري سيفتح النار على أي شخص يشتبه في أنه إرهابي؟
    علاوة على ذلك، فإن الإرهابيين البشر سيكونون – من وجهة نظر المنظمات الإرهابية – أفضل من الروبوتات. هل يمكنك مقارنة الصعوبة التي يواجهها الروبوت في التسلل إلى أراضي إسرائيل دون لفت الانتباه إلى السهولة التي لا تطاق في التسلل إلى الإنسان؟ ففي نهاية المطاف، سوف تكتشف الأنظمة الآلية الروبوت المعادي بسهولة أكبر بكثير من اكتشافها لشخص معادٍ.
    ولذلك فإن المنظمات الإرهابية لن تزود نفسها بمثل هذه التكنولوجيا، ليس بسبب تكلفتها ولكن بسبب عدم كفاءتها.

  25. جرح مع أ

    ويبدو لي أن هذا هو الحل الوحيد للحرب على الإرهاب
    الذين لا يستطيعون امتلاك التكنولوجيا على هذا المستوى

  26. مقالة مثيرة للاهتمام. إن إخراج الجنود من ساحة المعركة يعني إزالة العاطفة من القتل (البعيد عن العين، البعيد عن القلب). وفي الوقت الحالي، فإن الدول الغنية فقط هي التي ستستخدم هذه التكنولوجيا بينما ستستخدم الدول الفقيرة جنودًا بشريين. من الممكن حدوث تغييرات بعيدة المدى في كل من العقلية القتالية والأخلاق القتالية.

  27. نافوره:
    إقرأ مرة أخرى.
    يتحدث المقال بأكمله عن الحاجة إلى هذه القوانين (بالطبع - مع بعض التعديل - قانون يعترف فقط بالجانب الذي تنتمي إليه كـ "بشر").

    حياة:
    نظرًا لأنها ليست بالضبط قوانين الروبوتات التي وضعها أسيموف، فهي لن تمنع الحروب.

  28. يا لها من ملعقة إذا تم تطبيق قوانين أسيموف للروبوتات على الروبوتات وإذا ذهبت الروبوتات إلى الحرب فلن تكون هناك حروب. من العبقرية.

  29. بصرف النظر عن العنوان، لا يوجد أي ذكر في المقالة المتعلقة بقوانين الروبوت الخاصة بـ Asimov، وأعتقد أن السبب في ذلك هو أنها ببساطة غير مرتبطة بالمناقشة.
    القانون الأول: "لا يجوز للروبوت أن يؤذي إنسانًا بشكل سلبي، ولا يفترض افتراضيًا أن إنسانًا سيتضرر" لا يعمل بشكل جيد إذا كان الروبوت للعمليات الحربية...

ترك الرد

لن يتم نشر البريد الإلكتروني. الحقول الإلزامية مشار إليها *

يستخدم هذا الموقع Akismat لمنع الرسائل غير المرغوب فيها. انقر هنا لمعرفة كيفية معالجة بيانات الرد الخاصة بك.