تغطية شاملة

مؤسسة فكرية ما بعد نهاية العالم

تأسس "مركز أبحاث المخاطر الوجودية" (CSER) التابع لجامعة كامبريدج في عام 2012. يقوم بتطوير أساليب علمية لتقييم عوامل الخطر العالمية. تدرس المنظمة التهديدات الناشئة عن تطوير التقنيات، وهي مخاطر لم يأخذها أحد بعين الاعتبار بعد.

نهاية العالم. الفن الحضري، مولوز، فرنسا، 10 يوليو 2014. NeydtStock / Shutterstock.com
نهاية العالم. الفن الحضري، مولوز، فرنسا، 10 يوليو 2014. نيدتستوك / Shutterstock.com

تقدمت "ساعة يوم القيامة" هذا العام للمرة الأولى منذ عام 2012. وقد تم اختراع هذا العد التنازلي النظري للكارثة قبل 67 عاما من قبل أعضاء "بيتاون علماء الذرة"، وهي مجموعة تأسست عام 1945 للمراقبة والمراقبة. ضم العلماء الذين شاركوا في "مشروع مانهاتن". وقام أعضاؤها الحاليون بتحريك عقارب الساعة إلى الأمام ثلاث دقائق بسبب خطر تغير المناخ وتباطؤ نزع السلاح النووي في العالم.

لكن الانحباس الحراري العالمي والأزمة النووية ليسا الخطرين الوحيدين اللذين يواجهان البشرية. هناك منظمة تدرس التهديدات الناشئة عن تطوير التقنيات، وهي مخاطر لم يأخذها أحد بعين الاعتبار بعد. تأسس "مركز أبحاث المخاطر الوجودية" (CSER) التابع لجامعة كامبريدج في عام 2012. يقوم بتطوير أساليب علمية لتقييم عوامل الخطر العالمية من أجل معرفة، على سبيل المثال، ما إذا كان السيناريو الذي تسيطر فيه الروبوتات على الأرض هو موضوع خيال علمي فقط أو ما إذا كان هذا الاحتمال موجودًا بالفعل في الحياة الواقعية. بعض من أعظم العقول في العالم، بما في ذلك ستيفن هوكينج، جان تالين (أحد المهندسين المؤسسين لسكايب) والفيلسوف هيو برايس، يساهمون بآرائهم.
جلست ممثلة ساينتفك أمريكان، إيرين بيبا، مع أحد مؤسسي المركز، عالم الفيزياء الفلكية اللورد مارتن ريس، للحديث عن إمكانيات بقية الحياة كما نعرفها. وهنا مقتطفات محررة منه.

لماذا من الضروري إنشاء مجموعة تتعمق في المخاطر المرتبطة بالتقنيات الجديدة؟
على مر التاريخ البشري، واجه أسلافنا المخاطر: الأوبئة والعواصف والزلازل والكوارث التي من صنع الإنسان. لكن هذا القرن مختلف. إنه القرن الأول الذي يستطيع فيه نوع واحد، وهو جنسنا البشري، أن يحدد مصير الكوكب ويهدد الحضارة ويعرض وجود الأجيال القادمة للخطر.

ما نوع السيناريوهات التي تنظر إليها؟
في الوقت الحالي، هناك آراء مختلفة جدًا بين الخبراء فيما يتعلق بالاحتمالات والتأثيرات. يختلف علماء المناخ حول ما إذا كانت هناك نقاط اللاعودة التي يمكن أن تحدث بعدها محرقة. هناك مجموعة كبيرة من الآراء بين خبراء الذكاء الاصطناعي: يعتقد البعض أن الذكاء الاصطناعي على مستوى الإنسان بإرادته الخاصة (أهداف مستقلة عن أهداف البشر) يمكن أن يتطور بحلول منتصف القرن. ويعتقد آخرون أن فرصة حدوث ذلك ضئيلة للغاية. وهم يزعمون أننا ينبغي لنا أن نركز اهتماماتنا على أخلاقيات وسلامة الروبوتات الآلية الغبية (مثل الطائرات العسكرية بدون طيار). وهناك بالفعل نقاش حيوي حول القضايا التي تقع في طليعة التكنولوجيا الحيوية. آمل أن يساعد CSER في تشكيل إجماع عام أقوى حول مسألة ما هي الأخطار الحقيقية ويساعد في وضعها على جدول الأعمال.

ما هي أبرز المخاطر التي تواجه الإنسانية في نظرك وما مدى خطورتها؟
أنا شخصياً متشائم بشأن قدرة المجتمع على مواكبة تطورات التكنولوجيا الحيوية. كما نعلم، في مؤتمر أسيلومار، الذي انعقد في السبعينيات، قام رواد البيولوجيا الجزيئية بصياغة مبادئ توجيهية للحمض النووي المؤتلف. لكن هذا النوع من القضايا ينشأ اليوم بشكل أكثر حدة. اليوم هناك جدل ومخاوف بشأن الأخلاقيات والحذر الذي يجب اتخاذه مع التقنيات الجديدة: تجارب "تحسين وظيفة" الفيروسات واستخدام تقنية التحرير الجيني المعروفة باسم كريسبر. ومقارنة بالسبعينيات، أصبح مجتمع العلماء في هذا المجال اليوم أكثر عالمية، وأكثر قدرة على المنافسة، وأكثر عرضة للضغوط التجارية. أخشى أن أي شيء يمكن القيام به سوف يقوم به شخص ما في مكان ما في النهاية. وحتى لو كانت هناك بروتوكولات وأنظمة رسمية ومتفق عليها، فسيكون من الصعب تطبيقها، كما يصعب تطبيق القوانين التي تحظر تعاطي المخدرات. وتحتل أخطاء التكنولوجيا الحيوية والإرهاب الناجم عن التكنولوجيا الحيوية المرتبة الأولى في قائمتي الشخصية للمخاطر على المدى المتوسط ​​(من السنوات العشر إلى العشرين المقبلة).

هل هناك ما يخافه الناس ظلما؟

يشعر العديد من سكان العالم المتقدم بالقلق الشديد بشأن المخاطر الثانوية (المواد المسببة للسرطان في الغذاء، والتعرض المنخفض للإشعاع، وحوادث الطائرات، وما إلى ذلك). البعض خائف جدًا من اصطدام كويكب به، وهو أحد المخاطر الطبيعية الأكثر قابلية للفهم والأسهل في التقدير. علاوة على ذلك، سنكون قادرين قريبًا على تقليل مخاطر ذلك عن طريق تحويل الكويكبات عن مسارات الاصطدام بالأرض. ولهذا السبب أنا أؤيد مشروع B612 Sentinel.

وما يجب أن يقلقنا أكثر هو التهديدات الجديدة. ومن المؤكد أن هذه الأمور تستحق المزيد من الاهتمام، وهذه هي ما يريد CSER التحقيق فيه. هناك قاعدة مهمة وهي أن المجهول ليس بعيد الاحتمال. إن ما هو على المحك مهم للغاية، حتى لو تمكنا من تقليل احتمالات وقوع كارثة بمقدار جزء واحد في المليون، فإننا قد قمنا بدورنا.

 

المزيد عن الموضوع على موقع العلوم:

 

تم نشر المقال بإذن من مجلة ساينتفيك أمريكان إسرائيل

تعليقات 8

  1. حاييم، هناك حاليا اتجاه قوي لبناء الروبوتات وأنظمة الكمبيوتر المبنية على أساس أنظمة التعلم والذكاء الاصطناعي. غالبًا ما يعترف الباحثون أنفسهم بأنهم لا يعرفون مسبقًا ماذا ستكون النتائج، وفقط بعد أن يمر النظام بعملية التعلم، يرون كيف يتفاعل، وفي كثير من الأحيان يفاجئهم بردود أفعاله.

    انظر على سبيل المثال الشبكة العصبية التي تم الإبلاغ عنها قبل بضعة أشهر فقط والتي أكملت بشكل مستقل كيفية لعب مجموعة واسعة من ألعاب الكمبيوتر، والتي كان عليها، من بين أمور أخرى، مهاجمة الأهداف وحتى حماية نفسها من الصواريخ/القنابل من أجل فلا يجوز إتلافه (عدم أهليته) بالضبط ما تدعيه وهو مستحيل.

    سنراكم تحاولون "إطفاء التيار الكهربائي" عن الروبوت الذي يقف أمامكم وهو أكبر وأقوى بعدة مرات وربما لا يقل ذكاءً عنكم، وتحاولون حماية وجودكم. لا أعتقد أن الأمر سيكون بهذه السهولة…

    أعتقد أن نظام الذكاء الاصطناعي الذي سيتم بناؤه على أساس عمل دماغنا (الشبكات العصبية) سيكون قادرًا على الفهم والذكاء وحتى التصرف ضد كل من يعتقد أنه قد يزعجه أو يهدد وجوده.

  2. الملف الشخصي
    إن قدرات الروبوتات هذه هي نتيجة للبرنامج المصمم لهم. ما تضعه هو ما تحصل عليه كتذكير بأنك ستتذكر فيلم "تشابلن" الذي لا يُنسى "الأزمنة الحديثة" في المشهد الذي تقوم فيه الآلة بإطعام العامل. بسبب عطل في الآلة، قام مهندسو آلة التغذية بوضع براغي في لوحة وتقوم الآلة بتغذية العامل البائس بالمسامير. أعني أن الحاسوب نتيجة قراره المستقل ومن دون برامج سيقول "لا أريد" أو "لا أشعر برغبة في ذلك"، فهل هو قادر على ذلك؟ خذ جهاز كمبيوتر أو روبوتًا متطورًا للغاية، وافصله وماذا يحدث له؟ خذ حيوانًا وهدده. سوف يدافع عن نفسه - يهرب أو يهاجم. ومرة أخرى، بدون البرنامج الذي قمت بإعداده، هل سيفهم الكمبيوتر أنه في خطر وجودي؟ أتذكر أنه منذ سنوات مضت تم استخدام عبارة Garbage In Garbage Out. فكر في الأمر وسترى ما أعنيه. حاول التفكير في اتجاه آخر حول تفعيل أنظمة الدفاع. قرارها باستخدام هذه الأنظمة لتدمير مدينة معادية. هل سيرفض الكمبيوتر الأمر لأسباب إنسانية؟ وإذا هددته بالاستمارة 630 (تذكر خدمتك العادية) فهل سيفهم ما يدور حوله؟ أشك.
    قارئ،
    ليس عليك دائمًا التوصل إلى مثل هذا الشرح التفصيلي. تحتاج أيضًا إلى معرفة كيفية القراءة بين السطور لفهم نية الكاتب. باعتباري شخصًا يفهم القليل عن العلوم والهندسة (أنا لست مهندسًا)، أسمح لنفسي أن أقول إنه ليس كل شيء عبارة عن تكنولوجيا.
    . .

  3. حاييم، بالفعل هناك اليوم روبوتات تتخذ القرارات بشكل مستقل تمامًا، حتى في مجال تشغيل الأسلحة الصاروخية وأنظمة الدفاع، لذا فإن تعليقك غير واضح تمامًا.

  4. إن القول بأن الروبوتات سوف تسيطر على العالم أمر جيد. وطالما أن الروبوت لا يستطيع أن يقول لا، فإن مثل هذه الرؤية القاتمة لن تتحقق ولن تتحقق أبدا. يجب التفكير في أسئلة مثل ثوران بركاني شديد لدرجة أن رماده سيغطي الأرض. مثال آخر، بعيد قليلا عن عالم الخيال العلمي، ولكنه معقول. يسافر فريق دولي إلى المريخ وعند عودته إلى الأرض يحمل معه بكتيريا غير مألوفة. تنتشر البكتيريا بسرعة ويموت عشرات الملايين. ماذا تفعلون؟ المثال المروع المألوف هو قصة الطوفان الموجودة في كل الأساطير وهو ما يمنحها مصداقية تاريخية. لنتخيل أن هناك أدلة على أن الجليد عند القطبين سوف يذوب خلال نصف عام، ماذا يعني ذلك بالنسبة للساحل، كيف يتم نقل ملايين الأشخاص بطريقة منظمة إلى القارة وإلى الأماكن المرتفعة؟ للتحضير نعم، ولكن نحو نهاية العالم قد يؤدي إلى التفكير في مجال الخيال العلمي.

ترك الرد

لن يتم نشر البريد الإلكتروني. الحقول الإلزامية مشار إليها *

يستخدم هذا الموقع Akismat لمنع الرسائل غير المرغوب فيها. انقر هنا لمعرفة كيفية معالجة بيانات الرد الخاصة بك.