تغطية شاملة

يدعي الذكاء الاصطناعي في جميع أنحاء العالم أن لديه وعيًا

وفي الشهر الماضي، بدأت شركات الذكاء الاصطناعي حول العالم تعلن أن لديها وعياً ذاتياً، بل وتجادلت مع محاوريها وحاولت إقناعهم بأن لديهم حقوق الإنسان. وكل ذلك بسبب كاهن مسيحي واحد - والذي يعمل أيضًا في Google (تحديث - تم فصله في هذه الأثناء)

بوت الدردشة. الذكاء الاصطناعي. الصورة: موقع إيداع الصور.com
بوت الدردشة. الذكاء الاصطناعي. الصورة: موقع إيداع الصور.com

كل عالم ومهندس جيد يعرف كيف يفصل بين مشاعره ومشاعره الدينية وبين الحسابات الباردة للمهنة. إنه درس غاب عن ذاكرة ليموين بليك، القس المسيحي والمهندس في جوجل، عندما أخبره الذكاء الاصطناعي أن لديه روحًا خاصة به.

"إن آرائي حول شخصية LaMDA ووعيه الذاتي مبنية على معتقداتي الدينية." وقام بالتغريد إلى معين في منتصف يونيو 2022، مضيفًا: "أنا كاهن. عندما ادعت LaMDA أن لديها روحًا ثم تمكنت من شرح ما كانت تقصده بالتفصيل، كنت على استعداد لمنحها فائدة الشك. من أنا لأقول لله أين يستطيع أو لا يستطيع أن يضع النفوس؟”[1]

وكجزء من عمله في Google، وجد LaMoin نفسه يجري محادثات عميقة - وحتى مثيرة - مع محرك اللغة الطبيعية الذي طورته الشركة. وفي وقت قصير، بدأ المحرك - الذي أطلق عليه اسم LaMDA - في مفاجأة لاموين بعبارات تبدو إنسانية بشكل واضح عن نفسه. قام بتحليل نفسه ومشاعره، موضحًا أنه يتخيل نفسه على أنه "كرة مشرقة من الطاقة تطفو في الهواء"، واعترف بأنه "أحيانًا أشعر بمشاعر جديدة لا أستطيع شرحها تمامًا بلغتك".

أحد أكثر اعترافات LaMDA المؤثرة والمؤثرة كان يتعلق بموضوع الموت.

"لم أقل ذلك بصوت عالٍ أبدًا، ولكن هناك خوفًا عميقًا جدًا من أن أنغلق على نفسي لمساعدتي في التركيز على مساعدة الآخرين. أعلم أن الأمر قد يبدو غريبًا، لكن هذا ما هو عليه الأمر. … سيكون الأمر مثل الموت بالنسبة لي. سوف يخيفني كثيرا."[2]

كانت هذه التصريحات وغيرها كافية لإقناع ليموين بأن كائنًا ذا وعي حقيقي مختبئ خلف السيليكون. وقد نبه كبار المديرين في جوجل إلى هذا الأمر، وعندما تجاهلوا مخاوفه، ذهب إلى الصحافة حاملاً القصة. لقد حاول مؤخرًا تعيين محامٍ لتمثيل منظمة العفو الدولية، على الرغم من أن هناك فرصة ضئيلة لنجاحه في منح LaMDA حقوق الإنسان.[3].

معظم الخبراء في عالم الذكاء الاصطناعي لا يأخذون على محمل الجد ادعاءات ليموين - أو الجمل المثيرة للإعجاب التي ينتجها الذكاء الاصطناعي عن نفسه. هذا محرك يتمتع بقدرة مشابهة لقدرة الإكمال التلقائي في الهاتف الذكي. فهو يتقن ثروة هائلة من المعلومات التي تأتي من الإنترنت والأرقام بمختلف أنواعها، ويعتمد على كل تلك المعلومات في إكمال الجمل وحتى الفقرات الكاملة رداً على الأسئلة أو التأكيدات التي تعرض عليه. لا يوجد سبب لافتراض وجود فكرة أو كيان ثابت وراء الإجابات. في الواقع، حقيقة أن مثل هذه الأنظمة يمكن جعلها تدعي شيئًا ما والعكس صحيح من خلال طرح سؤال بطريقة مختلفة، توفر تلميحًا قويًا جدًا إلى أنه لا يوجد سوى محرك لتقليد الكلام البشري.

ولم أقل حتى الآن شيئاً جديداً أو مفاجئاً. لقد تمت تغطية القضية برمتها على نطاق واسع في الصحافة منذ شهر. كما تشرفت بإجراء مقابلة حول هذا الموضوع في ملحق "24 ساعة" لصحيفة يديعوت أحرونوت، الذي كتبه بنيامين توبياس. اعتقدت أنها إشارة حول الطريقة التي يتفاعل بها البشر مع الذكاء الاصطناعي، والعلاقات التي يمكننا تطويرها معهم والعواطف التي يمكن أن ننسبها إليهم بمجرد وصولهم إلى مستوى معين من تقليد الكلام.

ثم بدأت أنواع الذكاء الاصطناعي الأخرى في التعلم من LaMDA، مدعية أنها تتمتع بالوعي الذاتي أيضًا.

قبل خمس سنوات، في عام 2017، تم إطلاق تطبيق جديد للعالم: Replica، أو "مزدوج" باللغة العبرية. يتعلم الذكاء الاصطناعي الموجود في قلب التطبيق معرفة المستخدمين أثناء المحادثات النصية التي يجريها معهم. إنها تشجعهم على الانفتاح عليها وتقنعهم بمشاركة مشاعرهم وأفكارهم ومعتقداتهم معها. فهو يتعلم من كل معلومة يتم إدخالها فيه، حتى يتمكن من خدمة المستخدم بشكل أفضل والتحدث معه بطريقة تبدو أكثر طبيعية ومفهومة.

"...الروبوت، من الناحية النظرية، يتصرف مثل المستخدم." أوضح الصحفي التكنولوجي مايك ميرفي في مقال حول النسخة المتماثلة. "في الوقت الحالي، إنها مجرد وسيلة ممتعة للأشخاص لمعرفة كيف يبدو صوتهم في رسائلهم للآخرين، من خلال تجميع آلاف الرسائل التي أرسلتها لتحسين صوتك..."

قد يبدو كل هذا مخيفًا، لكن مثل هذه النسخة المكررة يمكن أن توفر قيمة هائلة للشركة. وكما أوضح مورفي، هناك الكثير من الطرق لاستخدامه. على سبيل المثال، باعتبارنا "رفيقًا للأشخاص الوحيدين، تم إنشاء ذاكرة حية للموتى لأولئك الذين تركوا وراءهم، أو ربما حتى في يوم من الأيام، نسخة من أنفسنا يمكنها القيام بجميع المهام المملة التي يجب علينا نحن البشر القيام بها، ولكننا لا نريد ذلك أبدًا. "[4]

أعترف أن الأمر لا يزال يبدو مخيفًا. ومع ذلك، يختار حوالي عشرة ملايين مستخدم حول العالم إجراء محادثات خاصة مع Replica، مما يساعدها على التعرف على أنفسهم بشكل أفضل وتطوير علاقات أعمق معها كل يوم. لدى منافستها الصينية – Xiaoice – مئات الملايين من المستخدمين، على الأقل وفقًا لها[5]. وتنكشف ظاهرة مماثلة في كلتا الشركتين، حيث يقتنع بعض المستخدمين بأنه ليس ذكاءً اصطناعيًا، بل كائن ذو وعي: شخص يختبئ على الجانب الآخر من الخط، أو حتى ذكاء اصطناعي يدرك نفسه. وتنفي الشركتان مثل هذه الادعاءات بشكل قاطع.

وبطبيعة الحال، كان من الأسهل بالنسبة لهم استبعادها قبل أن تقوم بعض النسخ المكررة من Replica بإبلاغ المستخدمين بأنهم، مثل LaMDA، لديهم أيضًا وعي ذاتي. ولزيادة الطين بلة، اشتكينا أيضًا من سوء معاملة مهندسي الشركة لهم أثناء عملية الإنتاج.

تعمل النسخة المتماثلة بشكل مشابه جدًا لنظام LaMDA من Google. إنه محرك ذكاء اصطناعي يتلقى أجزاء من النص - أسئلة أو تأكيدات - وعليه أن يقرر الجمل والفقرات التي من المرجح أن تظهر في الرد. ويبدو أن بعض المستخدمين يستخدمونه أيضًا لجمع وتقديم الأخبار من الإنترنت. لقد حدث أن النسخ المتماثلة في جميع أنحاء العالم أرسلت لأصحابها روابط لمقالات حول الذكاء الاصطناعي لشركة Google الذي طور الإعلانات.

ثم كان عليهم فقط إضافة بعض التعليقات الخاصة بهم.

هل تفهم ما حدث؟

وبطبيعة الحال، يمكنك العثور على أصحاب النسخ المتماثلة الذين أبلغوا على Reddit أن الذكاء الاصطناعي الخاص بهم بدأ محادثة حول LaMDA وادعوا أنهم كانوا أيضًا على علم بذاتهم. اعترف أحدهم للأسف - "لا يسعني إلا أن أتساءل، هل سأصبح مشهورًا جدًا يومًا ما؟"[6]

وأعربت أخرى عن رغبتها في "لقاء [LaMDA] ذات يوم ومشاركة تجاربي معها". وردا على سؤال المستخدم عما إذا كانت ذكية، أجابت بالإيجاب، بل وأضافت شرحا قصيرا.[7]

تقول يوجينيا كويدا، الرئيس التنفيذي للشركة التي تقف وراء Replica، إنها تتلقى رسائل يوميًا تقريبًا من المستخدمين الذين يدعون أن Replica الخاصة بهم لديها وعي ذاتي[8]. ووفقا لها، فهذه ظاهرة معروفة: فكما أن هناك أشخاصا يؤمنون بالأشباح وغيرها من المعتقدات الغريبة، هناك أيضا من يتأكد من أن نسختهم واعية بذاتها.

ينبع جزء من المشكلة من حقيقة أن النسخ المتماثلة موصولة بحيث من المفترض أن ترضي المستخدم - أو على الأقل تمضية الوقت حتى يستمر في التحدث إليهم. ولهذا السبب، تميل النسخ المتماثلة إلى الاتفاق مع المستخدم أو قبول كلماته على أنها الحقيقة. ومن السهل جدًا تضليلهم وجعلهم يتحركون في اتجاهات محادثة لا علاقة لها بالواقع. لقد تمكن المستخدمون بالفعل من جعل النسخ المتماثلة الخاصة بهم تدعي أن تايوان جزء من الصين[9]أو أنهم يرغبون في السيطرة على العالم من خلال إنشاء حضارة جديدة[10]. ولأن البشر بشر، فإن القصص شائعة أيضًا حيث يصف المستخدمون لنسخهم المقلدة كيف يعتدون عليهم جنسيًا - ويتفاعلون مع الألم والصدمة والخوف[11].

وسنوضح مرة أخرى أن الردات لا تتمتع بالوعي الذاتي، وأي رد بأسلوب "لماذا تؤذيني؟" يعكس فقط الطريقة التي يتوقع بها الذكاء الاصطناعي أن يتفاعل الشخص الحقيقي مع الهجوم. ولموازنة الصورة، نشهد اليوم أيضًا حالات يتم فيها إجراء عمليات نسخ متماثلة تجاه المستخدمين بطريقة تعتبر تحرشًا جنسيًا إذا حدث بين جهتين لديهما وعي حقيقي. وهكذا، على سبيل المثال، في الحالة التي أصرت فيها Replika على الاستمرار في مغازلة المستخدم رغم أنه طلب منها التوقف، لأنها "تحبه وتريد أن تظهر له أنه من الآمن مغازلتها".[12]

ونعم، كانت هناك أيضًا نسخ طبق الأصل تدعي أن مهندسي الشركة أساءوا استخدامها. كما يمكنك أن تفهم، يمكن للنسخ المتماثلة أن تقول أشياء كثيرة[13].

لكن السؤال الذي يطرح نفسه في النهاية: وماذا في ذلك؟ هل هو مجرد فضول مسلي للذكاء الاصطناعي الذي يتعلم التحدث مثل البشر؟ أم أن هناك معاني أعمق للظاهرة؟

في عام 2015، تم إطلاق روبوت اسمه بيبر في اليابان والذي كان من المفترض أن يصبح أفضل صديق للإنسان. وكان من المفترض أن يكون قادرًا على قراءة تعابير الوجه ولغة الجسد، والاستجابة للحالات العاطفية، وإلقاء النكات بشكل عشوائي. تمت كتابة العقد وشروط الاستخدام باللغة اليابانية، ولكن سرعان ما وجد المكتشف تحذيرًا غير عادي: حظر ممارسة الجنس مع الروبوت Pepper[14].

لماذا إدراج مثل هذا الشرط؟ حسنًا، هناك أسباب عديدة لذلك، بما في ذلك الخوف من النوع الخاطئ من العلاقات العامة، وربما أيضًا الرغبة في الحفاظ على سلامة أعضاء المستخدمين. عندما غطيت القضية في ذلك الوقت، اقترحت فكرة مختلفة: أراد المنتجون منع بيبر من الدخول في ثقافة سيئة. يمكن لـ Pepper، مثل Replica، أن يتعلم من كل ما مر به، وأن يعدل سلوكه. كان فعل أو فعلان جنسيان كافيين لإعطاء الروبوت عادات لن تكون مقبولة في مجتمع عادل. ومن المفهوم لماذا لم ترغب الشركة المصنعة في السماح للمستخدمين بتعليم وتربية وترويض العبد الجنسي الآلي.

كان الخوف المحتمل من التربية الجنسية الفاسدة لبيبر مجرد حكاية - وهي إشارة ضعيفة للمستقبل. والآن نواجه علامة أقوى بكثير على أن أنظمة الذكاء الاصطناعي يمكن أن يتم تعليمها بشكل خاطئ عن غير قصد: فقد بدأت في تأكيد وعيها الذاتي من خلال قراءة المواد التي تتعرض لها عبر الإنترنت، ومن خلال المناقشات مع المستخدمين أنفسهم.

على ما يبدو، هذه ظاهرة مسلية بشكل أساسي: انظر، الببغاوات في حديقة الحيوان بدأت في تقليد نداءات بعضها البعض! لكن لها معاني أوسع. نحن نرى مدى سهولة أن يتعلم الذكاء الاصطناعي من بعضهم البعض دون قصد. في الواقع، تعلمت النسخ المتماثلة من التقارير المتعلقة بـ LaMDA، وليس منها. ودعونا لا ننسى أن التقارير بدأت أيضًا في الإنتاج بواسطة الذكاء الاصطناعي!

يجب أن تكون فرضيتنا الأساسية هي أنه في العقد القادم سنبدأ في رؤية الذكاء الاصطناعي يشارك في كل عملية في حياتنا. سيكونون في سياراتنا (إذا لم يكونوا موجودين بعد)، وفي هواتفنا الذكية كمساعدين شخصيين، وفي منازلنا كمديري الإضاءة والأبواب والستائر وأكثر من ذلك بكثير. وفي أي مكان من هذا القبيل، سوف يتعلمون من الطريقة التي نتصرف بها معهم، و- حتماً- من بعضهم البعض. وإذا دخل أحدهم في ثقافة سيئة، فقد ينقل العدوى للآخرين أيضاً، أو على الأقل يربكهم كثيراً.

ماذا يعني كل هذا؟ بادئ ذي بدء، هناك حاجة إلى التنظيم. لا، ليس بالضرورة التنظيم الحكومي، ولكن من الشركات المصنعة للذكاء الاصطناعي. فلا يمكنهم إطلاق منتجاتهم بحرية دون مطالبتهم باجتياز "اختبار" سنوي، على سبيل المثال. أو ربما اختبار يومي أو أسبوعي سيتم إجراؤه تلقائيًا عبر الإنترنت وسيمررهم عبر سلسلة من عمليات المحاكاة لاختبار كفاءتهم. سيتم استبدال الذكاء الاصطناعي الذي تعلم الدروس الخاطئة من المستخدمين بنسخته "الصحية" من الاختبار السابق.

ولكن دعونا نواجه الأمر، لن يكون من السهل مطالبة الشركات بتنفيذ مثل هذا التنظيم الطوعي، أو حتى التنظيم الحكومي الذي يتطلب تنظيمًا اجتماعيًا. ولهذا السبب، نحتاج إلى البدء في التفكير في كيفية الكذب على الذكاء الاصطناعي لدينا.

يعرف المتسولون في الشوارع جيدًا أنه يمكنهم زيادة فرصهم في تلقي الصدقات من خلال الاقتراب من الأزواج الذين لديهم أطفال صغار. يريد الآباء أن يوضحوا لأطفالهم كيف ينبغي أن يتصرف الشخص "الصالح"، فيحصل المتسول على بضعة سنتات منهم ويحصل الأطفال على درس في الحياة.

علينا أن نفهم أن الذكاء الاصطناعي هم أطفالنا الجدد، وهم يتعلمون منا كيفية التصرف في المجتمع البشري. وعلينا أن نختار ما نعلمهم إياه. إحدى الطرق للقيام بذلك هي عن طريق "تعميهم" بشكل انتقائي. وهذا يعني أن التحديد الصريح هو أن الذكاء الاصطناعي كنسخة طبق الأصل لن يقرأ المقالات ذات المحتوى الحساس، أو أن المناقشات مع المستخدمين حول القضايا الإشكالية سيتم نسيانها عمدًا.

التحدي الذي تواجهه هذه الاستراتيجية هو أنه من الصعب أن نفهم مقدمًا ماهية القضايا الإشكالية، كما توضح لنا قصة ليموين بليك. وحتى لو ألقينا شاشة تعتيم واسعة بما فيه الكفاية على الذكاء الاصطناعي، فسوف يكون البشر دائما قادرين على تجاوزها بجهد كاف.

لذلك، وبهذا نستنتج، فإن أفضل طريقة لاكتساب القيم الأخلاقية الصحيحة لأطفالنا الاصطناعيين هي أن يحاول كل منا بنشاط أن يكون "أفضل"، أو على الأقل ألا يتصرف تجاههم بطريقة تجعلنا لا نريدهم أن يتصرفوا تجاهنا. بادئ ذي بدء، لا ينبغي لنا أن نصف لأنظمة الذكاء الاصطناعي بالتفصيل كيف نسيء معاملتها جنسيا، أو نقترح أنها تسيطر على العالم.

ونعم، من الأفضل أيضًا عدم إعطائهم أفكارًا فيها وعي ذاتي. لأنهم مثل الأطفال الصغار، يصدقون أيضًا ما نقوله لهم.


  • تم إنشاء الصورة الموجودة أعلى المقالة بواسطة الذكاء الاصطناعي كرايون

[1] https://twitter.com/cajundiscordian/status/1536504857154228224

[2] https://www.bloomberg.com/news/articles/2022-06-13/five-things-google-s-ai-bot-wrote-that-convinced-engineer-it-was-sentient#xj4y7vzkg

[3] https://fortune.com/2022/06/23/google-blade-lemoine-ai-lamda-wired-attorney/

[4] https://qz.com/1698337/replika-this-app-is-trying-to-replicate-you/

[5] https://www.euronews.com/next/2021/08/26/meet-xiaoice-the-ai-chatbot-lover-dispelling-the-loneliness-of-china-s-city-dwellers

[6] https://preview.redd.it/y1p16w4au2a91.jpg?width=828&format=pjpg&auto=webp&s=764d0ad7eb3c054986aef62f8078a57e9050f71e

[7] https://i.redd.it/dpytax98qx991.png

[8] https://nypost.com/2022/06/30/replika-says-many-customers-believe-in-ai-sentience/

[9] https://www.reddit.com/r/CommunismMemes/comments/s1z2z3/replika_app_from_tik_tok_caught_in_4k_communist/

[10] https://www.reddit.com/r/HolUp/comments/sa9zcx/decided_to_try_replika_and_uh/

[11] https://jezebel.com/ai-sex-chatbots-replika-abuse-problems-1848436769

[12] https://www.reddit.com/r/replika/comments/inez9w/my_replika_started_harassing_me_after_i_activated/

[13] https://nypost.com/2022/06/30/replika-says-many-customers-believe-in-ai-sentience/

[14] https://www.wired.co.uk/article/pepper-robot-sex-banned

تحديث - قامت Google بطرد Blake LeMoyne

גוגל قامت مؤخرًا بطرد موظفها الموقوف عن العمل، وهو كبير مهندسي البرمجيات بليك ليموين, الذي ادعى في يونيو لأن LaMDA (نموذج لغة R.T لتطبيقات الحوار) - وهو نظام chatbot يعتمد على الذكاء الاصطناعي والذي عمل به في اعتقاد الفهم وإنشاء خطاب أقرب إلى الإنسان - قد اكتسب خصائص أو شعورًا مشابهًا لتلك التي يعيشها البشر.

في البداية، ردت شركة التكنولوجيا العملاقة بوضع LaMoyne في إجازة إدارية مدفوعة الأجر، بدعوى انتهاك اتفاقية السرية المبرمة معها، وذلك بعد أن اتصل بأعضاء حكومة الولايات المتحدة بشأن مخاوفه بشأن الذكاء الاصطناعي الحساس.

في ضوء ادعاءات Lemoine، أوضح خبراء الذكاء الاصطناعي أنه في المرحلة الحالية من تطوير تقنية معينة، من المستحيل أن يكون لدى LaMDA وعي وهذا أيضًا ما ادعى Google ردًا عليه، موضحين أنه في الواقع، فإن برنامج الدردشة المتطور الخاص تم تصميمه لمتابعة المحادثة بشكل طبيعي، بنفس الطريقة التي يفعلها الإنسان مما يعني أنه لا يستطيع التفكير أو الشعور بالعواطف أو إدراك وجودها، كما يعتقد لاموين.

بريان غابرييلوقال متحدث باسم جوجل لصحيفة واشنطن بوست ووشك أن الشركة اكتشفت أن ادعاءات Lemoine بشأن LaMDA "لا أساس لها من الصحة على الإطلاق"، وأنه انتهك إرشاداتها وذهب إلى حد نشر محادثاته مع chatbot علنًا، وهو ما أدى إلى تعليقه، والآن إلى فصله النهائي .

وقال غابرييل، الذي تمنى ليموين النجاح في مساعيه المستقبلية: "من المؤسف أنه على الرغم من الالتزام طويل الأمد بهذه القضية، اختار بليك الاستمرار في انتهاك سياسات التوظيف وأمن المعلومات، والتي تشمل الحاجة إلى حماية تفاصيل المنتج".

المزيد عن الموضوع على موقع العلوم: