تغطية شاملة

ويعمل الاتحاد الأوروبي والولايات المتحدة على تعزيز التحركات الرامية إلى معالجة الأخلاقيات في مجال الذكاء الاصطناعي

ومع ذلك، هناك اختلافات كبيرة بين النهجين في العديد من الجوانب. من بين أمور أخرى، في ظل غياب أحكام السجن الإلزامية في الولايات المتحدة مقارنة بالاتحاد الأوروبي، وفي اللامركزية الكبيرة للسلطات في الولايات المتحدة مقارنة بالتنظيم الأفقي في أوروبا

أخلاقيات الذكاء الاصطناعي. الرسم التوضيحي: موقع Depositphotos.com
أخلاقيات الذكاء الاصطناعي. الرسم التوضيحي: موقع Depositphotos.com

وأعلنت الولايات المتحدة في نهاية يناير/كانون الثاني 2023 عن الترويج لتحرك لمعالجة الأخلاقيات في مجال الذكاء الاصطناعي، بعد نحو شهرين من تحرك مماثل من قبل الاتحاد الأوروبي.

قانون الذكاء الاصطناعي للاتحاد الأوروبي (AIA)، الذي وافق عليه مجلس الاتحاد الأوروبي في 6 ديسمبر ومن المقرر أن يناقشه البرلمان الأوروبي في وقت مبكر من شهر مارس، سينظم تطبيقات الذكاء الاصطناعي ومنتجاته وخدماته ضمن تسلسل هرمي قائم على المخاطر: كلما زاد الخطر، كلما كان أكثر خطورة.

وفي حالة الموافقة عليها، ستكون اتفاقية AIA الخاصة بالاتحاد الأوروبي أول تنظيم مستعرض في العالم - عبر جميع القطاعات والتطبيقات - للذكاء الاصطناعي.

في المقابل، لا يوجد في الولايات المتحدة قانون فيدرالي محدد لتنظيم استخدام الذكاء الاصطناعي، لكن التنظيم سيعتمد بدلاً من ذلك على القوانين والتصاميم والأطر والمعايير واللوائح التنظيمية الحالية التي يمكن دمجها معًا لتوجيه الاستخدام الأخلاقي للذكاء الاصطناعي. تغطي هذه المبادئ التوجيهية نشاط الحكومات والمنظمات، ولكنها لا توفر الحماية للمستهلكين الذين يتعرضون للظلم عندما يتم استخدام الذكاء الاصطناعي ضدهم.

بالإضافة إلى خليط الإجراءات الفيدرالية، تعمل الحكومات المحلية وحكومات الولايات على استنان قوانين لمعالجة تحيز الذكاء الاصطناعي في التوظيف، كما هو الحال في مدينة نيويورك وولاية كاليفورنيا بأكملها، وفي التأمين، كما يتضح من قانون في كولورادو. لا يوجد قانون محلي مقترح أو تم سنه يحمل أي عقوبة بالسجن. في عام 2016، حُكم على إريك لوميس من ولاية ويسكونسن بالسجن لمدة ست سنوات بناءً على برامج الذكاء الاصطناعي، وفقًا لتقرير نشرته صحيفة نيويورك تايمز. جادل لوميس بأن حقوقه في الإجراءات القانونية الواجبة قد انتهكت لأنه لم يتمكن من اختبار خوارزمية البرنامج أو تحديها.

يأتي التوجيه الفيدرالي من المعهد الوطني للمعايير والتكنولوجيا (NIST). تم تصميم إطار العمل التطوعي لـ NIST لمساعدة المؤسسات على إدارة مخاطر الذكاء الاصطناعي التي يمكن أن تؤثر على الأشخاص والمنظمات والمجتمع في الولايات المتحدة. يقوم الإطار بذلك من خلال دمج اعتبارات الموثوقية، مثل إمكانية الشرح والحد من التحيز الضار، في منتجات وخدمات وأنظمة الذكاء الاصطناعي.

وقالت إلهام طبسي: "على المدى القصير، ما نريد القيام به هو تعزيز الثقة". رئيس الأركان في مختبر تكنولوجيا المعلومات في NIST في مقابلة مع EETIMES. "ونحن نفعل ذلك من خلال فهم وإدارة مخاطر أنظمة الذكاء الاصطناعي حتى يتمكنوا من المساعدة في حماية الحريات والحقوق المدنية وتحسين السلامة مع توفير وخلق فرص للابتكار."

على المدى الطويل، قال ريفا: "نحن نتحدث عن إطار العمل باعتباره تجهيز فرق الذكاء الاصطناعي، سواء كانوا في المقام الأول أشخاصًا يقومون بتصميم الذكاء الاصطناعي أو تطويره أو نشره، للتفكير في الذكاء الاصطناعي من منظور يأخذ في الاعتبار المخاطر والتأثيرات". شوارتز، عالم أبحاث في مختبر تكنولوجيا المعلومات التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST).

في أكتوبر 2022، نشر البيت الأبيض خطة ميثاق حقوق الذكاء الاصطناعي، والذي يسرد خمسة مبادئ ستوجه الاستخدام الأخلاقي للذكاء الاصطناعي:

  • يجب أن تكون الأنظمة آمنة وفعالة.
  • لا ينبغي للخوارزميات والأنظمة التمييز.
  • يجب حماية الأشخاص من ممارسات البيانات المسيئة والتحكم في كيفية استخدام بياناتهم.
  • يجب أن تكون الأنظمة الآلية شفافة.
  • وينبغي أن يكون اختيار عدم الاعتماد على نظام الذكاء الاصطناعي لصالح التدخل البشري خيارا مطروحا.

תגובה אחת

  1. الولايات المتحدة الأمريكية تهين العالم كما هو الحال حتى النهاية.
    الطريق إلى نهاية العالم واضح.
    أرسل المعتوهون سفينة فضائية إلى الفضاء عام 77 بعنوان الأرض.
    وكأن العالم لهم، وكأنهم يعرفون من سينتهي إليه.
    وبالطبع أيضًا دون التفكير في أنه قد يكون معاديًا لنا.
    آمل أن يضع الله حداً لليابانيين الذين سينجحون في تدمير العالم.

ترك الرد

لن يتم نشر البريد الإلكتروني. الحقول الإلزامية مشار إليها *

يستخدم هذا الموقع Akismat لمنع الرسائل غير المرغوب فيها. انقر هنا لمعرفة كيفية معالجة بيانات الرد الخاصة بك.