تقدم طريقة الذكاء الاصطناعي الجديدة تفسيراً لتصنيف الصور من خلال تحليل المكونات

تُفصل طريقة جديدة في الذكاء الاصطناعي القابل للتفسير العناصر العامة في الصورة عن العناصر التي تؤثر على القرار، مما يساعد على اكتشاف التحيزات والاختصارات.

طرق مختلفة لتصنيف الصور باستخدام الذكاء الاصطناعي. من الدراسة
طرق مختلفة لتصنيف الصور باستخدام الذكاء الاصطناعي. يمكن أن يكشف تحليل التفسيرات ما إذا كان النموذج يعتمد على الكائن نفسه أم على إشارات الخلفية والاختصارات. من الدراسة

عندما يقوم نموذج الذكاء الاصطناعي تصنيف الصور (على سبيل المثال، "قطة"، "كلب"، "تربية")، لا يكفي أن تعرف ما إذا كان محقًا. عليك أن تفهم لماذا وتوصل إلى هذا الاستنتاج. وهنا يأتي دور المجال. الذكاء الاصطناعي القابل للتفسير (XAI)محاولة لتقديم تفسير يمكن اختباره ونقده وفهمه.

إحدى الأدوات الشائعة للشرح هي "الخريطة الحرارية" - وهي عبارة عن تمييز ملون للمناطق في الصورة التي "أعطاها النموذج أهمية". تكمن المشكلة في أن هذه الخرائط يمكن أن تكون غير مستقر أو مضللأحيانًا تُظهر هذه الصور المكان الذي "نظرت" إليه العارضة، لكنها لا توضح ذلك بشكل كامل. ماذا الصورة هي التي دفعت إلى اتخاذ القرار، وما كان مجرد ضجيج أو صدفة.

تشير الأبحاث الجديدة إلى بديل: DXAI – الذكاء الاصطناعي القابل للتفسير القائم على التفكيك، والذي يستبدل التظليل الملون بـتحليل الصورة إلى مكوناتها وهذا يوضح ما هو عام وما هو حاسم في قرار التصنيف.

لماذا لا تكفي "الخريطة الحرارية" دائمًا

في الخرائط الحرارية، تكون النتيجة عادةً طبقة ملونة فوق الصورة: أحمر هنا، وأصفر هناك. قد يكون هذا مفيدًا، ولكنه يثير أيضًا تساؤلات مفتوحة:

  • هل كان النموذج مبنياً على الشيء نفسهأو على الخلفية؟
  • هل تعلم "طريقة مختصرة" (مثل العلامة المائية، أو الإطار، أو الجدول الثابت)؟
  • هل يتغير التفسير إذا قمت بتحريك الصورة قليلاً أو تغيير الإضاءة؟

بمعنى آخر: يمكن أن تكون الخريطة الملونة حدسيولكن ليس دائماً يشرح بطريقة يمكن دراستها بعمق.ar5iv)

ما يميز DXAI

تحاول DXAI الإجابة على سؤال مختلف:
ليس السؤال "أين كانت العارضة تنظر؟"، بل "ما هي أجزاء الصورة التي ساهمت في اتخاذ القرار؟"

بدلاً من طلاء المناطق، الطريقة يقسم الصورة إلى مكوناتبحيث يتم عرض الصورة كمجموع "طبقات" / مكونات:

  • المكونات العامة: الأشياء التي تميز العديد من الصور، بغض النظر عن التصنيف (مثل الإضاءة، والنسيج المشترك، والبنية العامة).
  • مكونات مميزة: الأشياء التي تؤثر على القرار نحو تصنيف معين (على سبيل المثال، الشكل/الملمس الذي يميز "القط" عن "الكلب"، أو سمة تميز بين فئتين متشابهتين).

وهذا يُعطي تفسيراً أكثر تفصيلاً: يمكنك أن ترى ما يبدو أنه أساس عام للصورة، وما يبدو أنه الأجزاء التي تحدد التصنيف.

ويؤكد الباحثون أيضاً على ميزة عملية: وهي أن التفسير مقبول دون الاعتماد على تدرجات الشبكة (أي بدون بعض الحساسيات التي تميز "خرائط الأهمية" الكلاسيكية)، كما أنها تحتوي على مصدر مفتوح للعروض التوضيحية والتجارب.

لماذا يُعد هذا الأمر بالغ الأهمية في مجالات الطب والسلامة والصناعة؟

في المناطق الحساسة، يُعدّ التفسير جزءاً من الثقة:

  • في الطب: إذا قام نموذج بتصنيف صورة فوتوغرافية، فمن المهم معرفة ما إذا كان يستند إلى خاصية طبية، وليس إلى خلل تقني.
  • في مجال الصناعة والسلامة: إذا اكتشف نموذج ما "عطلاً"، فمن المهم التأكد من أنه يكتشف العطل بالفعل وليس مجرد تغيير في الإضاءة.
  • في القانون واللوائح: أحيانًا تحتاج إلى تفسير يمكن تقديمه والدفاع عنه.

يمكن أن يساعد نهج DXAI تحديد التحيزات والاختصارات في وقت سابق، لأنها تحاول أن تُظهر ماذا بالضبط؟ في الصورة، "ادفع" التصنيف.

بالطبع، لا يوجد سحر هنا أيضاً: فالتحليل يعتمد على البيانات، والمصنف، والإعدادات التجريبية. لكنها طريقة لتوسيع نطاق أدوات الذكاء الاصطناعي القابل للتفسير، خاصةً عندما تبدو الخرائط الحرارية "جميلة" لكنها ليست دقيقة بما يكفي للتفسير الحقيقي.

للمادة العلمية

المزيد عن الموضوع على موقع العلوم:

ترك الرد

لن يتم نشر البريد الإلكتروني. الحقول الإلزامية مشار إليها *

يستخدم هذا الموقع Akismet لتصفية التعليقات غير المرغوب فيها. مزيد من التفاصيل حول كيفية معالجة المعلومات الواردة في ردك.