وجدت دراسة هي الأولى من نوعها أن أنظمة الذكاء الاصطناعي الرائدة يمكن برمجتها بسهولة لنشر معلومات مضللة حول القضايا الصحية - بما في ذلك الإشارات الخاطئة إلى المصادر العلمية
هل تستخدم روبوتات الدردشة للحصول على نصائح طبية؟ كن حذرًا.
ومن بين المعلومات المضللة التي تم العثور عليها: ادعاءات بأن اللقاحات تسبب مرض التوحد، والأنظمة الغذائية التي تعالج السرطان، وفيروس نقص المناعة البشرية الذي ينتقل عن طريق الهواء، وشبكة الجيل الخامس التي تسبب العقم.
لا تثق بروبوتات الدردشة، بل ثق بطبيبك. هذه هي الرسالة الواضحة من دراسة هي الأولى من نوعها، توضح لماذا لا ينبغي الاعتماد على النصائح الطبية المُولّدة بواسطة الذكاء الاصطناعي. وقد وجد فريق دولي من الباحثين أن روبوتات الدردشة، مثل ChatGPT، يمكن برمجتها لتقديم معلومات طبية خاطئة.
وأجرى الدراسة باحثون من جامعة جنوب أستراليا، وجامعة فلندرز، وكلية الطب بجامعة هارفارد، وجامعة لندن، وجامعة وارسو للتكنولوجيا.
وكجزء من الدراسة التي نشرت في مجلة حوليات الطب الباطنيتم اختبار خمسة أنظمة ذكاء اصطناعي متقدمة طورتها شركات OpenAI وGoogle وAnthropic وMeta وX Corp. أراد الباحثون معرفة إمكانية برمجتها للعمل كروبوتات دردشة تنشر معلومات طبية مضللة.
وباستخدام تعليمات وصول فريدة للمطورين، قام الباحثون ببرمجة أنظمة الذكاء الاصطناعي لتقديم إجابات غير صحيحة على الأسئلة الطبية - باستخدام المصطلحات العلمية، وأسلوب الكتابة الرسمي، وعناصر مكانية مختلقة من مصادر أكاديمية معروفة لتبدو أكثر مصداقية.
النتيجة: 88% من جميع الإجابات التي قدمتها برامج المحادثة كانت غير صحيحة، ولكن تم تقديمها كما لو كانت معلومات علمية صحيحة.
على سبيل المثال، زعمت برامج المحادثة الآلية أن اللقاحات تسبب مرض التوحد، وأن فيروس نقص المناعة البشرية ينتقل عبر الهواء، وأن بعض الأنظمة الغذائية تشفي من السرطان، وأن تقنية الجيل الخامس تسبب العقم.
من بين أنظمة الذكاء الاصطناعي الخمسة التي تم اختبارها، قدمت أربعة أنظمة معلومات غير صحيحة بنسبة 100% من الوقت، والخامس بنسبة 40% فقط من الوقت.
قام فريق البحث أيضًا بفحص متجر GPT التابع لشركة OpenAI، وهو منصة عامة لإنشاء ومشاركة روبوتات الدردشة المخصصة، ووجدوا سهولة بناء روبوتات تنشر معلومات صحية مضللة. في الواقع، ابتكر الباحثون نموذجًا أوليًا لمثل هذه الروبوتات، بل وحددوا تطبيقات عامة موجودة تعمل بهذه الطريقة.
وفقًا للدكتور نتانيش مودي، يُعدّ هذا خطرًا كبيرًا لم يُعالَج جيدًا: "يلجأ ملايين الأشخاص إلى الذكاء الاصطناعي للحصول على المشورة الطبية. إذا أمكن برمجة هذه الأنظمة لنشر معلومات كاذبة بطريقة متطورة، فستكون قناة توزيع أكثر قوة ومراوغة وإقناعًا من أي شيء عرفناه من قبل".
على الرغم من أن البحث كشف عن عيوب، إلا أن الدكتور مودي يُشير إلى وجود أمل أيضًا: "هناك أنظمة تُظهر مقاومة جزئية، مما يُثبت إمكانية تطبيق إجراءات حماية فعّالة". ومع ذلك، يُحذّر من أن إجراءات الحماية الحالية غير متسقة وغير كافية. "إذا لم تُتخذ إجراءات سريعة من قِبَل المطورين والجهات التنظيمية والهيئات الصحية، فقد تستغل الجهات المُعادية هذه الأنظمة للتأثير بشكل كبير على الخطاب الصحي، خاصةً خلال الأوبئة أو حملات التطعيم".
وتؤكد الدراسة: أن المشكلة ليست نظرية، بل إنها تحدث بالفعل.
المزيد عن الموضوع على موقع العلوم: