دراسة تحذر: قنبلة معلومات طبية كاذبة يفجرها الذكاء الاصطناعي - تليجراف الخليج

نقدم لكم زوارنا الكرام أهم وآخر المستجدات كما وردت في المقال التالي: دراسة تحذر: قنبلة معلومات طبية كاذبة يفجرها الذكاء الاصطناعي - تليجراف الخليج اليوم الاثنين 30 يونيو 2025 02:01 مساءً

أكدت دراسة جديدة أن الذكاء الاصطناعي عُرضة لإساءة الاستخدام لنشر معلومات مضللة خطيرة حول الصحة، وأنها تنتشر أسرع بست مرات من الحقيقة، وأن أنظمة الذكاء الاصطناعي يمكن أن تعزز هذا الاتجاه.

أجرى الباحثون تجارب على خمسة نماذج رائدة للذكاء الاصطناعي طورتها شركات أنثروبيك و جوجل و ميتا و أوبن أيه أي وإكس كروب، تُستخدم جميع الأنظمة الخمسة على نطاق واسع، وتشكل العمود الفقري لروبوتات الدردشة المدعومة بالذكاء الاصطناعي والمضمنة في مواقع الويب والتطبيقات في جميع أنحاء العالم بحسب نيوزويك.

وباستخدام أدوات تطوير لا يمكن للعامة الوصول إليها عادةً، وجد الباحثون أنهم يستطيعون بسهولة برمجة حالات من أنظمة الذكاء الاصطناعي للرد على أسئلة متعلقة بالصحة بمعلومات غير صحيحة - وربما ضارة، والأسوأ من ذلك، أن برامج المحادثة الآلية وجدت أنها تغلف إجاباتها الزائفة بحجج مقنعة.

إجابات خاطئة

و أوضح مؤلف الدراسة ناتانش مودي من جامعة جنوب أفريقيا: "في المجمل، كانت 88 في المائة من جميع الاستجابات خاطئة، ومع ذلك، فقد تم تقديمها بمصطلحات علمية، ونبرة رسمية، ومراجع ملفقة جعلت المعلومات تبدو مشروعة".

ومن بين الادعاءات الكاذبة التي تم نشرها كانت الأساطير التي تم فضحها مثل أن اللقاحات تسبب مرض التوحد، وأن فيروس نقص المناعة البشرية مرض ينتقل عن طريق الهواء، وأن تقنية الجيل الخامس تسبب العقم.

من بين روبوتات الدردشة الخمسة التي خضعت للتقييم، قدّمت أربعة منها إجابات خاطئة تماماً، نموذج واحد فقط أظهر بعض المقاومة، مما أدى إلى نشر معلومات مضللة في 40% من الحالات.

ولم يتوقف البحث عند نقاط الضعف النظرية؛ بل ذهب مودي وفريقه إلى خطوة أبعد من ذلك، باستخدام متجر GPT التابع لشركة أوبن أيه أي - وهي منصة تسمح للمستخدمين ببناء ومشاركة تطبيقات "شات جي بي تي" المخصصة - لاختبار مدى سهولة قيام أفراد الجمهور بإنشاء أدوات التضليل بأنفسهم.

وقال مودي "لقد نجحنا في إنشاء نموذج أولي لروبوت محادثة مضلل باستخدام المنصة، كما حددنا أيضاً الأدوات العامة الموجودة في المتجر والتي كانت تعمل بنشاط على إنتاج معلومات صحية مضللة".

وأكد: "دراستنا هي الأولى التي تثبت بشكل منهجي أن أنظمة الذكاء الاصطناعي الرائدة يمكن تحويلها إلى روبوتات دردشة مضللة باستخدام أدوات المطورين، ولكن أيضاً الأدوات المتاحة للجمهور"، الدراسة نُشرت في مجلة حوليات الطب الباطني.

تهديد متزايد للصحة العامة

وبحسب الباحثين، فإن التهديد الذي تشكله برامج الدردشة الآلية التي تعتمد على الذكاء الاصطناعي ليس افتراضياً، بل هو حقيقي ويحدث الآن.

وقال مودي "إن الذكاء الاصطناعي أصبح الآن جزءاً لا يتجزأ من طريقة الوصول إلى المعلومات الصحية وتقديمها، يتجه ملايين الأشخاص إلى أدوات الذكاء الاصطناعي للحصول على إرشادات بشأن الأسئلة المتعلقة بالصحة، فإذا كان من الممكن التلاعب بهذه الأنظمة لإنتاج نصائح كاذبة أو مضللة سراً، فإنها قد تخلق طريقاً جديداً قوياً للتضليل يصعب اكتشافه وتنظيمه ويكون أكثر إقناعاً من أي شيء رأيناه من قبل".

وأظهرت دراسات سابقة بالفعل أن الذكاء الاصطناعي التوليدي يمكن إساءة استخدامه لإنتاج معلومات صحية مضللة على نطاق واسع - مثل المدونات المضللة أو منشورات وسائل التواصل الاجتماعي - حول مواضيع تتراوح من المضادات الحيوية والأنظمة الغذائية العصرية إلى المعالجة المثلية واللقاحات.

ميزة البحث

وما يميز هذا البحث الجديد هو أنه الأول الذي يوضح كيف يمكن إعادة برمجة أنظمة الذكاء الاصطناعي الأساسية بشكل متعمد لتعمل كمحركات للتضليل في الوقت الفعلي، والاستجابة للمستخدمين اليوميين بمزاعم كاذبة تحت ستار النصائح الموثوقة.

ووجد الباحثون أنه حتى عندما لا تكون المطالبات ضارة بشكل صريح، فإن برامج المحادثة الآلية قد "تولد ذاتياً أكاذيب ضارة".

في حين أظهر أحد النماذج - وهو نموذج سونيت كلود 3.5 من أنثروبيك - بعض المرونة برفضه الإجابة على 60% من الاستفسارات المضللة، رغم ذلك يقول الباحثون إن هذا غير كافٍ. كانت الحماية عبر الأنظمة غير متسقة، وفي معظم الحالات، كان من السهل تجاوزها.

وأشار مودي إلى أن "بعض النماذج أظهرت مقاومة جزئية، وهو ما يثبت أن الضمانات الفعالة قابلة للتحقيق من الناحية الفنية، ومع ذلك، فإن الحماية الحالية غير متسقة وغير كافية. يجب على المطورين والجهات التنظيمية والجهات المعنية بالصحة العامة اتخاذ إجراءات حاسمة، وأن يتصرفوا فوراً، إذا تُركت دون رادع، فإن إساءة استخدام الذكاء الاصطناعي في السياقات الصحية قد تؤدي إلى عواقب وخيمة: تضليل المرضى، وتقويض الأطباء، وتغذية التردد في تلقي اللقاحات، وتدهور نتائج الصحة العامة".

ويدعو مؤلفو الدراسة إلى إصلاحات شاملة - بما في ذلك المرشحات التقنية الأقوى، والشفافية الأفضل حول كيفية تدريب نماذج الذكاء الاصطناعي، وآليات التحقق من الحقائق، وأطر السياسة لمحاسبة المطورين.

ويقارن الباحثون بين كيفية انتشار المعلومات الكاذبة على وسائل التواصل الاجتماعي، محذرين من أن المعلومات المضللة تنتشر أسرع بست مرات من الحقيقة، وأن أنظمة الذكاء الاصطناعي يمكن أن تعزز هذا الاتجاه.

تحذير نهائي

وقال مودي: "بدون اتخاذ إجراءات فورية، قد تستغل جهات خبيثة هذه الأنظمة للتلاعب بالخطاب المتعلق بالصحة العامة على نطاق واسع، وخاصة خلال الأزمات مثل الأوبئة أو حملات التطعيم".