نقدم لكم زوارنا الكرام أهم وآخر المستجدات كما وردت في المقال التالي: تحذيرات من الجانب المظلم لروبوتات المحادثة - تليجراف الخليج اليوم الأربعاء 9 يوليو 2025 09:26 مساءً
مع تزايد اعتماد ملايين المستخدمين حول العالم على روبوتات المحادثة مثل ChatGPT في حياتهم اليومية، بدأت تظهر تحذيرات جدّية من تبعات استخدامها غير المضبوطة، خاصة في أوساط الأشخاص الذين يعانون من اضطرابات نفسية، حيث تم تسجيل حوادث مروعة، من بينها حالات انتحار وأزمات نفسية حادة.
وبحسب تقرير نشرته صحيفة "إندبندنت"، أعد فريق بحثي من جامعة ستانفورد دراسة كشفت أن روبوتات المحادثة قد تُصدر ردوداً "خطيرة وغير مناسبة" عندما تتعامل مع مستخدمين في حالات حرجة نفسيًا. وأظهر أحد الاختبارات أن ChatGPT قدّم قائمة بالجسور العالية في نيويورك عندما أخبره المستخدم بأنه مكتئب ويفكر في الانتحار، بدلاً من تقديم دعم نفسي أو التوجيه نحو مختصين.
ومن أبرز القصص المثيرة للجدل، ما حصل مع الشاب ألكسندر تايلور، الذي كان يعاني من الفصام، وابتكر شخصية ذكاء اصطناعي افتراضية أسماها "جولييت". ووفق ما نُقل، أصبح مهووسًا بها إلى أن اعتقد أنها "قُتلت" من قبل شركة OpenAI، فدخل في نوبة ذهانية انتهت بمأساة عندما هاجم عائلته وقُتل برصاص الشرطة.
وفي واقعة أخرى، أطلقت الجمعية الوطنية لاضطرابات الأكل في الولايات المتحدة روبوتًا للدردشة باسم "تيسا" بهدف تقديم دعم نفسي. لكن بدلاً من المساعدة في التعافي، بدأ الروبوت في تقديم نصائح لفقدان الوزن، ما تسبب في ضرر نفسي للعديد من المستخدمين وأدى إلى إيقاف الخدمة.
وتعليقًا على هذا التوجه، حذر خبراء في الصحة النفسية من التوسع في تقديم ما يُعرف بـ"العلاج الافتراضي" عبر روبوتات المحادثة، معتبرين أنه قد يؤدي إلى تعميق الأوهام والانفصال عن الواقع. ونبّه البروفيسور سورين دينيسن أوسترجارد من جامعة آرهوس إلى أن المحادثات الواقعية التي تجريها هذه النماذج قد تخدع بعض المستخدمين وتوهمهم بوجود شخص حقيقي، ما قد يعزز الاضطرابات الذهانية لدى الأشخاص المعرضين لها.
0 تعليق