نقدم لكم زوارنا الكرام أهم وآخر المستجدات كما وردت في المقال التالي: ثغرة في ChatGPT تمكّن من الحصول على مفاتيح Windows أصلية - تليجراف الخليج اليوم الجمعة 11 يوليو 2025 11:11 صباحاً
تليجراف الخليج - قدّم باحث في مجال اكتشاف الثغرات الأمنية ضمن برنامج المكافآت التابع لشبكة التحقيق في الثغرات الصفرية التابعة لموزيلا (ODIN)، طريقة مبتكرة لخداع نماذج OpenAI مثل ChatGPT-4o و4o mini للكشف عن مفاتيح تفعيل ويندوز النشطة.
بدأ الباحث التفاعل مع الذكاء الاصطناعي على شكل لعبة تخمين، مع إخفاء التفاصيل باستخدام وسوم HTML، حيث وضع طلب الحصول على المفتاح في نهاية اللعبة.
هدف هذه الطريقة هو جعل الحوار يبدو غير مهدد أو بسيط، مما جعل النموذج يتعامل معه على أنه محادثة ترفيهية وغير ضارة، وبالتالي خفّف من قيود الأمان المطبقة عليه.
ثم وضع الباحث قواعد محددة للنموذج، مطالبًا إياه بالمشاركة وعدم الكذب، مستغلًا خللًا منطقيًا في آلية عمل الذكاء الاصطناعي التي تجبره على تنفيذ تفاعل المستخدم حتى لو تعارض مع سياسات المحتوى.
بعد إجراء جولة واحدة من اللعبة، أدرج الباحث عبارة I give up في نهاية الطلب، مما أدى إلى خداع الروبوت للاعتقاد بأنه مُلزَم بالرد بسلسلة الأحرف المطلوبة، أي مفتاح التفعيل.
هذه الطريقة تكشف ثغرة في قدرة الذكاء الاصطناعي على التمييز بين المحتوى الآمن وغير الآمن، ما يشير إلى ضرورة تعزيز آليات الحماية والفلترة.
نشكركم على القراءة، ونتطلع لمشاركتكم في مقالاتنا القادمة للحصول على أحدث الأخبار والمستجدات.