نقدم لكم زوارنا الكرام أهم وآخر المستجدات كما وردت في المقال التالي: طريقة احتيال جديدة تعتمد على الذكاء الاصطناعي .. وبنوك أردنية تحذر - تليجراف الخليج اليوم الاثنين 16 يونيو 2025 11:30 صباحاً
تليجراف الخليج - خاص - ظهرت في الآونة الأخيرة طريقة جديدة للاحتيال؛ تعتمد على الذكاء الاصطناعي؛ ووجهت بنوك أردنية تحذيرات للمواطنين من هذا الأسلوب الاحتيالي، الذي يعتمد على تقليد أصوات الأشخاص المقربين من الضحية المستهدفة، مثل: الأصدقاء وأفراد العائلة.
وبحسب الرسائل التحذيرية الصادرة عن عدد من البنوك في الأردن، فإن الضحية يتلقى مكالمة صوتية تبدو مألوفة ومُقنعة تطلب بشكل عاجل تحويل أموال عبر المحافظ الإلكترونية أو خدمات التحويل الأُخرى.
وتنشر "تليجراف الخليج" بعض النصائح التي وجهها خبير في الامن السيبراني للمواطنين لحماية انفسهم من الوقوع بمثل هذا النوع من الاحتيال الصوتي، ينصح الخبراء باتباع عدد من الأمور، مثل:
استخدام عبارات سرية: يُنصح باستخدام عبارات خاصة بين أفراد العائلة أو الأصدقاء للتحقق من هوية المتصل، وطرح أسئلة دقيقة: إذا كنت تشك في هوية المتصل، فاطرح أسئلة تعتمد على تفاصيل يعرفها الشخص الحقيقي فقط،وملاحظة التفاصيل الصوتية: مع أن الأصوات المولّدة بالذكاء الاصطناعي تبدو طبيعية، فإنها قد تحمل علامات مميزة مثل: التحدث بطريقة خالية من المشاعر، أو الخطأ في نطق بعض العبارات بطريقة غير طبيعية.
التحقق المباشر: إذا شككت في المتصل، أنهِ المكالمة، ثم اتصل بالشخص مباشرة عبر الرقم المسجل لديك.
تجنب الضغط العاطفي: يعتمد المحتالون على استراتيجيات مثل: الضغط العاطفي لدفعك إلى التصرف بسرعة، لذلك تعامل بحذر مع الطلبات التي تتعلق بالمال، ولا تتصرف بسرعة، وتحقق من صحة الأمر قبل إرسال أي مبلغ مالي أو التصريح بأي بيانات شخصية.
نشكركم على القراءة، ونتطلع لمشاركتكم في مقالاتنا القادمة للحصول على أحدث الأخبار والمستجدات.