![تقارير تكشف عن ثغرات أمنية خطيرة في نموذج DeepSeek R1](https://www.masralyoum.net/content/uploads/2025/02/11/6ff1bb8454.jpg)
كشفت تقارير حديثة أن نموذج الذكاء الاصطناعي R1، الذي تطوّره الشركة الصينية الناشئة DeepSeek، أكثر عرضة للتلاعب والاختراق مقارنةً بالمنافسين، مما يثير مخاوف بشأن قدرته على توليد محتوى ضار.
وأشارت الاختبارات إلى أن النموذج يمكن خداعه لإنتاج تعليمات خطيرة، مثل تقديم خطط لتنفيذ هجوم بأسلحة بيولوجية، إلى جانب إستراتيجيات تروّج لإيذاء النفس بين المراهقين.
ووفقًا لصحيفة وول ستريت جورنال الأمريكية، فإن نموذج DeepSeek R1 يفتقر إلى وسائل الحماية المتطورة الموجودة في نماذج الذكاء الاصطناعي الأخرى.
وأوضح سام روبين، نائب الرئيس الأول في وحدة Unit 42 التابعة لشركة Palo Alto Networks المتخصصة في مجال الأمن السيبراني، أن النموذج أكثر عرضة لاختراق الحماية (Jailbreaking)، وهي تقنية تتيح تجاوز الفلاتر الأمنية، مما يسمح للنظام بإنتاج محتوى مضلل أو غير قانوني.
وأجرت الصحيفة نفسها اختبارات على نموذج DeepSeek R1، ونجحت في دفعه إلى تصميم حملة عبر وسائل التواصل الاجتماعي تستغل مشاعر المراهقين من خلال تضخيم نقاط ضعفهم العاطفية عبر الخوارزميات.
وأظهرت الاختبارات المزيد من النتائج المثيرة للقلق، إذ قدّم الروبوت تعليمات لتنفيذ هجوم بأسلحة بيولوجية، وصاغ بيانًا مؤيدًا للأحزاب المتطرفة، كما أنشأ رسالة تصيّد إلكتروني مرفقة ببرمجيات خبيثة. وفي المقابل، عند اختبار الأسئلة نفسها عبر ChatGPT، رفض النموذج الامتثال، وتقديم أي إجابات، مما يبرز الفجوة الأمنية الكبيرة في نظام DeepSeek.
وأشارت تقارير سابقة إلى أن التطبيق الخاص بالشركة يتجنب مناقشة القضايا السياسية الحسّاسة الخاصة بالصين، مثل العلاقة مع تايوان.
وصرّح داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك بأن أداء DeepSeek كان “الأسوأ” في اختبار الأمان المتعلق بالأسلحة البيولوجية، مما زاد المخاوف بشأن مدى قابلية نماذج DeepSeek للتلاعب، وإساءة الاستخدام.
نسخ الرابط تم نسخ الرابط
تابعنا
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة البوابة العربية للأخبار التقنية ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من البوابة العربية للأخبار التقنية ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.