تكنولوجيا / اليوم السابع

تقرير يحذر المؤسسات.. هجمات الذكاء الاصطناعى تتجاوز كل الدفاعات التقليدية

كتب مايكل فارس

الثلاثاء، 10 فبراير 2026 04:21 م

أصدرت شركة الأمن السيبراني "Zscaler" تقريرها السنوى لعام 2026، محذرة من أن الهجمات المدفوعة بالذكاء الاصطناعي أصبحت تتحرك بسرعة "الآلة"، مما يجعل الدفاعات البشرية والتقليدية عاجزة عن الاستجابة فى الوقت المناسب.

وأكد التقرير أن المهاجمين، سواء كانوا عصابات إجرامية أو مدعومين من دول، يستخدمون الذكاء الاصطناعى لأتمتة عمليات التسلل واختراق الأنظمة فى أقل من 16 دقيقة، وهو زمن قياسى تمامًا يتطلب تحولاً جذريًا فى استراتيجيات الحماية الرقمية.

  تحليل تريليون معاملة رقمية

وبحسب ما نشره موقع "تيك نيوز وورلد" (TechNewsWorld)، فإن التقرير الذي حلل أكثر من تريليون معاملة رقمية وجد أن 40% من استخدام الموظفين للذكاء الاصطناعي يتضمن مشاركة بيانات مؤسسية حساسة دون رقابة كافية. ويؤكد الخبراء أن الفجوة بين قدرات المهاجمين وسرعة استجابة فرق الأمن تتسع بشكل خطير، مما يفرض على الشركات تبني أنظمة دفاعية تعمل بنفس تقنيات الذكاء الاصطناعي للكشف عن التهديدات وتحييدها بشكل استباقي وفوري.

وأوضح تقرير ThreatLabz 2026، أن تبني الشركات للذكاء الاصطناعي يتجاوز قدرتها على حماية أنظمتها، مع تحرك الهجمات المدعومة بالذكاء الاصطناعي بسرعة تفوق الدفاعات التقليدية. فقد أصبحت الأنظمة الذكية أداة رئيسية للهجمات الآلية بسرعة آلة، سواء من برمجيات الجريمة أو الهجمات المدعومة من الدول، حيث يمكن للاختراق أن ينتقل من اكتشاف الثغرة إلى سرقة البيانات في دقائق قليلة.

 

اعتماد سريع يفوق الرقابة والأمان

أوضح التقرير أن استخدام AI في المؤسسات زاد بنسبة 200% في قطاعات رئيسية، بينما تفتقر كثير من الشركات إلى جرد كامل للنماذج الذكية أو الوظائف المدمجة فيها، مما يخلق ملايين التفاعلات غير المراقبة وتدفقات ضخمة من البيانات الحساسة غير المحمية، وذكر خبراء أن الذكاء الاصطناعي موجود بالفعل في أدوات الأعمال اليومية، حيث تُضاف الميزات الذكية بشكل افتراضي، ما يجعلها تتجاوز مراقبة الأمن التقليدي، ولا يمكن حظرها عبر جدران الحماية التقليدية.

  الهجمات بسرعة الآلة والثغرات الشاملة

أظهرت اختبارات الفريق الأحمر أن معظم أنظمة AI المؤسسية يمكن اختراقها خلال 16 دقيقة فقط، مع اكتشاف ثغرات حرجة في كل الأنظمة التي تم تحليلها. وتعتمد الأنظمة على تراكم أذونات متعددة يمكن أن تولد سلاسل هجوم غير مقصودة للوصول إلى بيانات حساسة أو أنظمة حيوية، كما أن عدد الهويات غير البشرية مقارنة بالبشر يصل حاليًا إلى 82:1، مع محدودية الرقابة على ما يمكن أن تفعله نماذج AI، ووجود واجهات برمجة التطبيقات (APIs) التي تمنح صلاحيات مستقلة تزيد من صعوبة السيطرة على المخاطر.

  مشاكل الكود وجودة النماذج

سرعة السباق على AI دفعت فرق تطوير مبتدئة لإصدار كود غير محكم، ما يؤدى إلى ثغرات أمنية، والشركات تنشر ميزات مدعومة بالذكاء الاصطناعى بدون مراجعة أمنيّة كافية، مع نقاط نهاية للنماذج بدون مصادقة، واستغلال واجهات برمجة التطبيقات بصلاحيات مفرطة، وتجاوز إعدادات الأمان الافتراضية.

  حجم المخاطر والبيانات

ارتفعت نقلات البيانات إلى AI/ML فى 2025 إلى 18,033 تيرابايت، أى ما يعادل حوالي 3.6 مليار صورة رقمية، مع تسجيل 410 مليون انتهاك لسياسات حماية البيانات (DLP) مرتبطة بـ ChatGPT وحده، بما فى ذلك محاولات مشاركة أرقام الضمان الاجتماعى، الكود المصدري، والسجلات الطبية.

  الحوكمة هي الحل

أشار التقرير إلى أن المشكلة الأساسية ليست في الذكاء الاصطناعي نفسه، بل في حوكمة الهوية وإدارة الوصول، المؤسسات التي تعترف بأن أنظمة AI هي كيانات تتطلب اكتشافًا وإدارة دورة حياة وإشرافًا سلوكيًا ستكون قادرة على تبني الذكاء الاصطناعي بطريقة مستدامة وآمنة، دون إبطاء الابتكار.

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة اليوم السابع ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من اليوم السابع ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا