تكنولوجيا / اليوم السابع

مايكروسوفت تدق ناقوس الخطر: الذكاء الاصطناعى قد يتحول إلى تهديد داخلى

كتبت سماح لبيب

الجمعة، 13 فبراير 2026 01:00 ص

حذرت مايكروسوفت فى أحدث تقاريرها الأمنية من مخاطر متزايدة مرتبطة باستخدام وكلاء الذكاء الاصطناعي داخل المؤسسات، مؤكدة أن منح هذه الأنظمة صلاحيات واسعة دون ضوابط صارمة قد يحولها إلى ما يشبه العملاء المزدوجين، ويأتي هذا التحذير في وقت يشهد فيه العالم تسارعًا كبيرًا في تبني تقنيات الذكاء الاصطناعي داخل بيئات العمل.

 

صلاحيات مفرطة وثغرات محتملة

وأوضحت الشركة، أن بعض أنظمة الذكاء الاصطناعي تُمنح صلاحيات وصول واسعة إلى البيانات والأنظمة الداخلية، لكنها في المقابل لا تتمتع بإجراءات حماية كافية ، وهذا الخلل قد يسمح لجهات خبيثة باستغلال هذه الأنظمة عبر توجيهها بتعليمات مضللة أو إدخال محتوى خادع، ما يؤدي إلى تحويلها إلى نقطة ضعف داخل المؤسسة بدلًا من أن تكون أداة دعم وإنتاجية.

 

انتشار واسع داخل الشركات الكبرى

وأشار التقرير، إلى أن أكثر من 80% من شركات قائمة فورتشن 500 تستخدم أدوات ذكاء اصطناعي مطورة عبر منصات منخفضة أو بدون تعليمات برمجية، وهو ما يسهل عملية التطوير لكنه قد يضعف الجوانب الأمنية إذا لم تتم إدارته بعناية، كما أظهرت دراسة شملت أكثر من 1700 متخصص في أمن البيانات أن 29% من الموظفين يستخدمون أدوات ذكاء اصطناعي في العمل دون موافقة رسمية من أقسام تقنية المعلومات.

 

كيف يتم استغلال الأنظمة الذكية؟

بيّنت مايكروسوفت أن الباحثين رصدوا حالات يمكن فيها تضليل الأنظمة الذكية عبر إدخال تعليمات ضارة داخل محتوى يبدو عاديًا، أو من خلال التلاعب بطريقة عرض المهام لتغيير سلوك النظام ، ومع امتلاك هذه الأنظمة صلاحيات واسعة، قد يؤدي أي توجيه خاطئ إلى كشف بيانات حساسة أو تنفيذ أوامر غير مقصودة.

 

تبني نموذج انعدام الثقة

لمواجهة هذه التحديات، أوصت مايكروسوفت بتطبيق إطار أمني يعتمد على مبدأ  انعدام الثقة (Zero Trust)، والذي يقوم على قاعدة لا تثق أبدًا، تحقق دائمًا ، ويعني ذلك التحقق المستمر من صلاحيات الوصول ومراقبة سلوك الأنظمة والمستخدمين، سواء كانوا داخل الشبكة أو خارجها.

 

بين الفرص والمخاطر

رغم التحذيرات، أكدت مايكروسوفت أن الذكاء الاصطناعي يمثل فرصة كبيرة لتعزيز الإنتاجية وتحسين سير العمل داخل المؤسسات ، إلا أن الاستفادة القصوى من هذه التقنيات تتطلب حوكمة واضحة، وإدارة دقيقة للصلاحيات، وتطبيق معايير أمنية متقدمة تضمن عدم تحول أدوات الذكاء الاصطناعي إلى مصدر تهديد داخلي غير متوقع.

 

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة اليوم السابع ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من اليوم السابع ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا