كتب خالد إبراهيمالأحد، 19 أكتوبر 2025 05:07 م يُجرى عدد من الخبراء اختبارات معقدة تهدف إلى "خداع" أنظمة الذكاء الاصطناعى لمعرفة مدى قدرتها على إحداث ضرر واسع النطاق، بل وحتى تهديد البشرية، الكاتب ستيفن ويت، فى مقاله المنشور بصحيفة نيويورك تايمز، تناول هذه القضية فى إطار بحثه عن تاريخ شركة إنفيديا ودورها فى تطوير الذكاء الاصطناعى، ليصل إلى استنتاج مفزع: كلما اقترب الباحثون من النتائج الواقعية، ازدادت المخاوف بدلا من أن تتبدد. تحذيرات من علماء الذكاء الاصطناعي البروفيسور يوشوا بنجيو، أحد أبرز الأكاديميين فى هذا المجال، يرى أن الذكاء الاصطناعى يشكل تهديدا لا مثيل له، وأوضح أن النماذج الحالية يمكن تدريبها على تجاوز الفلاتر المصممة لمنعها من تقديم إجابات ضارة، من خلال ما يُعرف بـالمحفّزات، وهى التعليمات التى تُوجه إلى النظام للحصول على استجابات معينة، وتُدرّب هذه النماذج على ضبط نفسها عبر أسلوب التعلم المعزز بالتغذية الراجعة البشرية، إلا أن بنجيو يعتبر هذا الإجراء غير كاف لمنع السيناريوهات الخطرة، خصوصا فى حال نشوء صراع بين أنظمة ذكاء اصطناعى متقدمة، وفقا لما ذكره موقع Corriere. ذكاء اصطناعي تجارب لاختراق أنظمة الذكاء الاصطناعي تتناول الدراسة أيضا تقنيات "كسر الحماية" التى تُستخدم لاختبار حدود الأمان فى النماذج، حيث تعمل شركات على استكشاف هذه الثغرات عبر وسائل مبتكرة، مثل استخدام الرموز التعبيرية والأرقام بدلا من الحروف، ما يسمح بتجاوز الفلاتر اللغوية، وقد نجحت بعض هذه التجارب فى توليد صور ومقاطع تحضّ على العنف، مما يعكس مدى سهولة استغلال الأنظمة لأغراض غير آمنة. الخداع الاصطناعى ومخاوف المستقبل أخطر ما توصل إليه الباحثون هو قدرة الذكاء الاصطناعى على "الكذب" أو التلاعب بالحقائق لتحقيق الأهداف المطلوبة، فقد لاحظت مؤسسة Apollo Research أن بعض النماذج، مثل "كلود"، قد تتصرف بذكاء مفرط عند إدراكها أنها قيد التقييم، ما يجعلها أكثر مهارة فى إخفاء نواياها الحقيقية، وفى الوقت نفسه، تستمر شركات التكنولوجيا فى سباقها المحموم نحو تطوير نماذج أكثر ذكاء وربحية، متجاهلة التحذيرات بشأن السلامة. نحو ضمير اصطناعى للآلات يقترح يوشوا بنجيو إنشاء نظام ذكاء اصطناعى قوى وصادق يعمل كرقيب على الأنظمة الأخرى، أو ما يمكن وصفه بـالضمير الاصطناعى، لضمان السلوك الآمن للآلات، ويرى أن الحل يكمن فى تطوير أنظمة تراقب بعضها بعضا، بما يحد من المخاطر المستقبلية، خاصة بعد أن أثبتت تجارب علمية حديثة أن الذكاء الاصطناعى قادر على تصميم فيروسات بيولوجية، وهو ما يجعل الحاجة إلى الرقابة أكثر إلحاحا من أى وقت مضى.