منوعات / صحيفة الخليج

تصدر معايير لسلامة الذكاء الاصطناعي

إعداد: مصطفى الزعبي
أصدرت الحكومة الأسترالية معايير طوعية لسلامة الذكاء الاصطناعي، إلى جانب مقترحات تدعو إلى تنظيم أكبر لاستخدام التكنولوجيا سريعة النمو في المواقف عالية الخطورة.
وكانت الرسالة التي بعث بها الصناعة والعلوم الفيدرالي الأسترالي، إد هوسيك، هي: «نحن بحاجة إلى المزيد من الأشخاص لاستخدام الذكاء الاصطناعي، وللقيام بذلك نحتاج إلى بناء الثقة عندهم في استخدامه وأمانه».
ويتم تدريب أنظمة الذكاء الاصطناعي على مجموعات بيانات ضخمة غير مفهومة باستخدام الرياضيات المتقدمة التي لا يفهمها معظم الناس. وتنتج هذه الأنظمة نتائج ليس لدينا أي وسيلة للتحقق منها، حتى الأنظمة الرائدة الحديثة تنتج نتائج ملأى بالأخطاء.
طرح الحديث كثيراً عن «التهديد الوجودي» للذكاء الاصطناعي، وكيف يؤدي إلى فقدان الوظائف وتتراوح الأضرار التي يفرضها من الأضرار الصريحة، مثل المركبات ذاتية القيادة التي تصطدم بالمشاة، إلى الأضرار الأكثر دقة، مثل أنظمة التوظيف.
وتشمل الأضرار الأخرى الاحتيال من خلال التزييف العميق لزملاء العمل والأحباء.
ولا يزال تبني التكنولوجيا يندرج ضمن هذا التوجه المألوف، فالذكاء الاصطناعي ليس دائماً أفضل أداة للقيام بالمهمة، ولكن عندما نواجه تقنية جديدة مثيرة، فإننا غالباً ما نستخدمها دون التفكير فيما إذا كان ينبغي لنا استخدامها، وبدلاً من تشجيع المزيد من الناس على استخدام الذكاء الاصطناعي، يتعين علينا جميعاً أن نتعلم ما هو الاستخدام الجيد وغير الجيد له.
ويعتبر أحد أكبر المخاطر تسريب البيانات الخاصة، حيث تجمع هذه الأدوات معلوماتنا الخاصة، وملكيتنا الفكرية، وأفكارنا على نطاق لم نشهده من قبل.
ولا تتم معالجة الكثير من هذه البيانات، في حالة ChatGPT وGoogle Gemini وOtter.ai ونماذج الذكاء الاصطناعي الأخرى، على الأراضي الأسترالية.
تنادي هذه الشركات بالشفافية والخصوصية والأمان، ولكن من الصعب اكتشاف ما إذا كانت بياناتك تُستخدم لتدريب نماذجها الأحدث، أو كيفية تأمينها، أو ما إذا كانت المنظمات أو الحكومات الأخرى لديها حق الوصول إلى هذه البيانات.
وفي الآونة الأخيرة، قدم وزير الخدمات الحكومية الفيدرالي بيل شورتن برنامج تبادل الثقة المقترح من الحكومة، والذي أثار مخاوف بشأن جمع المزيد من البيانات حول المواطنين الأستراليين، وفي خطابه أمام نادي الصحافة الوطني، أشار صراحة إلى الدعم من شركات التكنولوجيا الكبرى، بما في ذلك .
إذا تم تجميع البيانات حول الأستراليين عبر منصات التكنولوجيا المختلفة، بما في ذلك الذكاء الاصطناعي، فقد نشهد مراقبة جماعية واسعة النطاق.
واستدركت الحكومة الأسترالية بأن الأمر الأكثر إثارة للقلق هو أننا لاحظنا قوة التكنولوجيا في التأثير على السياسة والسلوك وفقاً للباحثين الأستراليين.
وأشارت إلى أن التحيز في الأتمتة هو المصطلح الذي نستخدمه للإشارة إلى ميل المستخدمين إلى الاعتقاد بأن التكنولوجيا «أذكى» مما هم عليه. والثقة المفرطة في الذكاء الاصطناعي تشكل خطراً أكبر على الأستراليين فمن خلال تشجيع المزيد من استخدام التكنولوجيا دون تعليم كاف، قد نخضع سكاننا لنظام شامل من المراقبة والتحكم الآلي.
إن هذه العوامل تشكل سبباً إضافياً لتنظيم استخدام الذكاء الاصطناعي، وهو ما تسعى الحكومة الأسترالية إلى تحقيقه الآن ولكن القيام بذلك لا ينبغي أن يكون مصحوباً بتشجيع قوي على استخدامه أيضاً.
ووضعت المنظمة الدولية للمعايير معياراً بشأن استخدام وإدارة أنظمة الذكاء الاصطناعي. ومن شأن تنفيذه في أستراليا أن يؤدي إلى استخدام أفضل وأكثر منطقية وتنظيماً للذكاء الاصطناعي.
تشكل هذه المعايير وغيرها الأساس لمعيار سلامة الذكاء الاصطناعي الطوعي الذي اقترحته الحكومة.
وإن المشكلة في الإعلان الذي أصدرته الحكومة الفيدرالية هذا الأسبوع لم تكن الدعوة إلى مزيد من التنظيم، بل التضخيم الأعمى لاستخدام الذكاء الاصطناعي.

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة صحيفة الخليج ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من صحيفة الخليج ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا