تكنولوجيا / البوابة العربية للأخبار التقنية

OpenAI تنشئ لجنة مستقلة لمراقبة سلامة الذكاء الاصطناعي

أعلنت شركة OpenAI أن لجنة السلامة والأمن التي أنشأتها في مايو الماضي لمواجهة الجدل حول أمن الذكاء الاصطناعي الذي تطوره ستصبح لجنة إشراف مستقلة تابعة لمجلس الإدارة.

وسيرأس اللجنة زيكو كولتر، مدير قسم التعلم الآلي في كلية علوم الحاسوب بجامعة كارنيجي ميلون، وتضم اللجنة أيضًا آدم دانجيلو، عضو مجلس إدارة OpenAI والمؤسس المشارك لمنصة Quora، بالإضافة إلى بول ناكاسوني، الرئيس السابق لوكالة الأمن القومي، ونيكول سيليجمان، نائبة الرئيس التنفيذي السابقة في سوني.

وستشرف اللجنة على “عمليات السلامة والأمن التي توّجه تطوير نماذج OpenAI ونشرها”، وفقًا لبيان الشركة.

وكانت اللجنة قد أكملت حديثًا مراجعة استغرقت 90 يومًا لتقييم عمليات OpenAI وإجراءتها، وقدّمت بعدها توصيات لمجلس الإدارة، وقررت OpenAI نشر نتائج اللجنة في مدونة عامة.

وشملت التوصيات الخمسة الرئيسية للجنة ضرورة إنشاء إدارة مستقلة للأمان والسلامة، وتعزيز إجراءات الأمان، والشفافية بشأن أعمال OpenAI، والتعاون مع المنظمات الخارجية، وتوحيد أطر السلامة الخاصة بالشركة.

وأطلقت OpenAI حديثًا النموذج الجديد o1، وهو إصدار تجريبي يركز على التفكير وحل المشكلات الصعبة. وأشارت الشركة إلى أن اللجنة “راجعت معايير السلامة والأمان التي استخدمتها OpenAI لتقييم جاهزية نموذج o1 للإطلاق”.

وأضافت الشركة أن اللجنة ستعمل مع مجلس الإدارة على الإشراف على إطلاق النماذج، مع صلاحية تأجيل الإطلاق إذا لم تُعالج المخاوف المتعلقة بالسلامة.

وتواجه شركة OpenAI انتقادات حادة بسبب مخاوف من نموها السريع الذي قد يفوق قدرتها على العمل بأمان. ووفقًا لتقارير صحفية، فقد شهدت شركة OpenAI حديثًا مغادرة نحو نصف باحثيها في مجال سلامة الذكاء الاصطناعي العام (AGI) والذكاء الاصطناعي الفائق (ASI)، ويُرجح أن تكون هذه الاستقالات ناتجة عن خلافات حول كيفية إدارة المخاطر المرتبطة بتطوير تلك التقنيات.

وكانت استقالة إيليا سوتسكيفر ويان ليك على وجه التحديد ذات أهمية خاصة؛ لأنهما من كبار العلماء في الشركة، وقد كانا يقودان فريق “التوافق الفائق” المعني بسلامة أنظمة الذكاء الاصطناعي المستقبلية، وقد حلّت الشركة ذلك الفريق بعد استقالتهما.

وفي وقتٍ سابق من العام الجاري، نشر مجموعة من موظفي OpenAI الحاليين والسابقين رسالة يعبرون فيها عن قلقهم من نقص الرقابة على منتجات الشركة، وغياب الحماية للمبلغين عن المخالفات.

ويأتي قرار الشركة بإنشاء لجنة مستقلة لمراقبة أمان الذكاء الاصطناعي في وقتٍ تنشغل فيه OpenAI بجولة تمويلية قد تصل بقيمة الشركة إلى أكثر من 150 مليار دولار، مع احتمالية انضمام شركات كبرى مثل مايكروسوفت وإنفيديا وآبل للمشاركة في الاستثمار، وفقًا لتقارير صحفية.

Follow @aitnews

نسخ الرابط تم نسخ الرابط

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة البوابة العربية للأخبار التقنية ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من البوابة العربية للأخبار التقنية ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا