الارشيف / اقتصاد / صحيفة الخليج

أول قانون في العالم لتنظيم الذكاء الاصطناعي يدخل حيز التنفيذ

يدخل قانون الذكاء الاصطناعي التاريخي للاتحاد الأوروبي حيز التنفيذ رسمياً اليوم الخميس؛ وهو ما يعني تغييرات صعبة بالنسبة لشركات التكنولوجيا العملاقة الأمريكية.

فالقانون الجديد، وهو قاعدة تهدف إلى تنظيم الطريقة التي تقوم بها الشركات بتطوير واستخدام وتطبيق الذكاء الاصطناعي، قد نال في مايو الماضي الموافقة النهائية من الدول الأعضاء في الاتحاد الأوروبي والمشرعين والمفوضية الأوروبية والتي تعد الهيئة التنفيذية للاتحاد الأوروبي.

وهذا القانون جزء من تشريعات الاتحاد الأوروبي التي تحكم الذكاء الاصطناعي، وقد اقترحته المفوضية الأوروبية لأول مرة في عام 2020، ويهدف إلى معالجة التأثيرات السلبية لهذه التقنية الجديدة.

ووصفه الخبراء بأنه الأول من نوعه في العالم.

وسوف يستهدف في المقام الأول شركات التكنولوجيا الأمريكية الكبرى، التي تعد حالياً البناة والمطورين الأساسيين لأنظمة الذكاء الاصطناعي الأكثر تقدماً.

  • القواعد الجديدة

ومع ذلك فإن الكثير من الشركات الأخرى سوف تندرج تحت نطاق القواعد الجديدة؛ حتى الشركات غير التكنولوجية؛ كتلك التي تنشر التقنية أو تستخدمها في ظروف معينة.

وتضع اللائحة إطاراً تنظيمياً شاملاً ومتناسقاً للذكاء الاصطناعي في جميع أنحاء الاتحاد الأوروبي، مع نهج قائم على المخاطر لتنظيم التكنولوجيا.

وهو ما يعني أن التطبيقات المختلفة للتكنولوجيا يتم تنظيمها بشكل مختلف اعتماداً على مستوى المخاطر التي تشكلها على المجتمع.

فعلى سبيل المثال بالنسبة لتطبيقات الذكاء الاصطناعي التي تعتبر «عالية المخاطر»، سيتم تقديم التزامات صارمة بموجب قانون الذكاء الاصطناعي.

وتشمل هذه الالتزامات أنظمة مناسبة لتقييم المخاطر والتخفيف من حدتها، ومجموعات بيانات تدريبية عالية الجودة لتقليل مخاطر التحيز، والتسجيل الروتيني للنشاط، ومشاركة إلزامية للوثائق التفصيلية حول النماذج مع السلطات لتقييم الامتثال.

وتشمل أمثلة أنظمة الذكاء الاصطناعي عالية المخاطر: المركبات ذاتية القيادة، والأجهزة الطبية، وأنظمة اتخاذ القرارات بشأن القروض، والتقييم التعليمي، وأنظمة التعرف البيومترية عن بعد.

ويفرض القانون أيضاً حظراً شاملًا على أي للذكاء الاصطناعي تعتبر «غير مقبولة» من حيث مستوى خطورتها.

وتشمل تطبيقاته التي تنطوي على مخاطر غير مقبولة: أنظمة التقييم الاجتماعي التي تصنف المواطنين على أساس تجميع وتحليل بياناتهم، و«الشرطة التنبئية»، واستخدام تكنولوجيا التعرف إلى المشاعر في مكان العمل أو المدارس.

  • تأثر الصناعة

ظلت الشركات الأمريكية العملاقة، مثل مايكروسوفت وغوغل وأمازون وأبل وميتا، تتعاون بشكل مكثف وتستثمر مليارات الدولارات في شركات تعتقد أنها يمكن أن تقود في مجال الذكاء الاصطناعي وسط جنون عالمي حول التكنولوجيا.

وتُعد المنصات السحابية، مثل آزور من مايكروسوفت وخدمات السحابة من أمازون ومنصة غوغل السحابية، أساسية كذلك لدعم تطوير الذكاء الاصطناعي، نظراً للبنية التحتية الحاسوبية الضخمة اللازمة لتدريب نماذج الذكاء الاصطناعي وتشغيلها.

وفي هذا الصدد ستكون شركات التكنولوجيا الكبرى بلا شك من بين الأسماء الأكثر استهدافاً بموجب القواعد الجديدة.

ويقول المتابعون إن قانون الذكاء الاصطناعي له آثار تتجاوز الاتحاد الأوروبي؛ فهو ينطبق على أي منظمة لديها أي عملية أو تأثير في الاتحاد الأوروبي، مما يعني أن القانون من المرجح أن ينطبق على مؤسسة ما بغض النظر عن مكان تواجدها.

وبالفعل قامت شركة ميتا بتقييد توفر نموذج الذكاء الاصطناعي الخاص بها في أوروبا بسبب المخاوف التنظيمية على الرغم من أن هذه الخطوة لم تكن بسبب قانون الذكاء الاصطناعي في الاتحاد الأوروبي.

  • تصنيف أوروبي

تم تصنيف الذكاء الاصطناعي التوليدي في قانون الذكاء الاصطناعي في الاتحاد الأوروبي كمثال على الذكاء الاصطناعي «للأغراض العامة».

وتشير هذه التسمية إلى الأدوات التي من المفترض أن تكون قادرة على إنجاز مجموعة واسعة من المهام على مستوى مماثل للبشر إن لم تكن أفضل.

وتتضمن نماذج الذكاء الاصطناعي للأغراض العامة، على سبيل المثال لا الحصر، «جي بي تي» من «أوبن إيه آي»، و«جيميناي» من غوغل، و«كلود» من انثروبي.

وبالنسبة لهذه الأنظمة يفرض قانون الذكاء الاصطناعي متطلبات صارمة مثل احترام قانون حقوق النشر في الاتحاد الأوروبي، وإصدار إفصاحات الشفافية حول كيفية تدريب النماذج، وإجراء اختبارات روتينية وحماية كافية للأمن السيبراني.

ولكن لا يتم التعامل مع جميع نماذج الذكاء الاصطناعي على قدم المساواة. فقد قال مطورو الذكاء الاصطناعي إن الاتحاد الأوروبي بحاجة إلى ضمان عدم فرض قيود صارمة للغاية على النماذج مفتوحة المصدر؛ والتي تكون مجانية للعامة ويمكن استخدامها لبناء تطبيقات الذكاء الاصطناعي المخصصة.

وتتضمن أمثلة النماذج مفتوحة المصدر «لاما» من ميتا.

ويضع الاتحاد الأوروبي بعض الاستثناءات لنماذج الذكاء الاصطناعي التوليدي مفتوحة المصدر.

ولكن للتأهل للإعفاء من القواعد يتعين على مزودي البرمجية مفتوحة المصدر جعل معاييرهم، بما في ذلك الأوزان وهندسة النموذج واستخدام النموذج، متاحة للجمهور، وتمكين الوصول إلى النموذج واستخدامه وتعديله وتوزيعه.

ووفقاً لقانون الذكاء الاصطناعي لن يتم احتساب النماذج مفتوحة المصدر التي تشكل مخاطر «نظامية» ضمن الإعفاء.

  • انتهاك القانون

يتم تغريم الشركات التي تنتهك قانون الذكاء الاصطناعي في الاتحاد الأوروبي مبلغاً يتراوح بين 35 مليون يورو (41 مليون دولار) أو 7% من إيراداتها السنوية العالمية، أيهما أعلى، إلى 7.5 مليون يورو أو 1.5% من إيراداتها السنوية العالمية.

ويعتمد حجم العقوبة على المخالفة وحجم الشركة التي تم تغريمها.

وهذا أعلى من الغرامات الممكنة بموجب اللائحة العامة لحماية البيانات، وهو قانون الخصوصية الرقمية الصارم في أوروبا.

وتواجه الشركات غرامات تصل إلى 20 مليون يورو أو 4% من إجمالي مبيعاتها السنوية في حالة انتهاك اللائحة العامة لحماية البيانات.

ومسؤولية الإشراف على جميع نماذج الذكاء الاصطناعي التي تندرج ضمن نطاق القانون، بما في ذلك أنظمة الذكاء الاصطناعي للأغراض العامة، تقع على عاتق مكتب الذكاء الاصطناعي الأوروبي، وهو هيئة تنظيمية أنشأتها المفوضية في فبراير 2024.

ومع ذلك تجدر الإشارة إلى أن القانون رغم دخوله حيز التنفيذ فإن معظم الأحكام المنصوص عليها لن تطبق فعلياً حتى عام 2026 على الأقل.

ولن تبدأ القيود المفروضة على الأنظمة ذات الأغراض العامة إلا بعد مرور 12 شهراً على دخول القانون حيز التنفيذ.

وسيتم منح أنظمة الذكاء الاصطناعي التوليدي المتاحة تجارياً في الوقت الحالي، مثل «تشات جي بي تي» وجيميناي، فترة انتقالية مدتها 36 شهراً لجعل أنظمتها متوافقة.

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة صحيفة الخليج ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من صحيفة الخليج ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا