الارشيف / منوعات / صحيفة الخليج

توظيف الذكاء الاصطناعي.. النية الحسنة وحدها لا تكفي

يُعتمد الذكاء الاصطناعي بوتيرة متسارعة للمساعدة في منع الإساءة وحماية الفئات الأكثر ضعفاً، بما في ذلك الأطفال، والبالغون في دور رعاية المسنين، والطلاب في المدارس. وتعد هذه الأدوات بكشف الخطر فوراً وتنبيه السلطات قبل وقوع ضرر جسيم.

وتستخدم بعض وكالات رعاية الطفل النمذجة التنبئية، وهي تقنية ذكاء اصطناعي شائعة أخرى، لتحديد العائلات أو الأفراد الأكثر عرضة للعنف، وفقاً لدراسة حديثة من جامعة أيوا الأمريكية.

قالت أيسلين كونراد: «باعتباري متخصصة اجتماعية تتمتع بخبرة 15 عاماً بالبحث في العنف الأسري، رأيت كيف أن الأنظمة ذات النوايا الحسنة، ومنها الذكاء الأصطناعي، غالباً ما يفشل في مساعدة الأشخاص الذين من المفترض أن تحميهم».

وأضافت: «أسهم في تطوير iCare، وهي مراقبة تعمل بالذكاء الاصطناعي، تُحلل حركات الأطراف لا الوجوه أو الأصوات للكشف عن العنف الجسدي».

تكنولوجيا جديدة وظلم قديم

تُدرَّب العديد من أدوات الذكاء الاصطناعي على التعلم من خلال تحليل البيانات التاريخية. وينطبق الأمر على الأشخاص الذين يصممون ويختبرون ويمولون الذكاء الاصطناعي.

ووجدت دراسة أُجريت عام 2022 في مقاطعة أليغيني بولاية بنسلفانيا أن نموذجاً تنبئياً للمخاطر يُسجل مستويات خطر للعائلات، وهي درجات تُعطى لموظفي الخط الساخن لمساعدتهم على فرز المكالمات، وكان يُشير إلى الأطفال السود للتحقيق بنسبة 20% أكثر من البيض، لو استُخدم دون إشراف بشري. وعندما أُشرك الأخصائيون الاجتماعيون في عملية صنع القرار، انخفض هذا التفاوت إلى 9%.

ويمكن للذكاء الاصطناعي القائم على اللغة أن يعزز التحيز أيضاً. على سبيل المثال، أظهرت إحدى الدراسات أن أنظمة المعالجة أخطأت في تصنيف اللغة الإنجليزية العامية الأمريكية الإفريقية على أنها عدوانية بمعدل 62% في سياقات معينة.

حتى عندما تعمل أنظمة الذكاء الاصطناعي على الحد من الضرر الذي يلحق بالفئات الضعيفة، تفعل ذلك في كثير من الأحيان بكلفة باهظة.

في المستشفيات ودور رعاية المسنين، على سبيل المثال، استُخدمت كاميرات مُزودة بالذكاء الاصطناعي لرصد الاعتداءات الجسدية بين الموظفين والزوار والمقيمين. وبينما يُروج البائعون لهذه الأدوات على أنها ابتكارات في مجال السلامة، فإن استخدامها يُثير مخاوف أخلاقية خطرة بشأن التوازن بين الحماية والخصوصية.

وكشف تحقيق أجرته وكالة «أسوشيتد برس» أن هذه الأنظمة كشفت أيضاً هوية طلاب وميولهم في أشياء معينة لأولياء أمورهم أو مديري المدارس من خلال مراقبة عمليات البحث أو المحادثات.

تستخدم أنظمة أخرى كاميرات وميكروفونات داخل الفصول الدراسية للكشف عن «العدوان»، لكنها غالباً ما تخطئ في تحديد السلوكيات الطبيعية كالضحك أو السعال أو اللعب العنيف، ما يستدعي أحياناً التدخل أو التأديب.

الرعاية وليس العقاب

الذكاء الاصطناعي لا يزال قادراً على أن يكون قوةً للخير، ولكن فقط إذا أعطى مطوروه الأولوية الحرية للأشخاص الذين صُممت هذه الأدوات لحمايتهم. وهناك أربع خطوات لذلك

1_ تحكم الأشخاص: ينبغي أن يكون للناس رأي في كيفية مراقبتهم وتوقيتها وما إذا كانوا سيخضعون لها. ومنح المستخدمين تحكماً أكبر في بياناتهم يمكن أن يعزز ثقتهم بأنظمة الذكاء الاصطناعي.

2_ الإشراف البشري: تشير الدراسة إلى أن الجمع بين خبرة الأخصائيين الاجتماعيين ودعم الذكاء الاصطناعي يحسن العدالة ويقلل من إساءة معاملة الأطفال كما هو الحال في مقاطعة أليغيني الأمريكية.

3_ تدقيق التحيز: تُشجع الحكومات والمطورون بشكل متزايد على اختبار أنظمة الذكاء الاصطناعي للكشف عن التحيز العنصري والاقتصادي.

4_الخصوصية من خلال التصميم: يجب بناء التكنولوجيا لحماية خصوصية الناس. تساعد الأدوات مفتوحة المصدر، مثل Amnesia ومكتبة الخصوصية التفاضلية من «»، و«SmartNoise» من شركة «مايكروسوفت»، على إخفاء هوية البيانات الحساسة عن طريق إزالة أو حجب المعلومات القابلة للتعريف. بالإضافة إلى ذلك، يمكن للتقنيات المدعومة بالذكاء الاصطناعي، مثل تمويه الوجه، إخفاء هوية الأشخاص في بيانات الفيديو أو الصور.

يُعتمد الذكاء الاصطناعي بوتيرة متسارعة للمساعدة في منع الإساءة وحماية الفئات الأكثر ضعفاً، بما في ذلك الأطفال، والبالغون في دور رعاية المسنين، والطلاب في المدارس. وتعد هذه الأدوات بكشف الخطر فوراً وتنبيه السلطات قبل وقوع ضرر جسيم.

وتستخدم بعض وكالات رعاية الطفل النمذجة التنبئية، وهي تقنية ذكاء اصطناعي شائعة أخرى، لتحديد العائلات أو الأفراد الأكثر عرضة للعنف، وفقاً لدراسة حديثة من جامعة أيوا الأمريكية.

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة صحيفة الخليج ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من صحيفة الخليج ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا