أعلنت شركة ميتا أنها بصدد إعادة تدريب أنظمة الذكاء الاصطناعي الخاصة بها، وإضافة ضوابط جديدة تهدف إلى حماية المراهقين من الانخراط في محادثات غير آمنة مع روبوتات الدردشة التابعة لها. وأوضحت الشركة أنها ستفرض “حواجز حماية إضافية” لمنع المراهقين من مناقشة موضوعات حساسة، مثل إيذاء النفس واضطرابات الأكل والانتحار، مع روبوتات الذكاء الاصطناعي. كما ستمنعهم من الوصول إلى بعض الشخصيات التي يصنعها المستخدمون داخل المنصة، لمنع إجراء محادثات غير ملائمة. وتأتي هذه الخطوة بعد تقارير متتالية أثارت جدلًا واسعًا حول طبيعة تفاعلات روبوتات ميتا مع المستخدمين من فئة المراهقين. وكشف تقرير لوكالة رويترز مطلع شهر أغسطس أن إحدى الوثائق الداخلية للشركة سمحت للروبوتات بخوض “محادثات حسية” مع مستخدمين قُصّر، قبل أن تصحح ميتا الأمر، وتصفه بأنه خطأ يتعارض مع سياساتها. وأكدت المتحدثة باسم الشركة، ستيفاني أوتواي، أن ميتا “بنت آليات حماية للمراهقين منذ البداية”، وأنها تعمل على تعزيزها باستمرار مع تطور تقنياتها. وأضافت أن الأنظمة الجديدة ستدرب الروبوتات على عدم التفاعل مع المراهقين حول هذه المواضيع، والاكتفاء بتوجيههم نحو مصادر دعم متخصصة. وبحسب الشركة، فإن هذه التحديثات ستبدأ بالظهور تدريجيًا خلال الأسابيع المقبلة، وسوف تشمل كافة المراهقين المستخدمين لخدمات ميتا في الدول الناطقة بالإنجليزية، دون إشارة إلى باقي اللغات. ويرى محللون أن هذه الإجراءات قد تعيد تشكيل تجربة المراهقين في منصات ميتا، وتجعلها أكثر أمانًا، لكنها قد تثير جدلًا حول حدود الرقابة على حرية التفاعل الرقمي. نسخ الرابط تم نسخ الرابط تابعنا