إعداد: محمد عزالدين
خلص باحثون أمريكيون في جامعة كاليفورنيا بسان فرانسيسكو، إلى أن الذكاء الاصطناعي ليس جاهزاً بعد لإدارة غرفة الطوارئ بالمستشفى، لأنه يطلب إجراء أشعة سينية ومضادات حيوية غير ضرورية لبعض المرضى، ويدخل آخرين لتلقي العلاج في المستشفى وهم في غنى عن ذلك.
وقال كريس ويليامز، الأستاذ في الجامعة، والباحث الرئيسي للدراسة: «هذه رسالة قوية للأطباء بعدم إيلاء الثقة العمياء لهذه النماذج، لأنها تميل إلى المبالغة في الوصف الطبي، وأن مواقع الاستشارات الطبية، ليست مصممة للإجابة على الأسئلة الطبية الطارئة، ولكن لتوجيه المرضى إلى طبيب يستطيع ذلك».
وأضاف: «يمكن لنموذج ChatGPT الإجابة على أسئلة الفحص الطبي والمساعدة على صياغة الملاحظات السريرية، ولكنه غير مصمم للحالات التي تستدعي اعتبارات متعددة، مثل الحالات في قسم الطوارئ، إذ يمكن أن تتسبب التدخلات غير الضرورية في إلحاق الضرر بالمرضى، وإثقال كاهلهم بالتكاليف العلاجية».
بالنسبة للدراسة الجديدة، تحدى الباحثون نموذج الذكاء الاصطناعي Chat GPT لتقديم نوع التوصيات التي قد يقدمها طبيب الطوارئ بعد فحص المريض في البداية، بعرض بيانات 1000 زيارة سابقة لقسم الطوارئ، مأخوذة من أرشيف يضم أكثر من 251 ألف زيارة، وكان على نموذج الذكاء الاصطناعي الإجابة بـ «نعم» أو «لا» حول ما إذا كان يجب إدخال كل مريض المستشفى، أو إجراء أشعة سينية، أو وصف مضادات حيوية.
وخلصت النتائج بشكل عام، أن نموذج ChatGPT-4 كان يميل إلى التوصية بخدمات أكثر مما هو مطلوب بالفعل، وكان أقل دقة بنسبة 8% من الأطباء البشريين، في حين كان نموذج ChatGPT-3.5 أقل دقة بنسبة 24%.
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة صحيفة الخليج ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من صحيفة الخليج ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.