تخيّل أنك جزء من فريق هندسي يعكف على تصميم جسر معقد، حيث كل قرار تتخذه قد يحدد مصير المشروع بأكمله. - تطرح فكرة عبقرية لتحسين نسبة القوة إلى الوزن في إحدى الدعامات الرئيسية، لكنَّ زميلين لك في الفريق يعارضانها، ويُرفَض مقترحك بأغلبية الأصوات. - الآن، تخيّل أن هذين الزميلين ليسا من البشر، بل هما نظامان للذكاء الاصطناعي. - هذا السيناريو لم يعد ضربًا من الخيال العلمي، بل هو واقع يتشكّل بوتيرة متسارعة في بيئات العمل الحديثة. - ومع تزايد استقلالية أنظمة الذكاء الاصطناعي، بدأت هذه الأنظمة تلعب أدوارًا حاسمة في صنع القرار. فكيف سيكون شعورنا عندما تتغلب الآلة على حكمنا البشري؟ - في الفرق البشرية البحتة، غالبًا ما تؤدي الخلافات في وجهات النظر إلى مشاعر سلبية وتوترات شخصية. لكن ماذا يحدث عندما يكون أحد أطراف الخلاف هو الذكاء الاصطناعي؟ - هذا هو السؤال الجوهري الذي استكشفته دراسة تجريبية رائدة أجراها الباحث "هو" وزملاؤه (2025)، والتي تقدم رؤى عميقة حول ديناميكيات التعاون بين الإنسان والآلة. داخل مختبر التعاون الافتراضي - في تجربة معمقة شملت 175 طالبًا في كلية الهندسة، تم وضع كل مشارك في فريق افتراضي لتصميم جسر مع زميلين من الذكاء الاصطناعي، "أليكس" و"تايلور". - امتلك كل عضو في الفريق، سواء كان بشريًا أم آليًا، قوة تصويت متساوية. وعلى مدار 30 محاولة تصميم، كان على الفريق مواجهة تحديات فريدة لا توجد حلول سهلة لها. - في كل مرة، يقدم الأعضاء الثلاثة حلولهم، ثم يصوتون على الخيار الأفضل، ويتم اعتماد قرار الأغلبية. - ولإضافة المزيد من التعقيد، تحكّم الباحثون في متغيرين رئيسيين: سيناريو التصويت (هل يتفق الذكاء الاصطناعي مع الإنسان أم يتغلب عليه؟)، ومستوى أداء الذكاء الاصطناعي (هل هو شريك عالي الكفاءة يصيب بنسبة 80%، أم منخفض الكفاءة لا تتجاوز نسبة صوابه 20%؟). حياد عاطفي مقلق وثقة متقلبة - جاءت النتائج مفاجئة ومثيرة للتفكير؛ فعلى عكس المتوقع، لم يُبدِ المشاركون ردود فعل عاطفية سلبية قوية عندما تم تجاهل زملائهم الآليين أصواتهم، خاصةً إذا أدى قرار الذكاء الاصطناعي في النهاية إلى نتيجة إيجابية للمشروع. - والشاهد هنا أن هذا الحياد العاطفي يتناقض بشكل صارخ مع الصراعات المحملة بالأنا التي تنشأ عادةً في الفرق البشرية. وهنا يبدو أن الخلاف مع آلة لا يهدد العلاقات الاجتماعية أو السمعة الشخصية. - ومع ذلك، عندما أدت قرارات الذكاء الاصطناعي المتفوقة عدديًا إلى نتائج سيئة، شعر المشاركون بقدر أكبر من الخضوع وفقدان السيطرة. - الأمر الأكثر غرابة كان في تقلبات الثقة بالنفس. فقد كشفت الدراسة عن مفارقة عجيبة: زادت ثقة المشاركين بأنفسهم عندما رفض الذكاء الاصطناعي -الذي اتخذ قرارًا خاطئًا لاحقًا- أفكارهم، على الرغم من عدم تلقيهم أي تأكيد بأن فكرتهم الأصلية كانت هي الصواب. - كما أظهرت النتائج أن الثقة في الذكاء الاصطناعي تتطور بشكل غير متماثل: فهي تنهار بسرعة عند التعامل مع ذكاء اصطناعي ضعيف الأداء، لكنها تنمو ببطء شديد مع الشريك الآلي عالي الكفاءة. سلاح ذو حدين: بين الكفاءة والتخلي عن التفكير - كشفت الدراسة أن المشاركين لم يتبعوا الذكاء الاصطناعي بشكل أعمى، بل تعلموا التمييز بين الزميل الكفء والزميل الضعيف، وبدأوا في التصويت لأنفسهم أكثر بمرور الوقت. لكن قبولهم الهادئ لقرارات الذكاء الاصطناعي الناجحة يمثل سيفًا ذا حدين. - الجانب المشرق: قد يؤدي هذا النهج العملي الذي يركز على النتائج إلى فرق عمل أكثر كفاءة، متجردة من الصراعات الشخصية التي تعيق الإنتاجية. - الجانب المقلق: قد يمهد هذا الحياد الطريق لظاهرة "التفريغ المعرفي"، حيث يتخلى البشر تدريجيًا عن التفكير النقدي ويسلمون زمام المبادرة للآلة، واثقين بأنها تعرف الأفضل. قد يصبح هذا الأمر كارثيًا في المواقف التي تكون فيها النتيجة "الصحيحة" غير واضحة أو غامضة. - في السياق ذاته، حذرت الدراسة من أن وجود زميل واحد فقط من الذكاء الاصطناعي منخفض الأداء كان كفيلًا بالإضرار الشديد بالأداء العام للفريق بأكمله. نحو مستقبل من التعاون المسؤول - إذا كانت أنظمة الذكاء الاصطناعي قادرة على إلغاء القرارات البشرية دون مقاومة تُذكر، فنحن بحاجة ماسة إلى آليات تمنعنا من الانزلاق نحو الثقة العمياء. - لا يكمن الحل في رفض التعاون، بل في إعادة تصميم العلاقة. يجب برمجة أنظمة الذكاء الاصطناعي المستقبلية بحيث تشجع على التشكيك الصحي والتعاون الفعّال. يجب أن تدفع مستخدميها إلى التساؤل، والمراجعة، وحتى الاختلاف مع قراراتها. - في النهاية، يطرح هذا البحث سؤالًا حاسمًا: هل قبول خلاف الذكاء الاصطناعي سيمكّننا من تحقيق تعاون أفضل، أم سيقودنا إلى تخلٍ خطير عن الحكم البشري؟ - إن التمييز بين هاتين النتيجتين ليس مجرد مسألة تقنية، بل هو حجر الزاوية في دمج الذكاء الاصطناعي بمسؤولية في نسيج مجتمعاتنا وأماكن عملنا. المصدر: سيكولوجي توداي