هل يمكننا الوثوق في الذكاء الاصطناعي لاتخاذ قرارات أفضل من البشر؟ دراسة حديثة تشير إلى أن الإجابة ليست دائمًا “نعم”. فقد كشف باحثون أن نموذج “ChatGPT” من شركة OpenAI، أحد أكثر نماذج الذكاء الاصطناعي تقدمًا، يرتكب أخطاء مشابهة لتلك التي يقع فيها البشر عند اتخاذ القرارات، مثل الإفراط في الثقة وتأثير “اليد الساخنة” (وهم المقامر). ومع ذلك، في بعض الجوانب، يتصرف الذكاء الاصطناعي بطريقة غير بشرية، حيث لا يعاني من تحيزات مثل إهمال القواعد الإحصائية أو الوقوع في مغالطة التكاليف الغارقة.
الدراسة، التي نُشرت في مجلة Manufacturing & Service Operations Management التابعة لمعهد INFORMS، تكشف أن ChatGPT لا يقتصر على معالجة الأرقام فقط، بل “يفكر” بطرق مشابهة للبشر، بما في ذلك استخدام الاختصارات الذهنية التي قد تؤدي إلى قرارات خاطئة. هذه التحيزات تظل ثابتة نسبيًا عبر مختلف سيناريوهات الأعمال، لكنها قد تتغير مع تطور نماذج الذكاء الاصطناعي من إصدار إلى آخر.
قام الباحثون بإجراء 18 اختبارًا للكشف عن مدى تأثر الذكاء الاصطناعي بالتحيزات البشرية، وكانت النتائج مثيرة للاهتمام:
•يقع ChatGPT في الفخاخ الذهنية التي يقع فيها البشر، مثل الإفراط في الثقة، تجنب الغموض، ومغالطة التوافق، في ما يقرب من نصف الاختبارات.
•يتمتع الذكاء الاصطناعي بقدرة فائقة على حل المشكلات الرياضية والمنطقية، لكنه يواجه صعوبة عندما تتطلب القرارات تقييمًا شخصيًا.
•حتى مع تطور النماذج، لا تختفي التحيزات، بل قد تصبح أقوى في بعض المهام القائمة على الأحكام الشخصية.
لماذا هذا مهم؟
مع تزايد اعتماد الحكومات والشركات على الذكاء الاصطناعي لاتخاذ قرارات مصيرية، من التوظيف إلى منح القروض، يثير هذا البحث تساؤلات جوهرية: هل يمكن أن يعزز الذكاء الاصطناعي القرارات السيئة بدلاً من تصحيحها؟
يقول الباحث يانغ تشين، الأستاذ المساعد في جامعة “ويسترن”: “بما أن الذكاء الاصطناعي يتعلم من البيانات البشرية، فقد يفكر مثل البشر، بتحيزاتهم وأخطائهم”.
الدراسة وجدت أن ChatGPT يميل إلى:
•تجنب المخاطرة، حتى عندما تكون الخيارات الأكثر خطورة قد تؤدي إلى نتائج أفضل.
•المبالغة في تقدير دقته، حيث يفترض أنه أكثر دقة مما هو عليه في الواقع.
•البحث عن تأكيد افتراضاته، بدلاً من تحديها بمعلومات جديدة.
•تفضيل الخيارات الأكثر وضوحًا، وتجنب الغموض في القرارات.
يقول الباحث أنتون أوفشينيكوف من جامعة “كوينز”: “عندما يكون هناك إجابة صحيحة واضحة، يبرع الذكاء الاصطناعي في العثور عليها، لكنه يقع في نفس الفخاخ الإدراكية التي يقع فيها البشر عندما يتطلب القرار نوعًا من التقدير الذاتي”.
هل يمكننا الوثوق في الذكاء الاصطناعي لاتخاذ قرارات كبيرة؟
مع تسابق الحكومات حول العالم لوضع أطر تنظيمية للذكاء الاصطناعي، يطرح البحث تساؤلًا عاجلًا: هل ينبغي لنا الاعتماد على الذكاء الاصطناعي في اتخاذ قرارات مصيرية رغم أنه يعاني من نفس التحيزات البشرية؟
يقول صامويل كيرشنر من كلية إدارة الأعمال بجامعة نيو ساوث ويلز: “الذكاء الاصطناعي ليس حكمًا محايدًا، وإذا لم يتم ضبطه بشكل صحيح، فقد لا يحل مشكلات اتخاذ القرار بل يزيدها سوءًا”.
لذلك، يؤكد الباحثون على ضرورة مراقبة قرارات الذكاء الاصطناعي كما نراقب قرارات البشر، وتطوير إرشادات أخلاقية لضبط استخدامه. تقول مينا أنديابان من جامعة “ماكماستر”: “يجب التعامل مع الذكاء الاصطناعي كموظف يتخذ قرارات مهمة – فهو بحاجة إلى إشراف وتوجيه أخلاقي، وإلا فقد ننتهي إلى أتمتة التفكير الخاطئ بدلًا من تحسينه”.
ما التالي؟
يوصي الباحثون بإجراء مراجعات دورية للقرارات التي يتخذها الذكاء الاصطناعي، وتحسين الأنظمة لتقليل التحيزات. مع تزايد تأثير الذكاء الاصطناعي في حياتنا، سيصبح من الضروري ضمان أنه لا يكرر أخطاء البشر بل يعمل على تحسين عملية صنع القرار.
يقول تريسي جينكين من جامعة “كوينز”: “التطور من نموذج GPT-3.5 إلى 4.0 يُظهر أن أحدث النماذج أصبحت أكثر شبهًا بالبشر في بعض الجوانب، ولكنها أكثر دقة وأقل بشرية في جوانب أخرى. لذا، يجب على المدراء تقييم أداء النماذج المختلفة في سيناريوهات اتخاذ القرار لديهم وإعادة التقييم بانتظام لتجنب المفاجآت”.