كشفت دراسة حديثة عن سمة مشتركة مثيرة للدهشة بين البشر ونماذج الذكاء الاصطناعي المتقدّمة، حيث تبيّن أن الذكاء الاصطناعي يمكن أن يقع في الأخطاء والتحيزات المعرفية نفسها التي يظهرها البشر.
اختبر باحثون من جامعات كندية وأسترالية نماذج GPT-3.5 و GPT-4 التابعة لـ OpenAI للكشف عن تحيزات معرفية شبيهة بالبشر، مثل الميل لتجنب المخاطر أو الثقة المفرطة. وكشفت النتائج أن روبوت الدردشة ChatGPT أظهر ما وصف بـ "أفخاخ نفسية" مماثلة لتلك الموجودة لدى الإنسان في 47 % من الاختبارات.
ورغم أن الذكاء الاصطناعي كان أفضل في المهام المنطقية والرياضية، إلّا أنه عكس في بعض السيناريوات اللاعقلانية نفسها المتأصلة في القرارات البشرية، خاصة في المواقف التي تتطلب محاكاة ذاتية أو تحمل مخاطر.
يؤكد الباحثون، بناءً على هذه النتائج، ضرورة الإشراف البشري عند توظيف الذكاء الاصطناعي في القرارات ذات الطابع الاستراتيجي أو الشخصي. ويحذّرون من أن غياب الرقابة الدقيقة والتوجيه الأخلاقي قد يؤدي إلى تكرار الأخطاء المعرفية البشرية وأتمتتها، بدلاً من استخدام الذكاء الاصطناعي لتحسين عملية التفكير.