لطالما اعتُبر الذكاء الاصطناعي رمزًا للدقة والموضوعية لكن دراسة حديثة كشفت أن حتى أكثر أنظمته تطورًا مثل GPT-3.5 وGPT-4 من شركة OpenAI قد تقع في فخاخ التفكير البشري نفسها بما في ذلك التحيزات المعرفية والأخطاء المنطقية.
الدراسة التي أجراها باحثون من جامعات كندية وأسترالية أظهرت أن روبوت الدردشة ChatGPT أظهر في 47% من الحالات سلوكيات مشابهة للتحيزات البشرية مثل: تجنب المخاطرة والثقة المفرطة والتأثر بالنجاح ورغم تفوقه في حل المسائل الرياضية الواضحة فإنه واجه صعوبة في المواقف التي تتطلب حكمًا ذاتيًّا حيث ظهرت ردوده أحيانًا غير عقلانية كما يحدث مع البشر.