رغم أن الذكاء الاصطناعي والبشر “يفكرون” بطرق مختلفة، إلا أن دراسة جديدة كشفت أن أدوات الذكاء الاصطناعي مثل ChatGPT تتخذ أحيانًا قرارات غير عقلانية تشبه إلى حد كبير تلك التي يرتكبها الإنسان.
تعد الدراسة، التي نشرت في 8 أبريل بمجلة Manufacturing & Service Operations Management، الأولى من نوعها في تحليل سلوك ChatGPT عبر 18 انحيازًا معرفيًا شائعًا في علم النفس البشري.
وأظهرت النتائج أن روبوتات المحادثة المدعومة بنماذج اللغة الكبيرة GPT-3.5 وGPT-4 أظهرت في حوالي نصف السيناريوهات التي تمت دراستها أنماط تفكير غير عقلانية مألوفة لدى الإنسان، مثل تفضيل اليقين، والثقة الزائدة، وتأثير التملك.
وقالت الدراسة، التي أعدها باحثون من خمس مؤسسات أكاديمية في كندا وأستراليا، إن ChatGPT كان “متماسكًا بدرجة مدهشة” في منطقه، لكنه في الوقت نفسه لم يكن بمنأى عن العيوب البشرية.
وأضاف الباحث الرئيسي، البروفيسور يانج تشين من كلية آيفي لإدارة الأعمال: “سيستفيد المدراء من هذه الأدوات في المسائل التي لها حلول واضحة ومعروفة، أما في القرارات المعتمدة على التفضيلات الشخصية أو الآراء، فيجب توخي الحذر”.
التحيّزات البشرية تمتد للذكاء الاصطناعي
طبق الباحثون مجموعة من الانحيازات المعرفية المعروفة مثل النفور من المخاطر، والثقة المفرطة، وتأثير التملك، على ChatGPT من خلال طرح أسئلة نفسية تقليدية وسيناريوهات تجارية حقيقية تتعلق بإدارة المخزون أو التفاوض مع الموردين.
وأظهرت النتائج أن نموذج GPT-4 تفوق على GPT-3.5 في المسائل التي تعتمد على المنطق والاحتمالات، حيث ارتكب أخطاء أقل، إلا أنه في القرارات التي تتضمن تقييمات شخصية أو استراتيجية، أظهر تحيزات تشبه الإنسان مثل تفضيل الخيارات الآمنة حتى وإن لم تكن الأفضل.
بل وأظهر GPT-4 ميلًا أقوى من البشر نحو ما يُعرف بـ”تحيز التأكيد”، وهو الميل إلى تأكيد المعتقدات القائمة بدلًا من اختبارها، كما كان أكثر عرضة لـ”وهم التسلسل”، أي افتراض وجود نمط في أحداث عشوائية.
في المقابل، استطاع ChatGPT تجنب بعض الانحيازات المعرفية الشائعة مثل تجاهل المعدلات الأساسية (Base-rate neglect) وتحيّز الكلفة الغارقة (Sunk-cost fallacy)، والتي تؤثر سلبًا على القرارات المنطقية.
التحذير من الاعتماد الكامل على الذكاء الاصطناعي
خلص الباحثون إلى أن هذه التحيزات قد تكون ناتجة عن بيانات التدريب التي تحتوي على نفس الأخطاء الإدراكية التي يرتكبها البشر، ما يعني أن ChatGPT لا يستند دائمًا إلى المنطق المجرد، بل يتأثر بأنماط التفكير البشري خاصة في المهام الغامضة أو المفتوحة.
وقال البروفيسور تشين: “إذا كنت ترغب في قرارات دقيقة وغير متحيزة، استخدم GPT في المجالات التي تثق فيها بالحاسبة”، مشيرًا إلى أن القرارات المعتمدة على تفضيلات شخصية تحتاج إلى إشراف بشري لتقليل أثر الانحيازات.
وأضافت الباحثة المشاركة الدكتورة مينا أنديابان من جامعة ماكماستر الكندية: “يجب التعامل مع الذكاء الاصطناعي كما لو كان موظفًا يتخذ قرارات هامة — يحتاج إلى رقابة وإرشادات أخلاقية. وإلا فإننا نخاطر بأتمتة التفكير الخاطئ بدلًا من تصحيحه”.