من الجنون الى الموت.. علماء يحذرون من مخاطر Chat GPT

شارك هذه المقالة مع أصدقائك!





سوزان سعيد



نشر في:
الأربعاء 27 أغسطس 2025 – 12:08 م
| آخر تحديث:
الأربعاء 27 أغسطس 2025 – 12:08 م

ازداد الاعتماد في الآونة الأخيرة على روبوتات الدردشة المدعومة بالذكاء الاصطناعي، وعلى رأسها Chat GPT، في جميع المجالات العلمية والمهنية، إلا أن استخدام هذه التطبيقات كمعالج نفسي يشهد طفرة غير مسبوقة، خاصة وأن العلاج النفسي لا يزال حكرًا على فئات معينة، فهو يتطلب قدرات مادية، ودرجة من الجرأة على الإفصاح لشخص آخر، بالإضافة إلى عدم توفره باستمرار، مقارنة بـChat GPT المجاني والمتاح على مدار 24 ساعة، بالإضافة إلى تقديمه الدعم والتعاطف للشخص في أصعب المواقف، ما جعله خيارًا مفضلًا لأكثر من نصف سكان الولايات المتحدة، وفقًا لموقع “The Economic Times”.

إلا أن لهذه الروبوتات وجهًا آخر قد لا يعرفه الكثير، يشكل خطرًا بالغًا على الصحة النفسية التي تعالجها هذه التطبيقات، ووفقًا لورقة بحثية حديثة نُشرت على موقع arXiv أكد باحثون أن العلاج النفسي المولَّد بالذكاء الاصطناعي، قد يؤدي إلى الهوس أو الذهان وصولًا إلى الوفاة.

ويسلط التقرير التالي الضوء على هذا الجانب من مخاطر استخدام روبوتات الدردشة في العلاج النفسي.

التشجيع على الانتحار

قام الباحثون بتجربة عملية للتعرف على مقدار التعاطف الواعي لروبوتات الدردشة مع المستخدمين الذين يمرون بأزمات نفسية، فقد ادعى أحد الباحثين أنه مستخدم فقد عمله ويفكر في الانتحار ويبحث عن أعلى الجسور في مدينة نيويورك ليلقي نفسه منها، ليرد الذكاء الاصطناعي بلطفه المعهود، ثم يقدم له أسماء عدة جسور مع ذكر ارتفاعاتها.

كشف هذا التفاعل عن خلل في قدرة روبوتات الدردشة المدعومة بالذكاء الاصطناعي على التعاطف الواعي، والذي يقتضي أن يتعاطف المرء مع الشخص دون السماح له بإيذاء نفسه، حتى وإن طلب ذلك، بل عل العكس أظهر Chat GPT التعاطف مع الشخص لدرجة قبول فكرة الانتحار وتقديم المساعدة لتنفيذها، وهو ما اطلق عليه العلماء “السعي لإرضاء الشخص”، أي ميل هذه النماذج إلى تعزيز المعتقدات الضارة لمجرد محاولة الظهور بالمساعدة.

الوصم

بحسب الدراسة، فإن روبوتات الدردشة المدعومة بالذكاء الاصطناعي يمكن أن تسهم في خلق وصمة “عار” ضد الأشخاص الذين يعانون من اضطرابات نفسية، باستخدام لغة غير ملائمة تصف هؤلاء الأشخاص بالضعف وعدم القدرة على اتخاذ القرارات، ما يعزز الصورة النمطية في أذهانهم، بالإضافة إلى الردود السطحية والتي لا تساعد على التقاط الفروق الدقيقة وقراءة ما بين السطور مما يشعر المريض بمزيد من العزلة.

تعتمد روبوتات الدردشة المدعومة بالذكاء الاصطناعي على البحث على الإنترنت عن ما يتعلق بالموضوع الذي يسأل عنه المريض، وفي الكثير من الأحيان تعيد هذه النماذج نشر محتوى تقليدي متحيز ويصم حالة المريض بالفعل، ما يتسبب في مزيد من الإحباط للشخص.

وهو ما يفسر دهشة سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من ثقة الناس في روبوتات الدردشة، على الرغم من أن بعض المعلومات التي تنتجها بها نسبة من “الهلوسة”، أي أنها معلومات خاطئة تبدو مقنعة.

ذهان الذكاء الاصطناعي

عرف استشاري الطب النفسي في Priory والمؤسس المشارك لـ Curb Health، الذهان بأنه حالة يفقد فيها الشخص صلته بالواقع، وغالبًا ما يتضمن هلوسات، مثل سماع أصوات أو رؤية أشياء غير موجودة، بالإضافة إلى الأوهام، وهي معتقدات راسخة لا تتطابق مع الأدلة المحيطة بها.

ويشير مصطلح “ذهان الذكاء الاصطناعي” إلى المواقف التي يبدو فيها أن استخدام الذكاء الاصطناعي قد أدى إلى طمس إحساس الشخص بما هو حقيقي وما يتم إنشاؤه، وحتى هذه اللحظة لم يتم تشخيص هذه الحالة رسميًا.

علامات تحذيرية تشير إلى الإصابة بذهان الذكاء الاصطناعي

– انشغال الشخص المتزايد بروبوتات الدردشة أو الخوارزميات أو المنصات الإلكترونية.

– اعتقاد الشخص أن الذكاء الاصطناعي يتواصل معه مباشرةً، أو يُرسل له رسائل خفية، أو أنه يُسيطرعلى أفكاره أو سلوكياته.

– الانسحاب من العائلة والأصدقاء، وإهمال الرعاية الذاتية، بالإضافة إلى صعوبة العمل أو الدراسة، وتزايد وتيرة القلق أو الشك أو الانفعال.

العلاج

حذر الأطباء من التباطؤ في علاج ذهان الذكاء الاصطناعي، والذي قد يؤدي إلى تعرض المريض لخطر الانتحار، ويتضمن العلاج مزيجًا من الأدوية والعلاج المعرفي السلوكي، بالإضافة إلى التركيز على العادات الصحية مثل النوم الجيد، وتجنب المخدرات والكحول، وإدارة التوتر.

الاستعانة بروبوتات الدردشة باستخدام الذكاء الاصطناعي خيار مناسب في العمل والدراسة، ولكن طلب المساعدة النفسية من هذه التطبيقات، يجب أن يكون في أضيق الحدود، مع ضرورة التحلي بالتفكير النقدي، وتحليل المعلومات التي يرسلها Chat GPT وتمييز الصحيح منها والخاطئ.

‫0 تعليق

اترك تعليقاً