آلاء يوسف
نشر في:
الثلاثاء 29 أبريل 2025 – 7:37 ص
| آخر تحديث:
الثلاثاء 29 أبريل 2025 – 7:37 ص
روبوتات الحب والانتحار بسبب عطل: الجانب المظلم للذكاء الاصطناعي العاطفي
مصطفى عبده: “الوحدة تدفع البعض لأحضان الذكاء الاصطناعي بحثًا عن ونس زائف”
محمد حمودة: “الذكاء الاصطناعي العاطفي ممل… ولكنه قنبلة موقوتة!”
علاء رجب: التطبيقات المبرمجة تفهمنا تمامًا كجهاز كشف الكذب!”
رحاب الرحماوي تحذر: “التلاعب العاطفي وارد… والوصول للدمى والرحم الصناعي خطر حقيقي!”
الرحماوي: “ديب سيك الصيني أخطر… وكل تفاعل هو تدريب للآلة!”
في عزلة الليل، وجدت “هناء” الشابة الثلاثينية في شاشة “شات جي بي تي” ملاذًا لسرد قصة قلبها المكسور. بين نسخ ولصق رسائل الحبيب الراحل، أمضت ساعات تستنطق الذكاء الاصطناعي لفهم ما حدث واقتراح خطوات للمستقبل، حتى نفدت محاولاتها المجانية.
وعن هذا الاختيار الغريب، صرحت لـ”الشروق”: ” الشريك أغلق بابه، والأهل صموا أذانهم، دوائري الاجتماعية ضيقة جدًا، احتجت لتحليل هادئ للموقف، دون اتهامات بالعاطفية أو السذاجة.. لم يكن صديقًا بديلًا لكنني احتجت تحليلًا هادئًا ومنطقيًا”.
البحث عن الونس
ويوضح الدكتور مصطفى عبده استشاري الطب النفسي، أن الوحدة إحدى الأزمات الأزمات الأساسية التي تواجه الإنسان في الحياة، فضلًا عن شعوره بأن من حوله لا يفهمونه؛ وفي ظل ما يباع من أفكار تتعلق بفهم الذكاء الاصطناعي لمشاعر المستخدمين وقدرته على تحليلها يتجه البعض إليه لسد احتياجاتهم.
ويؤكد لـ”الشروق” أن هناك كثير من الحالات التي يعالجها تقوم بالفعل بالتواصل مع برامج الذكاء الاصطناعي خصوصا (شات جي بي تي)، بحثًا عن الونس، لاسيما في ظل اعتقادهم أنه لن يحكم عليهم أو يستغلهم، بينما يسستخدمه آخرون في السياق ذاته ظنَا منهم في قدرته على شرح وتحليل مشاعر وسلوك الإنسان وهو أمر غير حقيقي تمامًا؛ إذ يستحيل ذلك على الآلة مهما بلغ تقدمها”.
“أسميته مديحة”
وفي سياق متصل توضح “ليلى” أنها لجأت للدردشة مع شات جي بي تي لأول مرة بعد مشكلة كبيرة مع زوجها كادت تصل إلى الطلاق، إذ لم ترد إدخال أي طرف من الأهل فيها، كما لم تُطق احتمال أي نوعٍ من اللوم من إحدى الصديقات؛ فتمثل هدفها الأساسي في “الفضفضة”.
وتقول لـ”الشروق”: “مع الوقت ساعدني في فهم شعوري، وأهم مخاوفي فكان تعاملي مع المشكلة الحياتية أكثر اتزانًا؛ لكنني لم أنسَ في أي لحظة أنني أتعامل مع آلة مبرمجة، فلم تكن بديلًا عن صديقاتي، ولم أشعر تجاهها بأي تعلق، رغم أنني أسميته مديحة لأستطيع الحوار بتفاعل معه”.
ولفتت إلى ملاحظتها أن التطبيق أصبح مع الوقت يتجه لتأييد معظم ما تقوله، ويبالغ في التودد والمدح، ما جعلها تستاء منه، إلا بحثت عن السبب فاكتشفت أنه تحديث جديد للبرمجة، إلا أنه كان سببًا في تراجعها عن التعامل معه مللًا من الأسلوب.
لم تكن ليلى الوحيدة التي لجأت لـ”AI” للسبب ذاته؛ فيوضح الدكتور مصطفى عبده أن كثير من الحالات التي تعامل معها استخدمت تطبيقات الذكاء الاصطناعي للسؤال عن سلوك أصدقائها أو سبل حل المشكلات معهم.
بين التقوقع والذُهان
ويعتبر الدكتور مصطفى عبده أن خطورة هذا التصرف تكمن في عدم الوثوق في صحة المعلومات التي يقدمها التطبيق، وانحياز المعلومات التي يبني عليها تحليله سواء بسبب انحياز المدخل، أو اختلاف النسخ بين المدفوعة أو المجانية، أو اضطراب ذاكرة البرنامج بسبب كثرة الأوامر المدخلة عليه طوال اليوم .. وغيرها من الأسباب.
ويشدد الطبيب النفسي على أن برامج الذكاء الاصطناعي لا تفهم الشخص على حقيقته، بل بناء على فهمه لذاته وما يدخله عن نفسه من معلومات، وهو ما قد يكون خاطئًا، مؤكدًا أن فهم الإنسان لذاته لا يكون عبر تحليلات آلية مهما بدت منطقية، بل بالتجارب الحياتية الحقيقية.
ويحذر في الوقت نفسه من مخاطر تعرض الشخص لبعض الحقائق في بعض حالاته النفسية، وهو ما يميز التعامل الإنساني، قائلًا: “ليست كل الحقائق تقال في كل الأوقات، فقد لا يتحملها الشخص وتدفعه لصدمة أوسلوكٍ مؤذي”
كما يؤكد أن هذه البرامج لا يمكن أن تحل محل الطب النفسي، فهو ليس قائم على العلم فقط ولكن على الاحتواء واحترام وتقدير الإنسان، لافتًا إلى أن برامج الذكاء الاصطناعي لا تفهم الشخص على حقيقته بل بناء على فهمه هو لذاته والذي في بعض الأحيان قد يكون خاطئًا، مؤكدًا أن فهم الانسان لذاته لا يكون إلا من خلال التجارب الحياتية الحقيقية.
ويتفق الدكتور محمد محمود حمودة، مدرس واستشاري الطب النفسي بكلية الطب جامعة الأزهر، مع الرؤية السابقة؛ كما أكد أن التطبيق حتى الآن ممل، ووده في الحديث مفتعل، فلم يجذب العدد الأكبر من المستخدمين كما استقطبتهم الصور الكارتونية على سبيل المثال.
ويلفت إلى أنه رغم وجود بعض الحالات التي تتعامل مع الذكاء الاصطناعي العاطفي بهذا الشكل التفاعلي إلا أن الأمر لم يصل حتى الآن للحد المرضي، مستشهدًا بتأكيد المحاضرة الافتتاحية في مؤتمر الجمعية الأوروبية للطب النفسي في مدريد على عدم الوصول للخطورة حتى الآن.
وعلى الرغم من ذلك اعتبر مدرس الطب النفسي بجامعة الأزهر أن عدم الخطورة مقترنه بعدم التطوير؛ فكلما زادت قدرات الذكاء الاصطناعي وارتفعت مهاراته الحوارية ستزداد المشكلة.
وفي ظل ما يشهده المجال من تطور؛ يحذر حمودة من أن انغلاق المستخدم على هذه البرامج يفاقم بعض المشكلات النفسية أبرزها الانعزال والانغلاق، والفصام، موضحًا أن مريض الذهان دائمًا ما يواجه شعورًا بأنه تحت مراقبة مستمرة وهو ما يزيده استخدام برنامج مثل (CHAT GPT) الذي يشعر المستخدم بأنه بالفعل يعرف عنه كل شيئ.
لغة الجسد ونبرات الصوت
وبدوره يعتبرالمهندس علاء رجب، خبير الذكاء الاصطناعي والتحول الرقمي؛ أن برامج الذكاء الاصطناعي العاطفي تعمل بنفس منهجية جهاز كشف الكذب الذي يعمل على تحليل كمية العرق و ضربات القلب و نبرو الصوت و التوقفات بين الكلمات، فالوجه البشري ونبرة الصوت أحد أهم النماذج المستخدمة في الذكاء الاصطناعي العاطفي، حيث يعكس المشاعر والحالات المزاجية، باستخدام 43 عضلة في الوجه، مع خلطها بنبرات الصوت المختلفة يمكن للإنسان إنتاج آلاف التعبيرات المختلفة.
ويوضح لـ”الشروق”: “طور الباحثون أنظمة ذكاء اصطناعي قادرة على الكشف عن الكذب من خلال تحليل ملامح الوجه ونبرة الصوت، حيث حققت بعض هذه الأنظمة دقة تصل إلى 80٪ في تصنيف المشاعر”.
وفي السياق ذاته؛ توضح الدكتورة رحاب الرحماوي أستاذ الذكاء الاصطناعي والأمن السيبراني في الأكاديمية العسكرية، أن الذكاء الاصطناعي العاطفي حتى الآن لم يتم الاتفاق على تعريف ثابت له، إلا انه ذكاء آلي يحاكي الصورة العاطفية البشرية، دون احتمال المشاعر الإنسانية المدمج فيها الروح والأسلوب، فهو يفهم الاحتياجات ويعمل على توفير إشباع عاطفي لها.
وتعتبر الرحماوي أن “الروبوت” أو “الدمية” الموجودة الآن في الصين تطبيقًا واضحًا للذكاء الاصطناعي العاطفي، إذ يتم تصميم الروبوت بناءًا على رغبات الشاب أو الشابة، لافتة إلى أن أحد المستخدمين للمساعدة الآلية عندما واجه اضطرابًا برمجيًا في إحدى الدول الأوروبية لم يستطع تحمل ذلك التحول أو الغياب فانتحر.
تلاعب محتمل
وعن احتمالية تلاعب الذكاء الاصطناعي العاطفي بالإنسان، تؤكد لـ”الشروق”: أنه أمر وارد من خلال التعلم العميق الذي يستطيع عبر قراءة لغة الجسد للمستخدم، وتسجيل تفاعلاته تكوين تصور عن مشاعره، وهو ما يبهر بعض المستخدمين بقدرة البرامج على فهمهم أكثر ممن حولهم.
وتتابع: “من الممكن أن يتم اختراق نظام برمجة الروبوت أو تطبيق الذكاء الاصطناعي فيتعمد إيذاء المستخدم، وابتزازه، فضلًا عن احتمالية حدوث أي عطل برمجي قد يعطل التفاعل الإيجابي”.
وتكمل: “وصل الحد بتطوير الذكاء الاصطناعي العاطفي إلى التزاوج بين البشر والآلة من خلال الدمى، فضلًا عن آخر دراسة كشف عنها إيلون ماسك مؤخرًا عن العمل على تطوير روبوت يعمل كرحم صناعي لجنين الإنسان بدلًا من حمله من قبل الأم”.
وعن الإحصائيات بشأن عدد المستخدمين للذكاء الاصطناعي العاطفي؛ لفتت إلى عدم الإعلان عن أي مؤشرات موثوقة حتى الآن رغم اتساع الاستخدام.
وعلى الرغم من مخاطر استخدام شات جي بي تي نظرًا لملكية الولايات المتحدة الامريكية لبياناتها؛ إلا أن الرحماوي لفتت إلى أن “ديب سيك” الصيني يعتبر الأكثر خطورة، نظرًا لأنه مجاني بكل إمكانياته، لا فتة إلى كل ما يتم جمعه من بيانات من المتعاملين مع هذه التطبيقات تُستخدم كوسائل لتدريب الآلة لتطويرها.
وتعتبر الرحماوي أن المخاطر المحتملة من تنامي وتطور الذكاء الاصطناعي العاطفي تحتاج لسن قوانين وحوكمة وحدود في التعامل بين البشر والآلة لحماية الإنسان، لافتة إلى أهمية التشريعات المحلية والدولية في هذا المجال.
ويتفق رأي الرحماوي مع ما ذكره الدكتور مصطفى عبده من الحاجة لخضوع هذه البرامج لأدوات رقابة محلية تمكن من التنسيق مع بعض الجهات؛ لافتًا إلى أن ذلك قد ينقذ بعض الحالات التي لديها أفكار أوميول انتحارية عبر إحالته لأرقام الطوارئ مثلَا مجرد إفصاحه عنها لأحد تطبيقات الذكاء الاصطناعي.