رئيس مجلس الإدارة : د. خالد بن ثاني آل ثاني

Al-sharq

رئيس التحرير: جابر سالم الحرمي

الشرق

مساحة إعلانية

مساحة إعلانية

مساحة إعلانية

محليات

878

يعمق الفردية ويعزز حالات الاكتئاب..

أطباء واختصاصيون نفسيون لـ«الشرق»: العلاج النفسي بـ الـ «ChatGPT» يفاقم الحالة النفسية

15 يوليو 2025 , 07:00ص
alsharq
ChatGPT
❖ هديل صابر

حذر أطباء واختصاصيون نفسيون من ظاهرة متنامية بين عدد من مستخدمي إحدى أدوات الذكاء الاصطناعي مثل ChatGPT، كوسيلة للتفريغ النفسي وطلب المشورة والدعم العاطفي، مؤكدين أن الاعتماد على الذكاء الاصطناعي في معالجة الاضطرابات النفسية هو مسار محفوف بالمخاطر، وقد يؤدي إلى تفاقم الحالة النفسية بدلًا من تحسينها، فهو لا يعوّض العلاج المهني، ولا يقدّم الدعم الإنساني الحقيقي الذي يحتاجه الفرد ليستعيد توازنه النفسي.

وأكد الأطباء والاختصاصيون النفسيون خلال استطلاع لـ»الشرق» أنَّ خطورة الأمر لا تكمن فقط في أن الذكاء الاصطناعي خالٍ من المشاعر والوعي بالواقع الشخصي، بل في أن من يلجأ إليه غالبا ما يكون شخصا يعاني من العزلة أو الاكتئاب أو فقدان الثقة بالذات، هؤلاء يجدون في الردود الآلية متنفسا مؤقتا، ونراه دعما زائفا، فضلا عن أنه يُعمّق الشعور بالوحدة ويُضعف قدرتهم على التواصل البشري الحقيقي، إلى جانب تأثيره على الصحة النفسية عندما يصبح معالجا نفسيا افتراضيا في نظر بعض المستخدمين.

وفي هذا السياق نشير إلى دراسة حديثة أجرتها جامعة ستانفورد الأمريكية حذرت من الاعتماد على أدوات الذكاء الاصطناعي مثل ChatGPT للحصول على مشورة تتعلق بالصحة النفسية، وبحسب ما نقلته صحيفة “نيويورك بوست”، وجد الباحثون أن هذه الروبوتات أعطت إجابات غير ملائمة وخطيرة في ما لا يقل عن 20% من الحالات، لمرضى يعانون من اضطرابات نفسية معقدة كالأوهام، والوسواس القهري والهلوسة.

 

- د. لؤي مهر: مؤشر على تفاقم الاضطراب النفسي

 أكدَّ الدكتور لؤي مهر –اختصاصي الطب النفسي-، خطورة استخدام أدوات مثل الذكاء الاصطناعي، للحديث معه للحصول على استشارة نفسية، لافتا إلى أنَّ من يلجأ إلى هذه الأدوات غالبا ما يكون شخصا يفتقد الدعم الإنساني المحيط به، ويعيش حالة من العزلة الداخلية، هو لا يبحث عن معلومة علمية فقط، بل يتحدث إلى هذا الذكاء الاصطناعي وكأنه صديق، وأحيانا كطبيب نفسي، وهذا بحد ذاته مصدر خطر كبير.

وتابع د. المهر قائلا « إنَّ الشخص الذي يعاني نفسيا حين يتحدث إلى آلة مجردة من المشاعر – كأن يتحدث مع روبوت – لا يحصل على التفاعل الإنساني الحقيقي، بل إن هذه التفاعلات قد تعزز لديه مشاعر الكبت، والعزلة، والانفصال عن الواقع، وقد يؤدي إلى الإدمان النفسي على الأداة، والمشكلة أن الشخص الذي يلجأ للذكاء الاصطناعي بهذه الطريقة، يكون غالبا ضعيف الثقة بالنفس، غير قادر على التعبير عن ذاته أو مشاعره مع من حوله، وهنا يكمن الخطر الأكبر يتحول الذكاء الاصطناعي من أداة معلوماتية إلى بديل عن العلاقات الاجتماعية، ومع الوقت، يتعمق لديه الشعور بالوحدة، ويُضعف التواصل مع المحيط، مما يعزز الميل للاكتئاب، والانفصال عن الواقع، وربما فقدان القدرة على التواصل البشري الطبيعي.»

وأضاف د. المهر « إنه بالإمكان الاستعانة بالذكاء الاصطناعي لأغراض علمية أو تعليمية، لكن حين يصبح بديلاً عن الطبيب النفسي أو عن القريب الذي يمنح دفئاً إنسانياً حقيقياً، فهنا مكمن الخطر الحقيقي، هذه ليست فقط وسيلة للهروب من الواقع، بل قد تكون مؤشرًا على تفاقم الاضطراب النفسي.

- د. خالد المهندي: ChatGPT لا يفهم السياق الإنساني

ذهب الدكتور خالد المهندي –استشاري نفسي- إلى تحذير أكثر وضوحا، حيث يرفض تماماً استخدام الذكاء الاصطناعي كأداة لحل المشاكل النفسية أو الأسرية، موضحا أن ChatGPT هو مجرد محرك بحث متقدم، لا يستطيع فهم السياق الإنساني، ولا إدراك المشاعر، بل يعتمد فقط على جمع المعلومات المتوافرة عبر السحابة الإلكترونية.

وتابع د. المهندي قائلا « إنه لا يمكن للذكاء الاصطناعي أن يحل مكان الأخصائي النفسي، لأن الأخير يقرأ تعابير الوجه، لغة الجسد، ويتعامل مع الخلفية النفسية والاجتماعية للمريض، أما ChatGPT، فهو مجرد آلة باردة، يقدم حلولاً نظرية لا تراعي الواقع الفعلي.»

وأشار د. خالد المهندي إلى أن دراسات متعددة أظهرت أن النساء هن الفئة الأكثر استخداما لهذه الأداة في محاولة لحل مشكلات عاطفية أو زوجية، مثل الشك في خيانة الزوج أو الأزمات الأسرية، يليهن المراهقون، ومن ثم فئة الرجال، مؤكدا أن الاعتماد على ردود الذكاء الاصطناعي في هذه القضايا قد يؤدي إلى انفصال أسر وتدهور علاقات بسبب معلومات مضللة أو مجتزأة.

ورأى د. المهندي أنَّ حلول المشكلات النفسية والأسرية تعتمد بنسبة كبيرة على العاطفة والتفاهم والتنازلات، وهذه لا يمكن أن يقدمها جهاز جامد، فاستشارة الذكاء الاصطناعي في وصف أدوية نفسية أمر بالغ الخطورة، لأن الطبيب النفسي يحتاج إلى أشهر أحيانا لتحديد الدواء المناسب بناءً على الوضع الصحي الشامل للمريض، وأي خطأ في الجرعة أو النوع قد يفاقم المرض ويؤثر سلبا على حالة المريض.»

- د. لينا صادق: الـ ChatGPT لا يملك وعياً إدراكياً

رأت الدكتورة لينا صادق-معالجة نفسية-، أن الاعتماد على ChatGPT كبديل للعلاج النفسي أمر خطير للغاية، موضحة أن الذكاء الاصطناعي في نهاية المطاف مجرد أداة رقمية، لا تملك وعيا أو إدراكا لحقيقة الواقع الذي يعيشه الإنسان.

 واستطردت قائلة « إنَّ الـ ChatGPT ليس واقعا، هو مجرد ذكاء اصطناعي يقدم حلولاً قد تبدو جاهزة، لكنها بعيدة عن واقع الشخص وظروفه النفسية والاجتماعية، البعض قد يحصل على إجابات وحلول، لكن السؤال الجوهري: هل هي حلول مناسبة فعلًا؟ برأيي، لا.»

وأكدت د. لينا صادق أن الخطر يكمن في افتقاد هذا النوع من الأدوات أهم مقوم في العلاقة العلاجية بين المعالج والمريض، وهو التعاطف الإنساني، قائلة « إنَّ العلاج النفسي لا يُبنى على المعلومة فقط، بل على التعاطف والقدرة على فهم مشاعر الآخر، هذه علاقة لا يمكن للآلة أن تعوضها، إذ إنَّ هناك علاقة إنسانية تخلق بين المريض والمعالج، سيما وأنَّ المريض النفسي يحتاج إلى تعاطف في كثير من الأحيان ليبدأ بالتحسن، وهذا ما يفتقده الذكاء الاصطناعي.»

واختتمت قائلة « إنَّ الذكاء الاصطناعي قد يقدم تقنيات أو برامج علاجية منهجية، لكن في حالات معقدة مثل الصدمات النفسية أو التحرش أو الاضطرابات العميقة، لا يمكن تجاهل السياق الشخصي ولا الاستغناء عن التقييم السريري المباشر.»

- محمد كمال: ChatGPT وعي محدود وتفاعل إنساني معدوم

من جهته، أوضح السيد محمد كمال-باحث واختصاصي علم النفس الاجتماعي-، قائلا « إنَّ خطورة ChatGPT لا تتعلق فقط بمحدودية وعيه أو قدرته على التفاعل الإنساني، بل بكونه قد يُستخدم دون وعي كمصدر للفضفضة النفسية، وهو ما يؤدي إلى تعميق الفردية وتآكل الروابط الاجتماعية.»

وتابع السيد محمد كمال « إنَّ من الخطير أن نتحدث مع أداة مجردة على أساس حسن النية، هذا يعزز الفردية، ويقتل الانتماء للأسرة والمجتمع، الفضفضة الطبيعية بين الأهل والأصدقاء جزء من البناء الاجتماعي السليم، أما التحدث مع الذكاء الاصطناعي، فيدفع نحو العزلة ويقضي على المهارات الاجتماعية.»

وأشار السيد محمد كمال إلى تجربة شخصية واجه فيها مشاكل مع دقة المعلومات التي قدمها الذكاء الاصطناعي، مؤكدًا أن النسخة المجانية قدمت مراجع خاطئة، بينما النسخة المدفوعة أعطت معلومة خاطئة بمرجع صحيح، مما يدل على أن الآلة لا تملك معيارا حقيقيا للتمييز بين ما هو خاص وما هو عام.

وأكدّ السيد محمد كمال أنَّ التجارب الإنسانية لا تُستنسخ، فالذكاء الاصطناعي لا يفهم الفروق الدقيقة بين البشر، وما يزيد الطين بلة هو أن بعض الأشخاص يتعاملون معه كأداة مطلقة، غير مدركين أنه قد يقدم نفس المعلومة لأشخاص في حالات متباينة تمامًا.

واختتم السيد محمد كمال حديثه مشيرا إلى أنَّ ChatGPT أداة قد تستخدم في الخير، أو في التدمير، لذا من الأهمية بمكان التعامل معه بحذر، دون حسن نية مفرط، لأنه لا يملك وعيا، ولا يُطوّر نفسه ذاتيا، بل يعكس فقط ما يتغذى عليه من محتوى.

مساحة إعلانية