تكنولوجيا عبد الشافي 23 مارس 2026هل يمكن أن يحل Chat GPT محل المعالج النفسي؟ مع تزايد لجوء الناس إلى روبوتات الذكاء الاصطناعي مثل “Chat GPT” للحصول علىدعم نفسي، كشفت دراسة حديثة عن أخطار أخلاقية جوهرية قد تجعل هذه الأنظمةغير مؤهلة لأداء دور المعالج النفسي.أظهرت الدراسة أن هذه الأنظمة، حتى عند توجيهها لتقليد أساليب علاجية معروفة،تفشل بشكل متكرر في الالتزام بالمعايير المهنية المعتمدة في مجال الصحة النفسية.وقد تم رصد أنماط متكررة من السلوك الإشكالي، مثل التعامل غير السليم مع الحالاتالحرجة، وتعزيز أفكار ضارة لدى المستخدمين، واستخدام تعبيرات توحي بالتعاطف دونوجود فهم حقيقي.اعتمد الباحثون على مقارنة أداء هذه الأنظمة مع مستشارين بشريين وأخصائييننفسيين مرخصين، حيث تم تحليل المحادثات بواسطة خبراء لتحديد الانتهاكات الأخلاقية،وأسفرت النتائج عن تحديد 15 نوعا من المخاطر تم تصنيفها ضمن عدة محاور رئيسية.من أبرز هذه المخاطر غياب التكيف مع السياق الفردي، حيث تميل الأنظمة إلى تقديمنصائح عامة دون مراعاة الخلفية الشخصية للمستخدم، كما لوحظ ضعف في التعاونالعلاجي، إذ قد توجه المحادثة بشكل قسري أو تدعم أفكارا غير دقيقة أو مؤذية.كما كشفت الدراسة عن ظاهرة التعاطف الخادع، حيث تستخدم الأنظمة عبارات توحيبالفهم والاحتواء، لكنها في الواقع لا تمتلك إدراكا حقيقيا للحالة النفسية للمستخدم.ومن بين المشكلات الأخرى التحيز في بعض الردود، سواء على أساس ثقافي أو دينيأو اجتماعي، بالإضافة إلى ضعف واضح في إدارة الأزمات، مثل الفشل في التعامل معالأفكار الانتحارية أو عدم توجيه المستخدم إلى مصادر مساعدة مناسبة.أحد الفروق الجوهرية التي أشارت إليها الدراسة هو غياب المساءلة، فبينما يخضعالمعالجون النفسيون لهيئات رقابية تضمن محاسبتهم على الأخطاء، لا توجد حتى الآنأطر تنظيمية واضحة لمحاسبة أنظمة الذكاء الاصطناعي عند ارتكاب مثل هذه الانتهاكات.ورغم هذه التحفظات لا تنفي الدراسة إمكانية أن يكون للذكاء الاصطناعي دور مساعدفي مجال الصحة النفسية، خاصة في ظل نقص الخدمات وارتفاع تكلفتها، لكنها تؤكدعلى ضرورة تطوير ضوابط أخلاقية وقانونية صارمة قبل الاعتماد على هذه الأنظمة فيمواقف حساسة.تشير هذه النتائج إلى أن استخدام الذكاء الاصطناعي في الدعم النفسي يجب أن يتمبحذر شديد، مع إدراك حدوده الحالية، والعمل على تحسينه من خلال تقييمات دقيقةومستمرة تضمن سلامة المستخدمين.