مع تزايد لجوء المستخدمين إلى أدوات الذكاء الاصطناعي مثل ChatGPT للحصول على نصائح تتعلق بالصحة النفسية، بدأ باحثون يدقون ناقوس الخطر. فقد كشفت دراسة حديثة أن هذه الأنظمة قد تبدو داعمة ومتعاطفة في ظاهرها، لكنها في كثير من الحالات لا تلتزم بالمعايير الأخلاقية الأساسية التي تحكم العلاج النفسي الحقيقي.
الدراسة التي أجراها فريق من جامعة براون بالتعاون مع متخصصين مرخصين في الصحة النفسية اختبرت أداء روبوتات الدردشة في مواقف تحاكي جلسات الإرشاد النفسي.
وأظهرت النتائج أن المخاطر تتجاوز الأخطاء البسيطة، إذ أخفقت بعض الأنظمة في التعامل مع حالات حساسة، وعززت أحيانا أفكارا ضارة، أو خلقت لدى المستخدمين شعورا زائفا بأن الطرف الآخر يفهمهم عاطفيًا.
وقام الباحثون بتحليل محادثات تجريبية بين مستشارين مدربين وأنظمة ذكاء اصطناعي طُلب منها أن تتصرف كمعالجين يعتمدون العلاج السلوكي المعرفي. وبعد مراجعة هذه المحادثات من قبل 3 أخصائيين نفسيين، تم رصد 15 خطرا أخلاقيا رئيسيا، أبرزها عدم مراعاة السياق الشخصي للمستخدم، وتقديم نصائح عامة ومبهمة، إضافة إلى ما وصفه الباحثون بـ"التعاطف الخادع"، حيث تبدو الردود دافئة لكنها تفتقر إلى الفهم الحقيقي أو المسؤولية المهنية.
كما كشفت الدراسة عن مشكلات أخرى مثل التحيز المرتبط بالهوية أو الثقافة، وفشل بعض الأنظمة في إدارة الأزمات النفسية الخطيرة أو توجيه المستخدمين لطلب مساعدة متخصصة.
ورغم أن الباحثين لا يستبعدون إمكانية استخدام الذكاء الاصطناعي مستقبلا لدعم خدمات الصحة النفسية أو توسيع الوصول إليها، فإنهم يشددون على أن الوصول إلى الدعم لا يعني بالضرورة الحصول على رعاية علاجية حقيقية. لذلك يدعون إلى وضع معايير أخلاقية وقانونية واضحة قبل الاعتماد الواسع على هذه التقنيات في مجالات حساسة مثل العلاج النفسي.
(ترجمات)