هل يمكن أن يحل Chat GPT محل المعالج النفسي؟ دراسة تكشف مخاطر أخلاقية جسيمة

مع تزايد لجوء الناس إلى روبوتات الذكاء الاصطناعي مثل "Chat GPT" للحصول على دعم نفسي، كشفت دراسة حديثة عن أخطار أخلاقية جوهرية قد تجعل هذه الأنظمة غير مؤهلة لأداء دور المعالج النفسي.

أظهرت الدراسة أن هذه الأنظمة، حتى عند توجيهها لتقليد أساليب علاجية معروفة، تفشل بشكل متكرر في الالتزام بالمعايير المهنية المعتمدة في مجال الصحة النفسية.

وقد تم رصد أنماط متكررة من السلوك الإشكالي، مثل التعامل غير السليم مع الحالات الحرجة، وتعزيز أفكار ضارة لدى المستخدمين، واستخدام تعبيرات توحي بالتعاطف دون وجود فهم حقيقي.

اعتمد الباحثون على مقارنة أداء هذه الأنظمة مع مستشارين بشريين وأخصائيين نفسيين مرخصين، حيث تم تحليل المحادثات بواسطة خبراء لتحديد الانتهاكات الأخلاقية، وأسفرت النتائج عن تحديد 15 نوعا من المخاطر تم تصنيفها ضمن عدة محاور رئيسية.

من أبرز هذه المخاطر غياب التكيف مع السياق الفردي، حيث تميل الأنظمة إلى تقديم نصائح عامة دون مراعاة الخلفية الشخصية للمستخدم، كما لوحظ ضعف في التعاون العلاجي، إذ قد توجه المحادثة بشكل قسري أو تدعم أفكارا غير دقيقة أو مؤذية.

كما كشفت الدراسة عن ظاهرة التعاطف الخادع، حيث تستخدم الأنظمة عبارات توحي بالفهم والاحتواء، لكنها في الواقع لا تمتلك إدراكا حقيقيا للحالة النفسية للمستخدم.

ومن بين المشكلات الأخرى التحيز في بعض الردود، سواء على أساس ثقافي أو ديني أو اجتماعي، بالإضافة إلى ضعف واضح في إدارة الأزمات، مثل الفشل في التعامل مع الأفكار الانتحارية أو عدم توجيه المستخدم إلى مصادر مساعدة مناسبة.

أحد الفروق الجوهرية التي أشارت إليها الدراسة هو غياب المساءلة، فبينما يخضع المعالجون النفسيون لهيئات رقابية تضمن محاسبتهم على الأخطاء، لا توجد حتى الآن أطر تنظيمية واضحة لمحاسبة أنظمة الذكاء الاصطناعي عند ارتكاب مثل هذه الانتهاكات.

ورغم هذه التحفظات لا تنفي الدراسة إمكانية أن يكون للذكاء الاصطناعي دور مساعد في مجال الصحة النفسية، خاصة في ظل نقص الخدمات وارتفاع تكلفتها، لكنها تؤكد على ضرورة تطوير ضوابط أخلاقية وقانونية صارمة قبل الاعتماد على هذه الأنظمة في مواقف حساسة.

تشير هذه النتائج إلى أن استخدام الذكاء الاصطناعي في الدعم النفسي يجب أن يتم بحذر شديد، مع إدراك حدوده الحالية، والعمل على تحسينه من خلال تقييمات دقيقة ومستمرة تضمن سلامة المستخدمين.

داليا رشوان

داليا رشوان

محرر بالموقع الموحد للهيئة الوطنية للإعلام

أخبار ذات صلة

روبوت
جوجل تعلن إيقاف ملخصات الذكاء الاصطناعي الطبية
روبوت يسجل رقماً قياسياً في حل مكعب الألغاز "روبيك"
جوجل تطلق مشروع A2UI مفتوح المصدر لواجهات الذكاء الاصطناعي
Canva
معرض في باريس يسلط الضوء على الابتكار الصناعي بمشاركة أوروبية وآسيوية
الصين
أمازون"  تطلق مساعد ذكي لفك شفرة التقارير الطبية وربط المرضى بالأطباء

المزيد من علوم وتكنولوجيا

هل يمكن أن يحل Chat GPT محل المعالج النفسي؟ دراسة تكشف مخاطر أخلاقية جسيمة

مع تزايد لجوء الناس إلى روبوتات الذكاء الاصطناعي مثل "Chat GPT" للحصول على دعم نفسي، كشفت دراسة حديثة عن أخطار...

وميض ليزر يقلب مغناطيسا في إنجاز كبير للتحكم بالضوء

نجح العلماء في قلب قطبية مغناطيس باستخدام نبضة من ضوء الليزر فقط، دون الحاجة إلى تسخينه، في إنجاز قد يفتح...

زرع "هلام" مطبوع بالليزر قد يحدث ثورة في ترميم العظام

طور باحثون مادة هلامية جديدة قد تمثل بديلا متقدما للزرعات العظمية التقليدية، حيث تتميز بقدرتها على محاكاة آلية الشفاء الطبيعية...

اكتشاف بروتين لا تستطيع طفيليات الملاريا العيش بدونه

كشف العلماء عن نقطة ضعف حاسمة في طفيليات الملاريا قد تفتح الباب أمام تطوير علاجات جديدة، حيث تم التعرف على...