خير جليس في زمننا الحالي؟: “تشات جي بي تي”؟ أصبح التطبيق الذي أطلقته شركته “أوبن إيه آي” في نهاية 2022، وما تلاه من روبوتات محادثة مدعومة بالذكاء الاصطناعي، الرفيق الرقمي الدائم لمئات الملايين من البشر حول العالم. فيتسلل إلى تفاصيل حياتهم اليومية، من اختيار وجبة الإفطار إلى انتقاء الملابس، ومن البحث عن معلومة إلى البوح بهمٍّ شخصي أو طلب نصيحة عاطفية. هكذا، تحوّلت هذه التطبيقات في نظر كثيرين إلى متنفس سهل ومتاح لتشارك المشاعر والتعامل مع الضغوط النفسية.
وقد شهدت السنوات الأخيرة انتشاراً لافتاً لاستخدام روبوتات المحادثة ذات الأغراض العامة والتطبيقات الرقمية المتخصصة بالعلاج النفسي كأدوات دعم عاطفي.
وبينما توفّر هذه الحلول الذكية متنفساً فورياً وطريقة سهلة للحصول على الأجوبة، يطرح استخدامها أسئلة جوهرية حول فعاليتها الحقيقية، وقدرتها على التعامل مع الحالات المعقدة، وحدودها الأخلاقية والعملية، فضلاً عن مخاطر الخصوصية.
ما أسباب استخدام روبوتات المحادثة للحصول على الدعم النفسي؟
أصبح استخدام روبوتات المحادثة ذات الأغراض العامة مثل “تشات جي بي تي” و”ديب سيك” و”جميناي” وغيرها شائعاً بشكل متزايد كوسائل للحصول على الدعم العاطفي، رغم أنها لم تُصمَّم لهذا الغرض أساساً.
وغالباً ما يلجأ المستخدمون إلى هذه المنصات لطلب النصيحة أو للتخفيف من التوتر أو لمجرد الفضفضة عند الشعور بالقلق أو الوحدة، بالأخص في حال صعوبة الوصول إلى خدمات الصحة النفسية التقليدية، أو في المجتمعات حيث لا تزال الصحة النفسية محاطة بوصمة اجتماعية.
قدرة روبوتات الدردشة على تقديم المساعدة على مدار الساعة يتيح للأشخاص التواصل في أي وقت ومن أي مكان. وهو ما يُعتبر تحوّلاً جذرياً خاصةً للأشخاص الذين يعيشون في مناطق نائية أو يواجهون صعوبة في الوصول إلى مراكز العلاج النفسي التقليدية.
اقرأ أيضاً: هناك من يستخدم “تشات جي بي تي” بدلاً من زيارة أخصائي نفسي
ما مخاطر استخدام روبوتات المحادثة العامة للدعم النفسي؟
رغم أن هذه الأدوات قد تمنح راحة مؤقتة، فهي ليست مؤهلة دائماً لتشخيص الحالات النفسية أو التعامل معها. فقد تخطئ في فهم السياق، أو تقدّم نصائح غير ملائمة، أو تعجز عن اكتشاف الحالات الحرجة مثل التفكير الانتحاري.
كما لا تمتلك التطبيقات الحس الإنساني، فتفتقر إلى التعاطف الفعلي والقدرة على قراءة السياقات النفسية الدقيقة. ونظراً لاعتمادها على بيانات تدريبية واسعة، قد تكون متحيزة في بعض الأحيان، بالأخص ضد المجموعات المهمشة.
إلى ذلك، تفتقر هذه المنصات إلى الإشراف المهني ولا تخضع لأي تنظيم طبي أو نفسي. وقد يؤدي الاعتماد المفرط على هذه الأدوات إلى عزوف المستخدمين عن طلب الدعم النفسي الفعلي، لأن الشعور الزائف بالاطمئنان قد يدفع الشخص الذي يعاني من اضطرابات إلى صرف النظر عن زيارة معالج نفسي مختص.
ماذا عن التطبيقات المخصصة للصحة النفسية؟
تتفوق هذه التطبيقات المتخصصة مثل مثل “ويسا” (Wysa) و”ثيرابوت” (Therabot)، وغيرهما على روبوتات الدردشة العامة عند استخدامها للدعم النفسي، إذ صُمّمت بمراعاة المبادئ العلاجية ويشرف على تطويرها فرق من المتخصصين، ما يجعلها أكثر أماناً وفعالية في التعامل مع القضايا النفسية الحساسة.
تسهم هذه التطبيقات في سد الفجوات في خدمات الصحة النفسية، من خلال توفير دعم يسير الكلفة ومتاح على مدار الساعة، لاسيما في المناطق التي تفتقر لخدمات الرعاية النفسية. وتشير بعض الدراسات إلى أنها قد تخفف أحياناً الأعراض النفسية بمستوى مماثل للعلاج التقليدي، كما توفّر مساحة آمنة للمستخدمين لمشاركة مشاعرهم الحساسة. وتؤدي أيضاً دوراً داعماً بين الجلسات العلاجية.
ومع ذلك، يرى بعض الخبراء أن هذه الروبوتات تفتقر إلى التعاطف البشري، وقد تقدّم نصائح غير مناسبة، كما تثير مخاوف تتعلق بالخصوصية. لذا، ينصحون باستخدامها كأداة مساندة لا بديلاً عن الرعاية النفسية المتخصصة.
كيف تتعامل هذه التطبيقات مع قضايا الخصوصية والأمان؟
يثير استخدام روبوتات المحادثة العامة للحصول على الدعم النفسي مخاوف تتعلق بالخصوصية والأمان. إذ يحذّر خبراء من أن البيانات الحساسة التي يشاركها المستخدمون قد تُخزَّن أو يُعاد استخدامها أو تتعرض للتسريب.
ورغم أن شركات مثل “أوبن إيه أي” و”جوجل” طرحت أدوات للتحكم بالخصوصية، مثل خيار إلغاء حفظ البيانات، يرى منتقدون أن هذه الإجراءات غير كافية. وقد فتحت هيئات تنظيمية في أوروبا والولايات المتحدة تحقيقات وأرجأت إطلاق بعض هذه الخدمات بسبب المخاوف المتعلقة بالبيانات.
اقرأ أيضاً: الذكاء الاصطناعي يساعد على قراءة الأفكار.. فما خطورة ذلك علينا؟
هل يمكن للذكاء الاصطناعي أن يحلّ مكان المعالجين النفسيين؟
على الرغم من قدرة روبوتات المحادثة على تقديم دعم فوري ومنخفض التكلفة وخال من الوصمة الاجتماعية لمن يعانون من القلق أو الاكتئاب أو التوتر، فإنها تفتقر إلى العمق العاطفي، والحسّ الأخلاقي، والفهم الدقيق الذي يتمتع به الأطباء النفسيون البشر. وتعتمد هذه البرمجيات على ردود معدّة مسبقاً أو مستخلصة عبر نماذج تعلم آلي، ما يجعلها عاجزة عن إظهار التعاطف الحقيقي أو بناء علاقة علاجية أو التعامل مع الحالات النفسية المعقدة بمرونة.
يقول الخبراء هذه الأدوات قد تُستخدم كحلول داعمة لسد الثغرات في خدمات الرعاية النفسية، خصوصاً في المناطق التي تفتقر لخدمات الصحة النفسية، لكنها ليست بديلاً عن المتخصصين المؤهلين لتشخيص الاضطرابات النفسية وعلاجها.
ما السبيل الآمن لاستخدام الذكاء الاصطناعي في الصحة النفسية؟
مع ازدياد دمج الذكاء الاصطناعي في الرعاية النفسية، فإن النماذج الهجينة التي تجمع بين الدعم البشري والتقني قد تكون الحلّ الأمثل.
يمكن لهذه التطبيقات أن تشكل نقطة دخول أو تشخيص أولي، على أن يتابع المستخدمون العلاج مع مختصين مرخصين. لكن نجاح هذه المبادرات يتوقف على رفع الوعي العام، وتنظيم القطاع، وتعزيز الثقافة الرقمية.
ما رأي الذكاء الاصطناعي في هذا الموضوع؟
طرحنا سؤالاً: “هل من الآمن استخدام الذكاء الاصطناعي للحصول على الدعم النفسي؟” على روبوت دردشة وأجاب بأن ذلك يمكن أن يكون أداة مساعدة لجوانب معينة من الدعم النفسي، لكن لا ينبغي أن يحل محل الاتصال البشري والمتخصصين في مجال الصحة النفسية.
تضمنت الإجابة عدة جوانب إيجابية وأخرى سلبية، أبرزها:
- الوصول السريع والمريح: يمكن للذكاء الاصطناعي أن يوفر مساعدة فورية في أي وقت، مما يجعله مفيداً للحصول على الدعم في اللحظات الحرجة أو عندما يصعب الوصول إلى الدعم البشري.
- سرية المعلومات: قد يشعر بعض الأشخاص براحة أكبر في مشاركة مشاعرهم وأفكارهم مع نظام ذكاء اصطناعي مقارنة بمشاركة هذه المعلومات مع شخص حقيقي.
- الدقة والتخصيص: يعتمد الأمان والفعالية على جودة النظام المستخدم. بعض البرمجيات المتطورة يمكن أن تقدم نصائح مبنية على البيانات والأبحاث الحديثة، في حين أن الأنظمة الأقل جودة قد تقدم نصائح غير دقيقة أو غير مناسبة.
- القدرة على الفهم والتعاطف: يفتقر الذكاء الاصطناعي إلى القدرة على التعاطف والفهم العميق للحالة الإنسانية. قد يكون محدوداً في تقديم الدعم العاطفي المطلوب في الحالات المعقدة.
- الأزمات النفسية الخطيرة: لا ينبغي الاعتماد على الذكاء الاصطناعي في حالات الأزمات النفسية الخطيرة أو التفكير الانتحاري. في مثل هذه الحالات، يجب التوجه إلى محترفين مؤهلين مثل الأطباء النفسيين أو المرشدين.
- المخاوف الأمنية: يجب التأكد من أن أي منصة ذكاء اصطناعي تُستخدم للحفاظ على سلامة البيانات الشخصية وتطبيق سياسات الخصوصية.