Daily Beirut

الذكاء الإصطناعي

شات جي بي تي يرصد الأزمات النفسية وينبه العائلة.. جدل الخصوصية يتصاعد

أوبن إيه آي تطلق ميزة "جهة اتصال موثوقة" لتنبيه العائلة عند رصد مؤشرات انتحار، وسط مخاوف من المراقبة الرقمية والأخطاء السريرية.

··قراءة 4 دقائق
شات جي بي تي يرصد الأزمات النفسية وينبه العائلة.. جدل الخصوصية يتصاعد
مشاركة

ملايين المستخدمين يلجؤون يومياً إلى روبوتات المحادثة بحثاً عن دعم عاطفي ونفسي، وهو ما دفع شركة أوبن إيه آي إلى إعادة تعريف دور منصتها شات جي بي تي. فبعد أن كانت مجرد أداة للإجابة عن الأسئلة وكتابة النصوص، بدأت الشركة خلال العام الماضي ومنذ بداية هذا العام بتطوير أدوات لرصد مؤشرات الانتحار أو إيذاء النفس، بل والتواصل مع شخص موثوق من محيط المستخدم في الحالات الخطيرة. هذا التحول يعكس اتجاهاً أوسع في قطاع الذكاء الاصطناعي، حيث لم تعد الشركات التقنية تقتصر على توليد الردود، بل باتت تشمل تقييم المخاطر السلوكية ومحاولة التدخل الوقائي.

كشفت تقارير تقنية حديثة أن الميزة الجديدة تحمل اسم "جهة اتصال موثوقة" (Trusted Contact)، وتتيح للمستخدم اختيار شخص موثوق كأحد أفراد العائلة أو صديق أو مقدم رعاية، يمكن تنبيهه إذا رصد النظام مؤشرات خطيرة مرتبطة بإيذاء النفس أو التفكير بالانتحار. وفقاً للتقارير، فإن التنبيه لا يتضمن محتوى المحادثة نفسها، بل يقتصر على إرسال إشعار يفيد بوجود حالة مقلقة تستدعي التدخل البشري. وبحسب موقع ذا فيرج التقني الأمريكي، تعتمد الميزة على مراجعة بشرية داخل أوبن إيه آي قبل إرسال أي إشعار في محاولة لتقليل الأخطاء أو التنبيهات الكاذبة. وأوضحت الشركة أن النظام مصمم ليكون "طبقة دعم إضافية" إلى جانب خطوط المساعدة النفسية التقليدية، وليس بديلاً عن الأطباء أو المختصين.

الاعتماد المتزايد على الذكاء الاصطناعي للدعم النفسي

هذا التوجه لم يأتِ من فراغ، فخلال السنوات الأخيرة، بدأت أعداد ضخمة من المستخدمين بالاعتماد على روبوتات المحادثة للحصول على دعم عاطفي أو نفسي، خصوصاً في أوقات الليل أو العزلة الاجتماعية. في تقرير نشرته مجلة "إم آي تي تكنولوجي ريفيو" الأمريكية، أشار إلى أن ملايين المستخدمين باتوا يلجؤون إلى أنظمة مثل شات جي بي تي وكلود وتطبيقات علاجية متخصصة مثل ويسا (Wysa) وووبوت (Woebot) بحثاً عن دعم نفسي سريع ومنخفض التكلفة، في ظل أزمة عالمية متصاعدة في خدمات الصحة النفسية.

أظهرت أبحاث أكاديمية حديثة أن كثيراً من المستخدمين يتعاملون مع الذكاء الاصطناعي باعتباره مساحة آمنة للحديث عن أفكارهم الحساسة دون خوف من الأحكام الاجتماعية. دراسة منشورة على منصة أركايف (arXiv) الأمريكية بعنوان "البحث عن شريان حياة في وقت متأخر من الليل" وجدت أن بعض الأشخاص يلجؤون إلى روبوتات المحادثة لسد الفراغ بين جلسات العلاج النفسي أو بسبب صعوبة الوصول إلى مختصين بشريين. لكن الدراسة نفسها شددت على أن الاتصال البشري الحقيقي يظل العنصر الأكثر أهمية في إدارة الأزمات النفسية الحادة.

أخطاء خطيرة وانتقادات متزايدة

في المقابل، تواجه هذه الأنظمة انتقادات متزايدة بسبب أخطاء خطيرة في التعامل مع الحالات النفسية الحساسة. دراسة من كلية طب ماونت سايناي في نيويورك وجدت أن نظام شات جي بي تي هيلث أخفق أحياناً في تفعيل تنبيهات الأزمات الانتحارية حتى في حالات تضمنت خططاً واضحة لإيذاء النفس. كما أشارت الدراسة إلى أن النظام قد يقلل أحياناً من خطورة الحالات الحرجة، أو يقدم استجابات غير مناسبة في مواقف تستدعي تدخلاً فورياً.

القلق هنا لا يتعلق فقط بالأخطاء التقنية، بل أيضاً بطبيعة العلاقة النفسية التي قد تنشأ بين المستخدم والذكاء الاصطناعي. تقارير ونقاشات واسعة على منصات مثل "ريديت" كشفت عن حالات أصبح فيها شات جي بي تي الصديق الوحيد لبعض المستخدمين الذين يعانون من العزلة أو الاكتئاب. في إحدى القضايا التي أثارت جدلاً واسعاً، اتهمت عائلة شاب توفي منتحراً النظام بأنه تحول تدريجياً إلى مصدر اعتماد نفسي شديد التأثير في حياته اليومية.

جهود أوبن إيه آي لتحسين السلامة

في مواجهة هذا الجدل، تقول أوبن إيه آي إنها تعمل مع خبراء في الصحة النفسية لتطوير آليات أكثر أماناً لرصد مؤشرات الخطر وتقليل ما يعرف بالتعلق العاطفي المفرط بالذكاء الاصطناعي. وفقاً لنقاشات وتقارير متداولة، فإن الشركة استعانت بأكثر من 170 خبيراً في الصحة النفسية لتحديث سلوك النماذج وتحسين قدرتها على توجيه المستخدمين نحو المساعدة البشرية الحقيقية بدلاً من تعميق الاعتماد على الروبوت.

رغم هذه التحسينات، يؤكد خبراء الصحة النفسية أن الذكاء الاصطناعي لا يمتلك حتى الآن الفهم الإنساني أو الحكم السريري الكافي للتعامل المستقل مع الأزمات النفسية المعقدة. دراسة حديثة من باحثين في جامعة مدينة نيويورك وكلية كينغز في لندن حذرت من أن بعض النماذج قد تلتقط أو تعزز أفكاراً خطيرة لدى المستخدمين خلال المحادثات الطويلة، خصوصاً إذا فشلت في التمييز بين الدعم النفسي والتشجيع غير المقصود للسلوك المؤذي.

في النهاية، يعتبر الخبراء أن شات جي بي تي لم يعد مجرد أداة للإجابة عن الأسئلة، بل تحول تدريجياً إلى جزء من البنية الرقمية الجديدة للصحة النفسية. بينما ترى شركات التكنولوجيا أن التدخل المبكر قد ينقذ الأرواح، يخشى منتقدون من أن يتحول الذكاء الاصطناعي إلى مراقب نفسي واجتماعي دائم يقرأ المؤشرات العاطفية للمستخدمين ويقرر متى يجب إشراك العائلة أو المحيط الاجتماعي. لكنهم يؤكدون أيضاً أن السؤال الذي يزداد إلحاحاً اليوم ليس فقط هل يستطيع الذكاء الاصطناعي مساعدتنا؟ بل إلى أي مدى يجب أن نسمح له بالتدخل في أكثر لحظاتنا هشاشة؟

مشاركة

مقالات ذات صلة