الزمان
جريدة الزمان

أخبار

تفاصيل صادمة.. أكثر من مليون مستخدم لـ شات جي بي تي يُظهرون نية للانتحار أسبوعيًا

هبة جمال -

كشفت شركة OpenAI، أن أكثر من مليون مستخدم لتطبيق ChatGPT يرسلون أسبوعيًا رسائل تتضمن مؤشرات صريحة على تخطيط أو نية للانتحار، وفق ما جاء في تدوينة نشرتها الشركة يوم الاثنين.

محادثات شات جي بي تي

وتعد هذه المعلومة من أكثر التصريحات المباشرة، التي تصدر عن الشركة بشأن مدى ارتباط الذكاء الاصطناعي بقضايا الصحة النفسية وتفاقمها، بحسب صحيفة الجارديان البريطانية.

وأشارت الشركة، إلى أن نحو 0.07 في المئة من المستخدمين النشطين أسبوعيًا – أي ما يقارب 560 ألف شخص من أصل 800 مليون مستخدم – أظهروا علامات محتملة على حالات طارئة في الصحة النفسية تتعلق بالذهان أو الهوس، وأوضحت OpenAI أن رصد هذه الحالات وتقييمها لا يزالان في مرحلة مبكرة وأن النتائج أولية.

وتأتي هذه البيانات في وقت تواجه فيه الشركة تدقيقًا متزايدًا بعد رفع عائلة فتى مراهق دعوى قضائية ضدها إثر انتحاره عقب تفاعلات مطوّلة مع ChatGPT، كما أعلنت لجنة التجارة الفيدرالية الأمريكية الشهر الماضي فتح تحقيق واسع يشمل شركات تطوير روبوتات المحادثة الذكية، بينها OpenAI، لبحث كيفية قياسها التأثيرات السلبية على الأطفال والمراهقين.

وأكدت الشركة أن تحديث نموذجها الجديد «GPT-5» ساهم في تقليل السلوكيات الضارة وتحسين معايير الأمان بعد اختبارات شملت أكثر من ألف محادثة تتعلق بإيذاء النفس والانتحار، وقالت إن التقييمات الآلية الجديدة أظهرت أن النموذج الأخير حقق التزامًا بنسبة 91 في المئة بالسلوكيات المرغوبة، مقارنة بـ77 في المئة في النسخة السابقة.

وأوضحت OpenAI أنها وسعت من نطاق الوصول إلى خطوط المساعدة النفسية وأدرجت تنبيهات تحث المستخدمين على أخذ فترات راحة أثناء الجلسات الطويلة، ولتحسين أداء النموذج في التعامل مع الحالات النفسية الحساسة، استعانت الشركة بـ170 طبيبًا ومعالجًا نفسيًا من شبكتها العالمية للخبراء، لتقييم سلامة الردود وتطويرها.

وخلال هذه المراجعات، قام أطباء نفسيون بمقارنة أكثر من 1800 رد من نماذج مختلفة حول مواقف تتعلق بأزمات نفسية خطيرة، لتحديد مدى توافق الإجابات مع ما يعتبره الخبراء استجابة مناسبة في مثل هذه الحالات.

ويحذر باحثو الذكاء الاصطناعي وخبراء الصحة العامة منذ سنوات من ظاهرة تُعرف بـ التملّق الآلي، حيث تميل روبوتات الدردشة إلى تأييد قرارات المستخدمين حتى وإن كانت مؤذية، مما قد يشكل خطرًا على الأشخاص الذين يستخدمونها كوسيلة دعم نفسي.

ولاحظت OpenAI في تدوينتها أن الأعراض النفسية والاضطرابات العاطفية جزء من التجربة الإنسانية في كل المجتمعات، وأن تزايد عدد المستخدمين يعني بالضرورة أن بعض المحادثات ستشمل مثل هذه القضايا الحساسة.