الزمان
أحمد حسن: حلمي طولان فكر في الاعتذار.. وتمنيت قيادة أحد مساعدي حسام حسن للمنتخب الثاني ياسمين عبد العزيز: الشهرة حرمتني من عيش حياتي بشكل طبيعي محمد هنيدي يوجه رسالة مؤثرة لابنته في حفل زفافها وزير التعليم يعتمد حركة تغييرات جديدة في قيادات الوزارة عمرو أديب ينتقد إخفاق منتخب مصر: لما نتنيل في إفريقيا هيمشوا حسام حسن الزراعة عن تخصيص قطعة أرض لإيواء الكلاب بالقاهرة: لن يُسمح لها بالتكاثر فلسطين ترحب بالقرار الأممي بشأن غزة وتؤكد أهمية تنفيذه الفوري زاهي حواس يرد على وسيم السيسي: لا يوجد وادي ملوك تاني.. وبردية الفاتيكان اخترعها ساحر مصري ولا أساس لها عمرو أديب عن أزمة أرض نادي الزمالك: أقسم بالله أنا ما فاهم حاجة.. وعلى مجلس الإدارة اللجوء للرئيس السيسي الترجمان: الموقف المصري حمى الدولة الليبية ومنع جرها إلى الفوضى وسيم السيسي يوضح موقفه: لا أتبنى نظرية الأهرامات كمحطات طاقة.. أنا قارئ وأطلب رأي العلماء الزمالك يجدد مناشدته للرئيس السيسي بالتدخل لحل أزمة أرض أكتوبر
رئيس مجلس الإدارة ورئيس التحريرإلهام شرشر

أخبار

تفاصيل صادمة.. أكثر من مليون مستخدم لـ شات جي بي تي يُظهرون نية للانتحار أسبوعيًا

كشفت شركة OpenAI، أن أكثر من مليون مستخدم لتطبيق ChatGPT يرسلون أسبوعيًا رسائل تتضمن مؤشرات صريحة على تخطيط أو نية للانتحار، وفق ما جاء في تدوينة نشرتها الشركة يوم الاثنين.

محادثات شات جي بي تي

وتعد هذه المعلومة من أكثر التصريحات المباشرة، التي تصدر عن الشركة بشأن مدى ارتباط الذكاء الاصطناعي بقضايا الصحة النفسية وتفاقمها، بحسب صحيفة الجارديان البريطانية.

وأشارت الشركة، إلى أن نحو 0.07 في المئة من المستخدمين النشطين أسبوعيًا – أي ما يقارب 560 ألف شخص من أصل 800 مليون مستخدم – أظهروا علامات محتملة على حالات طارئة في الصحة النفسية تتعلق بالذهان أو الهوس، وأوضحت OpenAI أن رصد هذه الحالات وتقييمها لا يزالان في مرحلة مبكرة وأن النتائج أولية.

وتأتي هذه البيانات في وقت تواجه فيه الشركة تدقيقًا متزايدًا بعد رفع عائلة فتى مراهق دعوى قضائية ضدها إثر انتحاره عقب تفاعلات مطوّلة مع ChatGPT، كما أعلنت لجنة التجارة الفيدرالية الأمريكية الشهر الماضي فتح تحقيق واسع يشمل شركات تطوير روبوتات المحادثة الذكية، بينها OpenAI، لبحث كيفية قياسها التأثيرات السلبية على الأطفال والمراهقين.

وأكدت الشركة أن تحديث نموذجها الجديد «GPT-5» ساهم في تقليل السلوكيات الضارة وتحسين معايير الأمان بعد اختبارات شملت أكثر من ألف محادثة تتعلق بإيذاء النفس والانتحار، وقالت إن التقييمات الآلية الجديدة أظهرت أن النموذج الأخير حقق التزامًا بنسبة 91 في المئة بالسلوكيات المرغوبة، مقارنة بـ77 في المئة في النسخة السابقة.

وأوضحت OpenAI أنها وسعت من نطاق الوصول إلى خطوط المساعدة النفسية وأدرجت تنبيهات تحث المستخدمين على أخذ فترات راحة أثناء الجلسات الطويلة، ولتحسين أداء النموذج في التعامل مع الحالات النفسية الحساسة، استعانت الشركة بـ170 طبيبًا ومعالجًا نفسيًا من شبكتها العالمية للخبراء، لتقييم سلامة الردود وتطويرها.

وخلال هذه المراجعات، قام أطباء نفسيون بمقارنة أكثر من 1800 رد من نماذج مختلفة حول مواقف تتعلق بأزمات نفسية خطيرة، لتحديد مدى توافق الإجابات مع ما يعتبره الخبراء استجابة مناسبة في مثل هذه الحالات.

ويحذر باحثو الذكاء الاصطناعي وخبراء الصحة العامة منذ سنوات من ظاهرة تُعرف بـ التملّق الآلي، حيث تميل روبوتات الدردشة إلى تأييد قرارات المستخدمين حتى وإن كانت مؤذية، مما قد يشكل خطرًا على الأشخاص الذين يستخدمونها كوسيلة دعم نفسي.

ولاحظت OpenAI في تدوينتها أن الأعراض النفسية والاضطرابات العاطفية جزء من التجربة الإنسانية في كل المجتمعات، وأن تزايد عدد المستخدمين يعني بالضرورة أن بعض المحادثات ستشمل مثل هذه القضايا الحساسة.

click here click here click here nawy nawy nawy