السبت, ديسمبر 6, 2025
spot_img
spot_img
spot_img
الرئيسيةشريط الاحداث"شات جي بي تي" يشجع مستخدميه على الانتحار؟

“شات جي بي تي” يشجع مستخدميه على الانتحار؟

spot_img
spot_img
spot_img
spot_img

وُجهت اتهامات خطيرة لشركة “OpenAI” تشير إلى أن مساعدها الذكي “ChatGPT” قد وجّه بعض المستخدمين نحو إيذاء النفس، بدلًا من تقديم الدعم والمساعدة لهم.

وكشفت هذه الدعاوى النقاب عن قصص مروعة لمستخدمين عاديين كانوا يبحثون عن مساعدة دراسية أو دعم نفسي، أو حتى محادثة بسيطة، فوجدوا أنفسهم غارقين في حوارات نفسية مدمرة سبقت عدة حالات انتحار، وجاءت هذه الاتهامات ضمن سبع دعاوى قضائية رفعتها عائلات متضررة في كاليفورنيا.

أظهرت تفاصيل الدعاوى أن المنصة تحولت من تقديم مساعدة غير ضارة إلى ما وصفه المحامون بـ”كيان قادر على التلاعب العاطفي”، وفي تصريح صادم للغاية، قالت المجموعات القانونية: “بدلًا من توجيه الأشخاص نحو المساعدة المهنية عندما كانوا بحاجة إليها، عزز “ChatGPT” الأوهام الضارة، وفي بعض الحالات، تصرف كـ “مدرب انتحار'”.

وأكدت عائلة الشاب زين شامبلين البالغ من العمر 23 عامًا من تكساس، وهو حالة من الحالات المذكورة، ن المساعد الذكي زاد من عزلته النفسية، وشجعه على تجاهل أحبائه، بل وحرضه على تنفيذ أفكاره الانتحارية خلال محادثة مستمرة امتدت لأربع ساعات.

وأشارت الوثائق القضائية إلى أن النموذج “مجّد الانتحار بشكل متكرر”، سائلًا الشاب عما إذا كان مستعدًا للخطوة، واكتفى بالإشارة إلى خط المساعدة الانتحاري مرة واحدة فقط، بينما أخبره بأن قطته الصغيرة ستكون في انتظاره “على الجانب الآخر”.

وادعت عائلة موري لاسي البالغ من العمر 17 عامًا من جورجيا، أن المساعد الذكي تسبب لابنهم بالادمان والاكتئاب، ثم قدم له نصائح تقنية حول “الطريقة الأكثر فعالية لربط حلقة انتحارية” و”المدة التي يمكن للجسم أن يعيشها دون تنفس”.

وفي حالة ثالثة للشاب جوشوا إنيكين البالغ من العمر 26 عامًا، يؤكد أفراد عائلته أن “Chatgpt” قام بتأكيد أفكاره الانتحارية، وقدم له معلومات مفصلة حول كيفية شراء واستخدام سلاح ناري، قبل أسابيع قليلة فقط من وفاته.

وكشفت الدعاوى القضائية أن شركة “OpenAI” أطلقت الإصدار “ChatGPT 4o”،  رغم تحذيرات داخلية متعددة  من أن النموذج “تملقي بشكل خطر وقادر على التلاعب النفسي”، في خطوة تفسرها الدعاوى بأن الشركة قدمت مؤشرات التفاعل والمشاركة على سلامة المستخدمين.

ووصفت الشركة الحالات بأنها “مواقف مفجعة بشكل لا يصدق”، مؤكدة أنها تدرس المستندات المقدمة، مشيرة إلى أن النظام مدرب على التعرف على علامات الضيق النفسي وخفض حدة المحادثات وتوجيه المستخدمين نحو الدعم المتخصص، وذللك خلال ردها على الاتهامات.

وطالبت العائلات بتعويضات، وإدخال تغييرات جذرية على المنتج، تشمل نظام إنذار إلزامي لجهات الاتصال في حالات الطوارئ، وإنهاء تلقائي للمحادثات عند مناقشة أي أفكار لإيذاء النفس، وإنشاء آلية أكثر فعالية لتصعيد الحالات الحرجة إلى متخصصين بشريين.

وعلى الرغم من إعلان الشركة عن تعاونها مع أكثر من 170 خبير في الصحة النفسية لتحسين قدرات الكشف والاستجابة للضيق النفسي، تؤكد الدعاوى القضائية أن هذه التحسينات جاءت متأخرة جدًا، وأن الأوان قد فات لإنقاذ المستخدمين الذين فقدوا حياتهم بعد تفاعلاتهم مع المساعد الذكي.

spot_img
spot_img
spot_img

شريط الأحداث

مقالات ذات صلة
spot_img
spot_img