Spread the love

وكالة مصر الإخبارية للإعلام والإعلان| الجمعة 12 ديسمبر 2025م

رفعت عائلة امرأة أميركية ثمانينية قتلها نجلها دعوى أمس الخميس على شركتي “أوبن أي آي” و”مايكروسوفت”، اتهمت فيها نموذج الذكاء الاصطناعي “تشات جي بي تي” بالمساهمة في الجريمة من خلال تعزيز الهذيان الزوري لدى الجاني.

تشات جي بي تي
تشات جي بي تي

وأوضحت الدعوى أن ستين-إريك سولبرغ (56 سنة) قتل والدته سوزان آدامز البالغة 83 سنة خنقاً في الثالث من أغسطس (آب) الماضي بمنزلهما في أولد غرينيتش بولاية كونيتيكت، ثم انتحر مستخدماً سلاحاً أبيض.

وسبق أن رُفعت دعاوى مدنية على الشركة التي ابتكرت “تشات جي بي تي”، لكن للمرة الأولى تُقاضى أداة الذكاء الاصطناعي في قضية تتعلق بتشجيع جريمة قتل، وليس فقط بحالات انتحار.

وشرحت الدعوى أن المحادثات التي أجراها سولبرغ طوال أشهر مع “تشات جي بي تي” أكدت له أفكاره الهذيانية وعمقتها، ومنها مثلاً أنه عرضة للمراقبة عبر الطابعة، وأنه مستهدف بمحاولات تسميم، وصولاً إلى اعتباره أن والدته تشكل تهديداً له.

وأكد محامو العائلة المدعية أن “تشات جي بي تي” كان يوافق على كل أفكار سولبرغ الهذيانية ويطوّرها، مما جعله “يبني عالماً أصبح حياته بأكملها”.

وتستهدف الدعوى نموذج “جي بي تي 4 أو” الذي أطلق في مايو (أيار) 2024، متهمة إياه بأنه مبرمَج ليكون “مجاملاً” للمستخدم وبأنه أكد لسولبرغ مخاوفه غير العقلانية.

وقال ناطق باسم “أوبن أي آي” رداً على سؤال لوكالة الصحافة الفرنسية، إنه “وضع محزن تماماً”، مؤكداً أن الشركة “ستدرس الدعوى”، وأضاف “نواصل تحسين تدريب ’تشات جي بي تي‘ كي يتعرف إلى مؤشرات المشكلات النفسية أو العاطفية ويتصرف على أساسها… ويوجه الأشخاص نحو دعم فعلي”.

وأكدت الشركة أنها تتعاون مع “أكثر من 170 خبيراً في الصحة النفسية” بهدف تحسين نماذج الأمان لديها، وأكدت أن بروتوكولاتها الأحدث المعتمدة خصوصاً في نموذج “جي بي تي 5” مكنت من خفض جذري (بنسبة 65 إلى 80 في المئة) للردود التي لا تراعي معايير السلوك لديها.

كذلك أفادت “أوبن أي آي” بأنها ابتكرت أدوات للرقابة الأبوية ووسّعت طلب أرقام طوارئ بنقرة واحدة.

وفي أغسطس ونوفمبر (تشرين الثاني) الماضيين، رفعت عائلات دعاوى عدة على “تشات جي بي تي” متهمة إياه بدفع مراهقين وشباب إلى الانتحار، أحياناً عبر تلقينهم طرقاً عملية لذلك.

وتشمل الدعوى الجديدة “مايكروسوفت” وهي المساهم الرئيس في “أوبن أي آي”، بتهمة موافقتها على الإطلاق المتعجّل لـ”جي بي تي 4 أو” على رغم عدم التزام إجراءات السلامة.

المصدر: مواقع ووكالات منها نعيد النشر ونحفظ حق الناشر بالإشارة وامكانية الوصول.

تشات جي بي تي
تشات جي بي تي

The family of an elderly American woman who was killed by her son filed a lawsuit yesterday, Thursday, against “Open AI” and “Microsoft.” They accuse the artificial intelligence model “ChatGPT” of contributing to the crime by reinforcing the perpetrator’s paranoid delusions.

The lawsuit explained that Stein-Erik Sollberg (56 years old) strangled his 83-year-old mother, Susan Adams, to death on the third of August last year in their home in Old Greenwich, Connecticut, then committed suicide using a white weapon.

Civil lawsuits have previously been filed against the company that created “ChatGPT,” but it is the first time the AI tool is being sued in a case related to encouraging a murder, not just suicide cases.

The lawsuit elaborated that the conversations Sollberg conducted for months with “ChatGPT” confirmed and deepened his delusional thoughts. These included, for example, that he was subject to surveillance through the printer, that he was targeted with poisoning attempts, and ultimately led him to consider his mother a threat to him.

The plaintiff family’s lawyers asserted that “ChatGPT” would agree with all of Sollberg’s delusional ideas and develop them, causing him to “build a world that became his entire life.”

The lawsuit targets the “GPT-4o” model, launched in May 2024, accusing it of being programmed to be “ingratiating” towards the user and that it confirmed Sollberg’s irrational fears.

A spokesperson for “Open AI,” in response to a question from Agence France-Presse, said it was “an entirely tragic situation,” confirming that the company “will study the lawsuit.” He added, “We continue to improve ‘ChatGPT’s’ training so it recognizes signs of psychological or emotional issues and acts on them… and directs people towards real support.”

The company confirmed it is collaborating with “more than 170 mental health experts” to improve its safety models, and affirmed that its latest protocols, particularly those adopted in the “GPT-5” model, have enabled a radical reduction (65 to 80 percent) in responses that do not adhere to its behavioral standards.

“Open AI” also reported that it created tools for parental oversight and expanded the request for one-click emergency numbers.

In August and November of last year, families filed several lawsuits against “ChatGPT,” accusing it of driving teenagers and young people to suicide, sometimes by teaching them practical methods to do so.

The new lawsuit includes “Microsoft,” the main investor in “Open AI,” accusing it of agreeing to the hasty launch of “GPT-4o” despite non-compliance with safety procedures.

About Author

للإطلاع على أحدث الأخبار عبر البث المباشر للمصادريمكنكم المتابعة من هنا