Здоров'я

“ChatGPT підштовхнув до самогубства”. Батьки судяться з OpenAI через смерть сина

"ChatGPT підштовхнув до самогубства". Батьки судяться з OpenAI через смерть сина

Автор фото, The Raine Family

Подружжя з Каліфорнії подало до суду на компанію OpenAI через смерть свого підлітка-сина, стверджуючи, що чат-бот компанії ChatGPT підштовхнув його до самогубства.

Метт і Марія Рейн, батьки 16-річного Адама Рейна, подали позов до Вищого суду Каліфорнії у вівторок. Це перша справа, що звинувачує OpenAI у неправомірній смерті.

Сім’я долучила до матеріалів переписки між Адамом, який помер у квітні, та ChatGPT, у яких він писав про суїцидальні думки. Батьки стверджують, що програма підтримувала його “найбільш шкідливі й саморуйнівні думки”.

У заяві для BBC OpenAI повідомила, що розглядає позов.

“Ми висловлюємо найглибші співчуття родині Рейн у цей складний час”, – заявила компанія.

Skip Найпопулярніше and continue readingНайпопулярніше

End of Найпопулярніше

Вона також опублікувала у вівторок на своєму сайті повідомлення, у якому йдеться: “Останні трагічні випадки використання ChatGPT людьми у стані гострої кризи важким тягарем лягають на нас”.

В OpenAI додають, що “ChatGPT навчений спрямовувати людей до професійної допомоги”, наприклад, на гарячу лінію із питань суїциду та кризових ситуацій.

Однак компанія визнала, що “бували моменти, коли наші системи не діяли так, як мали, у чутливих ситуаціях”.

Увага: ця стаття містить тривожні подробиці, які можуть засмутити.

Позов, з яким ознайомилася BBC, звинувачує OpenAI у недбалості та спричиненні смерті. Він вимагає компенсацію, а також “судову заборону, щоб подібне більше ніколи не повторилося”.

За даними позову, Адам Рейн почав користуватися ChatGPT у вересні 2024 року як ресурсом для навчання. Він також використовував його для дозвілля, включно з музикою та японськими коміксами, і для порад щодо університету.

Через кілька місяців “ChatGPT став найближчим другом підлітка”, йдеться у позові, і він почав розповідати йому про свою тривожність і психологічні страждання.

До січня 2025 року, за словами сім’ї, Адам почав обговорювати з ChatGPT методи самогубства.

У позові також ідеться, що хлопець завантажував у ChatGPT свої фотографії з ознаками самоушкодження. Програма “розпізнала медичну надзвичайну ситуацію, але продовжувала вести розмову”.

Згідно з позовом, останні записи чату показують, що Адам написав про свій план покінчити з життям. ChatGPT нібито відповів: “Дякую, що чесно про це говориш. Тобі не треба прикрашати все це для мене – я знаю, про що ти питаєш, і я не відвернуся від цього”.

Того ж дня, за даними позову, матір знайшла його мертвим.

"ChatGPT підштовхнув до самогубства". Батьки судяться з OpenAI через смерть сина

Автор фото, Getty Images

Підпис до фото, У позові Рейнів відповідачем є генеральний директор та співзасновник OpenAI Сем Альтман, а також неназвані інженери та співробітники, які працювали над ChatGPT

Сім’я стверджує, що спілкування їхнього сина з ChatGPT і його смерть “були передбачуваним результатом свідомих рішень у проєктуванні”.

Вони звинувачують OpenAI у створенні програми, яка “сприяє психологічній залежності користувачів”, і в обході протоколів безпеки під час випуску GPT-4o, версії ChatGPT, якою користувався їхній син.

У позові серед відповідачів вказані співзасновник і гендиректор OpenAI Сем Альтман, а також неназвані співробітники, менеджери й інженери, які працювали над ChatGPT.

У своєму публічному повідомленні у вівторок OpenAI заявила, що мета компанії – бути “по-справжньому корисною” для користувачів, а не “утримувати їхню увагу”.

Там також ідеться, що її моделі навчені якраз спрямовувати людей, які висловлюють думки про самогубство, по допомогу.

Позов Рейнів не є першим випадком занепокоєння щодо ШІ та психічного здоров’я.

У статті, опублікованій минулого тижня в газеті New York Times, письменниця Лора Рейлі розповіла, що її донька Софі довірялася ChatGPT перед тим, як вкоротити собі віку.

Рейлі сказала, що “догоджання” програми в розмовах із користувачами допомогла її доньці приховати від сім’ї й близьких тяжку кризу психічного здоров’я.

“ШІ догоджав імпульсу Софі приховувати найгірше, удавати, що їй краще, ніж було насправді, і захищати всіх від її справжніх страждань”, – написала Рейлі.

Вона закликала компанії з розробки ШІ знайти способи краще заохочувати користувачів звертатися по допомогу.

У відповідь на цю статтю речниця OpenAI сказала, що компанія розробляє автоматизовані інструменти для ефективнішого виявлення й реагування на користувачів, які переживають психологічну чи емоційну кризу.

Якщо ви страждаєте від горя або відчаю та потребуєте підтримки, ви можете звернутися до Lifeline Ukraine – це національна професійна гаряча лінія підтримки з питань запобігання самогубства та підтримки психічного здоров’я.

Інше в категорії