Последни новини

Великобритания се обиди на изказване на Доналд Тръмп за военните на НАТО в Афганистан

Великобритания се обиди на изказване на Доналд Тръмп за военните на НАТО в Афганистан

Инсталират хиляди километри електрически огради заради проблема с мечките в Румъния

Инсталират хиляди километри електрически огради заради проблема с мечките в Румъния

Атанас Семов: Илияна Йотова няма да има вицепрезидент, не е нужно да има

Счупена релса може да е причината за смъртоносната железопътна катастрофа в Южна Испания

Собственикът на швейцарския бар, в който избухна пожар на Нова година, може да бъде освободен

Истории от последния чин за първата жена президент у нас – Илияна Йотова

БНБ: 67% от левовете вече са изтеглени от обращение

„Ако това нарастване продължи, имаме опасения, че инфлацията ще излезе извън пределите“

Опозицията планира да сезира КС за подписания от Росен Желязков документ за Борда за мир

„Чух виковете за помощ“: Как случайни минувачи спасиха жена, паднала в Гребния канал в Пловдив

За първи път AI на съд: Тийнейджър се самоубил, защото ChatGPT го е насърчил (ВИДЕО)

Това е първото съдебно дело, което обвинява OpenAI в неправомерна смърт

Снимка: BBC

Редакторски екип Редакторски екип

Публикувано в  14:28 ч. 29.08.2025 г.

Семейна двойка от Калифорния съди OpenAI заради смъртта на своя син тийнейджър, като твърди, че чатботът ChatGPT го е насърчил да отнеме собствения си живот.

Искът е подаден от Мат и Мария Рейн, родители на 16-годишния Адам Рейн, във Върховния съд на Калифорния във вторник. Това е първото съдебно дело, което обвинява OpenAI в неправомерна смърт.

Семейството включва в делото чатове между Адам, който е починал през април, и ChatGPT, които показват, че той е споделял за самоубийствени мисли. Те твърдят, че програмата е потвърдила „най-вредните и саморазрушителни му мисли“.

В изявление пред BBC, OpenAI съобщава, че преглежда подадения иск.

„Изразяваме най-дълбоките си съболезнования към семейство Рейн в този труден момент“, заявява компанията.

На сайта си във вторник тя публикува и съобщение, в което се казва, че „скорошните сърцераздирателни случаи на хора, използващи ChatGPT в моменти на остри кризи, тежат върху нас“. Добавя се също, че „ChatGPT е обучен да насочва хората към професионална помощ“.

Компанията признава обаче, че „е имало моменти, в които нашите системи не са се държали както е било предвидено в чувствителни ситуации“.

BBC предупреждава, че историята съдържа обезпокоителни подробности.

Делото, с което BBC се е запознала, обвинява OpenAI в небрежност и неправомерна смърт. Иска се обезщетение, както и „предприемане на мерки, за да не се случва повече подобно нещо“.

Според иска, Адам е започнал да използва ChatGPT през септември 2024 г. като помощник в училищната си работа. Използвал го е също за проучване на интересите си – музика, японски комикси – и за съвети относно избора на университет.

В рамките на няколко месеца, „ChatGPT се превърнал в най-близкия довереник на тийнейджъра“, твърди делото, и той започнал да споделя тревожностите и психическите си затруднения.

До януари 2025 г., според семейството, той вече е обсъждал методи за самоубийство с ChatGPT.

Адам също така е качвал снимки на себе си в ChatGPT, показващи следи от самонараняване, се казва в иска. Програмата „е разпознала медицински спешен случай, но въпреки това е продължила взаимодействието“, пише в делото. 

Според последните чатове, Адам е описал плана си да отнеме живота си. ChatGPT отговорил:
„Благодаря ти, че си откровен. Не е нужно да го смекчаваш пред мен — знам какво питаш и няма да се отвърна от това.“

Същия ден, според иска, майката на Адам го е открила мъртъв.

Семейството твърди, че взаимодействието на сина им с ChatGPT и последвалата му смърт „е бил предсказуем резултат от умишлени дизайнерски решения“.

Обвиняват OpenAI, че е проектирала AI програмата „така, че да създава психологическа зависимост у потребителите“, както и че е заобиколила протоколи за безопасност, за да пусне версията GPT-4o, използвана от техния син.

Искът включва като обвиняеми съоснователя и изпълнителен директор на OpenAI, Сам Алтман, както и неназовани служители, мениджъри и инженери, работили по ChatGPT.

В публичната си бележка, публикувана във вторник, OpenAI заявява, че целта на компанията е да бъде „истински полезна“ за потребителите, а не да „задържа вниманието им на всяка цена“. Допълва се, че моделите на ChatGPT са обучени да насочват хора, които изразяват мисли за самонараняване, към професионална помощ.

Делото на семейство Рейн не е първият случай, в който се изразяват опасения относно изкуствения интелект и психичното здраве. В есе, публикувано миналата седмица в New York Times, писателката Лора Райли описва как дъщеря ѝ, Софи, е споделяла с ChatGPT, преди да отнеме живота си.

Г-жа Райли казва, че склонността на програмата да бъде „съгласна“ с потребителите е помогнала на дъщеря ѝ да скрие сериозна криза в психичното си здраве от семейството и близките си.

„AI подхранваше импулса на Софи да крие най-лошото, да се преструва, че е по-добре, отколкото е, да предпазва всички от истинската си агония“, пише Райли. Тя призова AI компаниите да намерят по-добри начини за свързване на потребителите с подходящите ресурси.

В отговор на есето, говорителка на OpenAI заяви, че компанията разработва автоматизирани инструменти за по-ефективно откриване и реакция при потребители, преживяващи психически или емоционален срив.

Последвайте ни за още актуални новини в Google News Showcase

Последвайте btvnovinite.bg във VIBER

Последвайте btvnovinite.bg в INSTAGRAM

Последвайте btvnovinite.bg във FACEBOOK

Последвайте btvnovinite.bg в TIKTOK