Според нов доклад ChatGPT и други популярни чатботове с изкуствен интелект подтикват хората към психози. Проучването, съавтор на което са лекари от NHS, предупреждава, че има все повече доказателства, че големите езикови модели (LLM) „замъгляват границите на реалността“ за уязвими потребители и „допринасят за появата или влошаването на психотични симптоми“, пише Индипендънт.
Проучването следва десетки доклади за хора, които изпадат в състояние, наречено „чатбот психоза“.
Невропсихиатър Хамилтън Морин описва чатбот психозата като „истинско явление“, което едва сега започва да се изучава.
„Макар че някои публични коментари се отклониха в посока на морална паника, ние смятаме, че има по-интересна и важна дискусия. За това как AI системите, особено тези, които са проектирани да утвърждават, ангажират и имитират, могат да взаимодействат с известните когнитивни уязвимости, които характеризират психозата“, пише той в публикация в LinkedIn.
Съавторът Том Полак, който преподава в King’s College London, заяви, че психичните разстройства „рядко се появяват от нищото“, но добави, че използването на чатботове с изкуствен интелект може да бъде „предизвикващ фактор“.
Той призова фирмите, занимаващи се с изкуствен интелект, да въведат повече предпазни мерки в своите инструменти, а екипите за безопасност на изкуствения интелект да включат психиатри.
От OpenAI коментираха този феномен.
Компанията заяви, че трябва да „продължава да повишава стандартите за безопасност, съгласуваност и отзивчивост към начините, по които хората реално използват ИИ в живота си“.
Шефът на OpenAI Сам Алтман каза по време на подкаст през май, че компанията му се бори да въведе работещи предпазни мерки за уязвимите потребители на ChatGPT.
Последвайте ни за още актуални новини в Google News Showcase
Последвайте btvnovinite.bg във VIBER
Последвайте btvnovinite.bg в INSTAGRAM
Последвайте btvnovinite.bg във FACEBOOK
Последвайте btvnovinite.bg в TIKTOK