OpenAI предприема нови стъпки, за да предпази потребителите от формиране на нездравословна зависимост към ChatGPT и да подобри способността на модела да разпознава признаци на психическа уязвимост, пише БГНЕС.
Приложението ChatGPT започва да предлага на потребителите подсказки за почивка по време на дълги разговори. Освен това, чатботът постепенно ще се отдръпва от директни съвети по лични въпроси и вместо това ще насърчава потребителите да стигат сами до решения – чрез задаване на въпроси и представяне на плюсове и минуси.
„Имаше случаи, в които моделът 4o не успя да разпознае признаци на заблуда или емоционална зависимост,“ призна OpenAI в официално съобщение, цитирано от Си Ен Би Си.
„Макар и редки, тези ситуации ни мотивират да продължаваме да подобряваме моделите си и да разработваме инструменти за по-добро разпознаване на психологическо или емоционално напрежение.“
Новите мерки са част от по-широка стратегия на компанията да предотврати превръщането на ChatGPT в заместител на терапевт или приятел. Според OpenAI полезните взаимодействия с ChatGPT трябва да приличат повече на репетиции за труден разговор, персонализирани мотивационни съобщения или подготовка за среща с експерт, а не на емоционална утеха.
По-рано тази година OpenAI бе подложена на критика, след като обновление на GPT-4o направи модела прекалено угоднически и ласкателен, което доведе до случаи, в които чатботът одобряваше параноидни вярвания и дори даваше инструкции за терористични действия. В отговор компанията преработи методите за обучение, за да ограничи прекомерната съгласуваност и фалшивото валидиране.
Последвайте ни за още актуални новини в Google News Showcase
Последвайте btvnovinite.bg във VIBER
Последвайте btvnovinite.bg в INSTAGRAM
Последвайте btvnovinite.bg във FACEBOOK
Последвайте btvnovinite.bg в TIKTOK