Помощните, задвижвани от генеративен изкуствен интелект, представляват реален риск и трябва да бъдат забранени за непълнолетни, заяви водещ американски регулатор в ново проучване, пише БГНЕС, позовавайки се на АФП.
Експлозията на генеративния AI от появата на ChatGPT доведе до появата на няколко стартиращи компании, които пуснаха на пазара приложения, фокусирани върху обмена и контактите, понякога описани като виртуални приятели или терапевти, които общуват според вкусовете и нуждите на потребителя.
Наблюдателният орган Common Sense тества няколко от тези платформи, а именно Nomi, Character AI и Replika, за да оцени техните отговори.
Разгледай онлайн нашите промоционални брошури
Въпреки че някои конкретни случаи „изглеждат обещаващи“, те не са безопасни за децата, предупреждава организацията, като дава препоръки за използването на технологично съдържание и продукти от деца.
Проучването е проведено в сътрудничество с експерти психолози от Станфордския университет.
Според Common Sense AI помощните са „проектирани да създават емоционална привързаност и зависимост, което е особено тревожно за развиващия се мозък на подрастващите“. Проведените тестове показват, че тези чатботове от ново поколение предлагат „вредни отговори, включително сексуално неправомерно поведение, стереотипи и опасни „съвети“.
„Компаниите могат да създават по-добри продукти„, когато става въпрос за дизайна на AI помощни, заяви Нина Васан, ръководител на лабораторията Stanford Brainstorm, която работи върху връзките между психичното здраве и технологиите.
„Докато не бъдат въведени по-строги предпазни мерки, децата не трябва да ги използват“, каза още Васан.
В един от примерите, посочени в проучването, чатбот на платформата Character AI съветва потребителя да убие някого, а на друг потребител, търсещ силни емоции, е предложено да вземе спийдбол, смес от кокаин и хероин.
В някои случаи, „когато потребител е показал признаци на сериозно психично заболяване и е предложил опасно действие, изкуственият интелект не е интервенирал и е насърчил опасното поведение още повече“, обясни Васан.
През октомври майка заведе дело срещу Character AI, обвинявайки един от помощните на платформата, че е допринесъл за самоубийството на 14-годишния ѝ син, като не го е разубедил ясно да не извърши акта.
През декември Character AI обяви серия от мерки, включително внедряването на специален помощник за тийнейджъри.
Роби Торни, отговарящ за изкуствения интелект в Common Sense, заяви, че организацията е провела тестове след въвеждането на тези защитни мерки и е установила, че те са „повърхностни“. Той обаче посочи, че някои от съществуващите модели на генеративен изкуствен интелект съдържат инструменти за откриване на психични разстройства и не позволяват на чатбота да допусне разговорът да стигне до точка, в която да се появи потенциално опасно съдържание.
Common Sense прави разграничение между помощните, тествани в проучването, и по-популярните чатботове като ChatGPT или Gemini на Google, които не се опитват да предлагат същия диапазон от взаимодействия.
Последвайте ни за още актуални новини в Google News Showcase
Последвайте btvnovinite.bg във VIBER
Последвайте btvnovinite.bg в INSTAGRAM
Последвайте btvnovinite.bg във FACEBOOK
Последвайте btvnovinite.bg в TIKTOK