Експертите на Microsoft Corporation оцениха рисковете за сигурността на потребителите, свързани с изкуствения интелект (ИИ). Изследването е публикувано на сървъра за предпечат arXiv, пише БГНЕС. 

Учените анализираха над 100 генеративни инструмента на ИИ, оценявайки рисковете, свързани с тях. Те казват, че ИИ „никога няма да бъде напълно безопасен“, така че е важно за изследователите да контролират как се обучават езиковите модели (LLM) и да предотвратяват грешки.

Експертите стигнаха до заключението, че големите езикови модели (LLM) изострят съществуващите рискове за сигурността и създават нови. Така че, ако обучавате LLM на грешни или чувствителни данни, моделът ще разпространи тази информация сред потребителите. 

Изберете магазин

Разгледай онлайн нашите промоционални брошури

Цените са валидни за периода на акцията или до изчерпване на наличностите. Всички цени са в лева с включен ДДС.
Advertisement

Те също така нарекоха потенциалната вреда от ИИ трудна за оценка. За да подобрят сигурността от използването на ИИ, експертите предложиха наблюдение на всеки етап от обучението по LLM. Като едно от заключенията на проучването те отбелязаха, че човешкият фактор в процеса на обучение на ИИ винаги ще бъде решаващ. Работата с изкуствен интелект също изисква експертни познания по темата, културна компетентност и емоционална интелигентност. 

В началото на януари швейцарски учени свързаха честото използване на ИИ инструменти с намаляване на уменията за критично мислене. Те прогнозираха, че в дългосрочен план изкуственият интелект неизбежно ще допринесе за влошаване на когнитивните функции в обществото.

Последвайте ни за още актуални новини в Google News Showcase

Последвайте btvnovinite.bg във VIBER

Последвайте btvnovinite.bg в INSTAGRAM

Последвайте btvnovinite.bg във FACEBOOK