Експертите на Microsoft Corporation оцениха рисковете за сигурността на потребителите, свързани с изкуствения интелект (ИИ). Изследването е публикувано на сървъра за предпечат arXiv, пише БГНЕС.
Учените анализираха над 100 генеративни инструмента на ИИ, оценявайки рисковете, свързани с тях. Те казват, че ИИ „никога няма да бъде напълно безопасен“, така че е важно за изследователите да контролират как се обучават езиковите модели (LLM) и да предотвратяват грешки.
Експертите стигнаха до заключението, че големите езикови модели (LLM) изострят съществуващите рискове за сигурността и създават нови. Така че, ако обучавате LLM на грешни или чувствителни данни, моделът ще разпространи тази информация сред потребителите.
Разгледай онлайн нашите промоционални брошури
Те също така нарекоха потенциалната вреда от ИИ трудна за оценка. За да подобрят сигурността от използването на ИИ, експертите предложиха наблюдение на всеки етап от обучението по LLM. Като едно от заключенията на проучването те отбелязаха, че човешкият фактор в процеса на обучение на ИИ винаги ще бъде решаващ. Работата с изкуствен интелект също изисква експертни познания по темата, културна компетентност и емоционална интелигентност.
В началото на януари швейцарски учени свързаха честото използване на ИИ инструменти с намаляване на уменията за критично мислене. Те прогнозираха, че в дългосрочен план изкуственият интелект неизбежно ще допринесе за влошаване на когнитивните функции в обществото.
Последвайте ни за още актуални новини в Google News Showcase
Последвайте btvnovinite.bg във VIBER
Последвайте btvnovinite.bg в INSTAGRAM
Последвайте btvnovinite.bg във FACEBOOK