Системите с изкуствен интелект имат една необичайна човешка черта – имат халюцинации. След като речникът на Кеймбридж определи думата на 2023 г. да бъде „халюцинирам“, много хора се сблъскаха с тази терминология за първи път.
Какво са халюцинациите на ИИ?
Това е феномен, при който големите езикови модели, сред които чатботове с генеративен ИИ, възприема модели и обекти, които не съществуват или са незначителни за човешките наблюдатели, и ги използва за създаването на безсмислени резултати.
Ако потребител на генеративен ИИ зададе въпрос, той очаква правилен отговор. Въпреки това понякога програмните алгоритми връщат резултати, които не се основават на данните за обучение, декодирани са неправилно и не следват никакъв разпознаваем модел. С други думи – ИИ „халюцинира“ отговора.
Терминът може да изглежда парадоксален, като се има предвид, че халюцинациите обикновено се свързват с човешки или животински мозъци, а не с машини. Но от метафорична гледна точка халюцинациите точно описват тези резултати, особено в случай на разпознаване на образи и модели, където резултатите могат да бъдат наистина сюрреалистични на външен вид.
AI халюцинациите са подобни на начина, по който хората понякога виждат фигури в облаците или лица на луната. В случая на AI тези погрешни тълкувания възникват поради различни фактори, включително пренастройване, отклонение или неточност на данните за обучение и висока сложност на модела.
Примери за халюцинации на ИИ
Когато ИИ започне да си измисля, моделът го прави с изключителна увереност, че е прав. Това е най-опасното при този процес – много потребители могат да бъдат заблудени.
Подобни халюцинации неведнъж са влизали в новинарските заглавия на Запад. Когато Google представи за първи път демо версията на Bard – ИИ рекламиран като пряк конкурент на ChatGPT, чатботът стана известен много бързо с грешен отговор за телескопа „Джеймс Уеб“.
При друг случай адвокат от Ню Йорк попадна под светлините на прожекторите, след като използва ChatGPT за проучване. Чатботът връща шест абсолютно измислени правни случая.
Новинарското издание CNET също беше принудено да публикува корекции заради материал, генериран с ИИ, който дал изключително погрешна финансова информация на тема „сложни лихви“.
Има и положителни страни
Халюцинациите на ИИ „развръзват“ ръцете на креативните професии. При изкуството и дизайна, грешките на системите може да създадат нови артистични форми и стилове.
В гейминг индустрията халюцинациите също са от полза, особено при VR устройствата. Там халюцинациите могат да добавят елемент на изненада, непредвидимост и нови усещания.
При визуализацията и интерпретацията на големи обеми от данни също са полезни, защото могат да предложат непредвидим начин за разчитане на комплексна информация.
Предотвратяване на халюцинациите
Според експерти от IBM има няколко метода, с които може да се намали вероятността от халюцинации. Най-важната е използването на висококачествени данни за трениране на ИИ. Моделите с генеративен ИИ разчитат на база данни, за да изпълняват задачите си.
Други важни моменти са дефинирането на целите на ИИ моделите, както и използването на темплейти за данни. По този начин възможността за халюцинация става още по-малка.
Експертите съветват също да има постоянно наблюдение от страна на хората.