Изкуственият интелект става все по-съвършен и е все по-трудно да разграничим истинския образ от фалшивия.
Пример за това са дигиталните двойници на украинката Олга Лойек, направени с изкуствен интелект.
Той я показва като рускинята Наташа, която говори свободно китайски. В манипулираните видеа тя благодари на Китай за подкрепата към Русия.
Фалшивите акаунти на Олга са следвани от хиляди души в Китай.
„За да създам свой собствен дигитален човек, просто трябва да заснема 30-минутен видеоклип на себе си и след като го завърша, преработвам видеоклипа. Разбира се, той изглежда много реален и ако промените езика, единственото нещо, което трябва да коригирате, е синхронизирането на устните“, казва Джим Чай, изпълнителен директор на технологична компания.
„Не харесвам това, че някой може да използва лицето на някой друг, за да го накара да каже каквото си поиска“, коментира украинската студентка Олга Лойек.
И от видеата – към снимките, в които се намесва изкуственият интелект. Според експерти става и ще става все по-трудно да се направи разлика между изкуствено генерираните изображения и истинските снимки. За да не сме заблудени, трябва да търсим фините детайли.
„Продължава да е голяма трудност за алгоритмите да създават достатъчно реалистично човешкото лице и човешките ръце по някакъв начин. В началото всички се смеехме, че генеративните модели създават ръце с по 6 пръста, с по 4 пръста. Това вече се случва доста по-рядко, но те много често са в неестествени позиции“, обяснява Георги Караманев, създател на сайта „Дигитални истории“.
По думите му човек инстинктивно може да забележи, че нещо не е както трябва, защото генеративните модели допускат някакви грешки във фона.
„Ако се вгледаме например в по-малките лица на фон, много често там има някакви грешки и неточности... Ако нещо е прекалено съвършено, ако кожата е напълно равна, лъскава на човека – това също е знак, че може да е генерирано изображение. Още едно нещо, по което често може да различим, е, ако загледаме текстовете. На алгоритмите все още е трудно да сложат текст, който да е достатъчно логичен в рамките на изображението“, допълва Караманев.
През 2019 г. ABC посочи най-честите грешки, допускани от AI алгоритми – размазани петна, хаотични фонове, изкривени очила, неправилни аксесоари, асиметрии.
Да разпознаят изображения, създадени с изкуствен интелект, провокира читателите на сайта „Дигитални истории“ на Георги Караманев. В експеримента се включват 1800 души.