Жираф, оказал се заклещен на малък къс скала, кран, с който трябва да бъде спасен, и огромна тълпа от хора, гледащи към животното, изпаднало в беда.

Това е първият кадър от циркулиращо видео през последните дни в различни социални мрежи, гледано от милиони потребители.

Следва началото на спасителната акция, изтеглянето на жирафа, който във видеото е по-голям от крана, и ръкопляскания на събралото се множество след успешния край на операцията.

Драматичните кадри, естествено, са генерирани от изкуствен интелект и са дийпфейк (deepfake – дълбока фалшификация – бел. ред.), но не всички потребители успяват да го засекат. Сред водещите коментари са – „Как се е озовал жирафът там?“, „Кранът може да падне при грешна маневра“, „Как са успели да смъкнат крана там?“.

@wildlife.tracks #giraffe #rescue #viral #amazing #animals #growmyaccount #nature #grow #wildlife #interesting #foryouu ♬ italia e voi(双枪说)(剪辑版) - 花凯

Макар това видео да безобидно само по себе си, производството на дийпфейк нараства с все по-големи темпове, а жертви на новите технологии стават от големи корпорации, през политици и бизнесмени, до новоизгряващи актьори и певци.

 

Това е проблем, който засегна знаменитости като Тейлър Суифт, но също може да засегне обикновени хора, които могат да станат обекти на изнудване.

Министър-председателят на Италия Джорджа Мелони води дело срещу създател на дийпфейк видео за възрастни, в което нейното лице е заместило това на порно актриса.

Снимка: Ройтерс

Южна Корея ревизира своя закон, който криминализира фалшивата порнография. Сега там не само е незаконно да се създава и разпространява този неприличен цифров материал, но и да се гледа.

Освен криминалната страна проблемът засяга обществото в неговата цялост. Все повече дийпфейк видеа се използват срещу политически опоненти или за политически цели.

Поради реалистичния характер на дийпфейк съдържанието, хората са изправени пред невинаги приятното предизвикателство да разграничат факта от измислицата. Или ги принуждава да стават следователи и детективи, оценявайки всеки един елемент от видео или снимка, за да разберат наистина ли дадено нещо се е случило.

„Целта е една-единствена - да може да се злоупотреби с доверието на потребителите, да бъдат финансово ощетени, да се тества доколко те са запознати с тази технология, дали могат да оценят истината от лъжата. За съжаление, едно от последните проучвания на ЕС доказа, че обществото в България е най-податливо на лъжлива информация, на дезинформация“, обясни в рубриката „Провери фактите“ експертът по киберсигурност Любомир Тулев.

Различни научни направления се занимават с изследване на ефектите от фалшивите видеа. Появяват се „наръчници“ как да разпознаем дийпфейк продукцията, но и все повече материали как да се създава.

Всичко това само по себе си ще доведе до отлив на потребителите от социалните мрежи, ако съдържанието от изкуствен интелект не бъде по-строго регулирано или поне отбелязано като създадено от изкуствен интелект.

Преди четири години Meta и Facebook обявиха, че засилват следенето срещу манипулативните видеа, идентифицирани като „дийпфейк“, но тези усилия не успяват да смогнат на производството, имайки предвид и немощта на социалните мрежи около публикации на различните езици, както и при кратките видеа в секциите Shorts.

Последвайте ни за още актуални новини в Google News Showcase

Последвайте btvnovinite.bg във VIBER

Последвайте btvnovinite.bg в INSTAGRAM

Последвайте btvnovinite.bg във FACEBOOK