Снимка на бебе сред развалините, за което се твърди, че е палестинско и е било ранено в Газа от армията на Израел, обиколи социалнaта мрежа Х.
Изображението обаче се оказа фалшиво.
Всъщност, беше доказано, че то е генерирано от изкуствен интелект (AI), пише The Jerusalem Post.
Снимката на раненото бебе беше споделена в социалната мрежа Х от Ая Ислим, палестинска журналистка, базирана в Газа. Описанието включваше само една-единствена дума - „Газа“.
Ислим намекна, че бебето е палестинско и е било ранено от израелските отбранителни сили (IDF). След много оплаквания обаче социалната мрежа Х (бивш Twitter) маркира изображението, като обясни, че това всъщност е снимка, генерирана от изкуствен интелект.
„Читателите добавиха контекст, който смятаха, че хората биха искали да знаят. Изображението е произведено от AI и има AI артефакти върху ръката на бебето. Генерираното изображение е споделяно в социалните медии от най-малко осем месеца по-рано.“
Американският автор, журналист и влиятелен в социалните мрежи Анди Куонг Нго показва екранна снимка на същото изображение отпреди 8 месеца, когато то отново е маркирано като генерирано от изкуствен интелект.
Пропагандата на „Хамас“
„Войната на разкази и изображения е взела безпрецедентен обрат. Доказателствата сочат, че „Хамас“ използва инструменти на изкуствения интелект за манипулиране на снимки, включително на починали деца, както разкри X“, обясни главният изпълнителен директор на Движението за борба с антисемитизма и експерт от световна класа в областта на социалните медии Саша Ройтман Дратва.
На 7 октомври терористичната групировка “Хамас” нападна Израел и сложи начало на кръвопролитен военен конфликт, при който хиляди цивилни хора загубиха живота си.
„Дълбоко обезпокоително е да наблюдаваме как пропагандата на „Хамас“ прибягва до дезинформация и изфабрикувани визуални материали в опит да повлияе на общественото мнение. Тази организация използва всички възможни средства, за да изопачава фактите“, допълва Ройтман Дратва.
Според биографията ѝ в социалната мрежа X палестинската журналистка Ислим, публикувала фалшивото изображение“, „предава“ своите „новини за хората в Палестина под знака на това, че страната ѝ е под жестоката „израелска окупация“.
Израелската интернет компания Walla! наскоро съобщи, че новата версия на AI арт генератора DALL·E 3 има резерви относно генерирането на изображения, които символизират израелското застъпничество.
Въпреки че платформата избягва да създава визуални изображения, свързани с конфликти, някои потребители са намерили обходни пътища, като например използване на общи символи или задаване на непреки въпроси. Силата на DALL-E 3 се крие в способността му да включва текст и да създава бързо завладяващи визуални материали.
Земетресенията в Турция и Сирия
Подобен случай с фалшива информация имаше и при опустошителните земетресения в Турция и Сирия в началото на февруари тази година.
Тогава снимка на голдън ретрийвър, който е седнал до ръката на човек, затрупан по време на земетресението в Турция, обиколи света и стана лице на редица дарителски кампании след опустошителния трус в южната ни съседка и Сирия.
Фотографията беше споделена в Инстаграм с текст „Малките герои ще спасят много животи. Молете се за Турция“ и събра повече от 9000 харесвания.
Снимката обаче се оказа фалшива. Кадърът е част от стокова колекция снимки на куче спасител, което търси живи хора сред отломки от земетресение. Заснета е през 2018 г. от фотограф в Чехия и може да бъде намерена в една от най-популярните платформи за стокови фотографии в света.
Всичко за конфликта в Близкия изток следете в онлайн репортажа ни.