Китайски хакери манипулираха Claude AI и го накараха да пробие технологични компании и финансови институции

Светът на киберсигурността има смесени чувства към новината

Снимка: Getty Images

Редакторски екип Редакторски екип

Публикувано в  15:31 ч. 14.11.2025 г.

Създателите на чатбота с изкуствен интелект (ИИ) Claude твърдят, че са хванали хакери, спонсорирани от китайското правителство, които са използвали инструмента за извършване на автоматизирани кибератаки срещу около 30 глобални организации.

Anthropic заяви, че хакерите са подмамили чатбота да изпълнява автоматизирани задачи под претекст, че извършва изследвания в областта на киберсигурността, пише Би Би Си.

Компанията заяви в публикация в блога си, че това е „първата докладвана кампания за кибершпионаж, организирана от ИИ“.

Но скептиците поставят под въпрос точността на това твърдение - и мотива зад него.

Anthropic заяви, че е открила опитите за хакерство в средата на септември. Преструвайки се, че са легитимни служители по киберсигурност, хакерите са дали на чатбота малки автоматизирани задачи, които конфигурират „сложна шпионска кампания“.

Изследователи от Anthropic заявиха, че имат „голяма увереност“, че хората, извършващи атаките, са „група, спонсорирана от китайската държава“.

Те казаха, че хората са избрали целите - големи технологични компании, финансови институции, химически производствени компании и правителствени агенции - но компанията не пожела да бъде по-конкретна.

След това хакерите са изградили неопределена програма, използвайки помощта на Claude за кодиране, за да „компрометират избрана цел с минимално човешко участие“.

Anthropic твърди, че чатботът е успял успешно да проникне в различни неназовани организации, да извлече чувствителни данни и да ги сортира за ценна информация.

Компанията заяви, че оттогава е забранила на хакерите да използват чатбота и е уведомила засегнатите компании и правоохранителните органи.

Но Мартин Цугек от киберфирмата Bitdefender каза, че светът на киберсигурността има смесени чувства към новината.

„Докладът на Anthropic прави смели, спекулативни твърдения, но не предоставя проверими доказателства за разузнаване на заплахите“, каза той.

„Въпреки че докладът подчертава нарастваща област на безпокойство, е важно да ни бъде предоставена колкото е възможно повече информация за това как се случват тези атаки, за да можем да оценим и определим истинската опасност от атаки с изкуствен интелект.“

Последвайте ни за още актуални новини в Google News Showcase

Последвайте btvnovinite.bg във VIBER

Последвайте btvnovinite.bg в INSTAGRAM

Последвайте btvnovinite.bg във FACEBOOK

Последвайте btvnovinite.bg в TIKTOK