От деня

Интервю

Моралните дилеми около военната употреба на AI

"Социалните мрежи не са просто място за общуване. Те са разузнавателна повърхност"

Интервю с проф. Илин Савов, международен експерт в сферата на киберсигурността и киберпревенцията

събота, 14 март 2026, 11:16

проф. Илин Савов

проф. Илин Савов

СНИМКА: Личен архив

Размер на шрифта

Войните на 20 век развиха ядрените, химически и биологически оръжия като възможни заплахи за съществуването на човечеството. По същия начин войните на 21 век развиват изкуствения интелект и възможностите за добиване, съхранение и обработка на колосални количества данни. Този мрачен извод се подкрепя от случващото се в момента в Украйна и в Близкия изток.

След началото на новата американска и израелска война срещу ислямската република, "Антропик", създатели на популярния езиков модел "Claude" (Клод), прекратиха съвместната си работа с Пентагона. Причината - американските военни не могат да гарантират, че технологията не се употребява за масово наблюдение и за оръжия, чийто спусък се натиска не от човек, а от компютърна програма.

Отговорът на Доналд Тръмп и администрацията му - насрещно прекратяване на всякакви партньорства с "предателската" "Антропик" и работещи с нея други компании. А техни конкуренти побързаха да ги заместят в скъпоструващите договори с американските военни.

Според проф. Илин Савов, международен експерт в сферата на киберсигурността и киберпревенцията с дългогодишен професионален опит в службите за сигурност, спорът показва три важни факта - държавните активно въвеждат изкуствения интелект на военна служба, доставчиците на тази способност са частни компании, а данните се превръщат в ресурс за национална сигурност:

"Не бих казал, че самото използване на големи езикови модели за националната сигурност е автоматично неморално. Неморално става тогава, когато AI премине от подпомагане на анализа към непрозрачно вземане на високорискови решения, например - масово наблюдение, без да има ясни граници, или автономно насочване на оръжие, или изместване на човешката отговорност. Именно конфликтът между "Антропик" и Пентагона е отказът на самата компания да махне защитните ограничения, които да позволяват използването на автономно оръжейно насочване, което е нормално. Моралният въпрос не е AI да се използва или - не, а за какво точно, с каква проследимост и къде е човекът в целия процес".  

В първите дни на американската и израелска война срещу Иран, Революционна гвардия се прицели и в такива мишени. Ударени бяха три центъра за данни на AWS ("Амазон Уеб Сървисис") - един от американските монополисти в облачните услуги - в Бахрейн и Обединените арабски емирства. Данните, съхранявани от "Амазон" могат да имат и военна употреба, но прекият ефект от удара, който ни напомни и глобалният срив на същата услуга миналата година, е спиране на банкови плащания и недостъпност на редица сайтове и приложения за съвсем цивилна употреба. Използването на информационните технологии за масово проследяване от страна конкретно на американската държава ни беше добре демонстрирано от разкритията на Едуард Сноудън преди 13 години. Тези възможности сега се разширяват от изкуствения интелект.  

Спорът между "Антропик" и Пентагона има още едно ниво. До момента AI-компанията работи съвместно с друг технологичен гигант - Palantir ("Палантир"). Собственост на един от приближените до Тръмп IT-милиардери, Питър Тиъл, приложенията ѝ за събиране и анализ на данни от години се употребяват от различни структури на американската държава, не без обвинения в улесняване на масовото следене. Във военна обстановка, критиците на геноцида в Газа свързват Palantir ("Палантир") с набелязването и реализирането на удари с голям брой цивилни жертви в анклава. За залавянето на Николас Мадур и убийството на Али Хаменей, според различни източници, е използван един от по-новите инструменти на компанията - "Project Maven" - който обработва сателитни данни в реално време заедно с "Клод" на "Антропик".

По какъв начин компании като Palantir ("Палантир") се снабдяват с данните, които после САЩ, Израел и други страни използват за военни цели?

"Компаниите като Palantir ("Палантир") обичайно не работят по класически модел - т.е. събиране на лични данни и продаването им. Компанията продава софтуерни платформи, които интегрират данни, с които клиентът вече разполага или има законен достъп до тях. ... Самата сила на компанията Palantir ("Палантир") не е, че създава данни, а че свързва разпокъсаните такива в оперативна картина, който може да бъде използвана за разузнаване, командване, оперативна дейност дори на терен. Когато такава платформа стане твърде добра в свързването на масиви, тя може да усили и капацитета на държавата за наблюдение. ... Търсенето на такива способности от държавите рязко расте. Трябва да бъдем подготвени", обясни проф. Илин Савов.

Оперативният ръководител на Palantir ("Палантир") Алекс Карп тази седмица защити военната употреба на приложенията му със съществен аргумент - "AI-революцията е по същество американска", тоест - инструментите са ясно преимущество за Съединените щати в геополитически и военен план.

Докато "Антропик" е готова да рискува цялостното си бизнес бъдеще, за да не подпомага автономни оръжейни системи и масово проследяване, само часове след техния отказ OpenAI, създателите на ChatGPT, сключиха своя сделка с Пентагона. Ръководителят Сам Алтман твърди, че масовото наблюдение и възможността алгоритъм да вземе финално решение за военен удар са изключени. Високопоставеният му служител Кейтлин Калиновски обаче напусна компанията, твърдейки, че няма достатъчно заложени защитни механизми. Неизбежна ли е тази употреба на изкуствения интелект?

"Да, неизбежна е в ограничен смисъл. Причината е доста проста - обемът на данните е прекалено голям за чисто човешка обработка. ... Има огромна разлика между неизбежна аналитична употреба и неизбежна злоупотреба. Първото е технологичната логика. Второто е политически избор. Т.е. да, AI ще анализира все повече, но не е задължително това да означава безконтролно следене на всеки човек", подчерта международният експерт в сферата на киберсигурността и киберпревенцията  

Стигаме до регулациите, които от една страна да гарантират неприкосновеност на личната ни информация, от друга - да ограничат именно най-опасната употреба на технологиите. Често срещано е наблюдението, че технологията, особено разработките на най-богатите компании в света, изпреварва с години тежкия бюрократичен процес по прокарването на един закон. Както сега говорим за ограничаване на опасната употреба на изкуствения интелект, до съвсем скоро активно обсъждахме противодействието на социалните мрежи като политически инструменти. Каква роля имат популярните платформи и чат приложенията в събирането на информация, която има стойност в сферата на сигурността?

"Социалните мрежи и чат-приложенията са станали паралелна разузнавателна среда - дават не само съдържание, а и модели. Това е злато за службите, но и за престъпните дигитални консорциуми и враждебните актьори, особено в условията на война. ... Социалните мрежи са и канал за вербовка, радикализация и влияние, което ще го видим доста силно след този конфликт в Близкия изток", посочи проф. Савов и заяви:

"Днес социалните мрежи не са просто място за общуване. Те са разузнавателна повърхност".

Интервюто на Константин Мравов с проф. Илин Савов в предаването "Събота 150" можете да чуете от звуковия файл.