Изпълнителният директор на „Антропик“ (Anthropic), американски стартъп, развиващ изкуствен интелект (ИИ), Дарио Амодей, направи в четвъртък последен опит да постигне споразумение с Министерството на отбраната на САЩ, предаде Файненшъл таймс. Провалът на преговорите седмица по-рано изложи компанията му на риск да бъде изключена от веригата за доставки на военните.
Амодей води разговори с Емил Майкъл, заместник-министър на отбраната по научни изследвания и инженерство, в опит да изглади противоречията по договора, уреждащ достъпа на Пентагона до моделите с ИИ.
Сключването на нов договор би позволило на американските военни да продължат да използват технологията на „Антропик“ и значително би намалило възможността компанията да бъде определена като рискова за веригата за доставки - ход, предприет от министъра на отбраната Пийт Хегсет.
Опитът за постигане на компромисно споразумение следва грандиозния провал на преговорите миналата седмица.
Пентагонът поиска компанията да разхлаби етичните насоки на своите системи с ИИ или да се изправи пред тежки последици, посочи „Гардиън“.
Междувременно Доналд Тръмп заяви, че ще нареди на всички федерални агенции незабавно да прекратят всякакво използване на технологиите на „Антропик“ в поредния епизод на публичния сблъсък относно безопасността на ИИ.
„Левите луди в „Антропик“ направиха катастрофална грешка, опитвайки се да натиснат Министерството на войната и да го принудят да се подчинява на техните условия за ползване, вместо на нашата Конституция“, написа Тръмп в платформата „Трут Соушъл“.
„Ние ще решим съдбата на нашата страна – не някаква поставена извън контрол, радикално лява компания за изкуствен интелект, управлявана от хора, които нямат представа какво представлява реалният свят“, подчерта той.
Часове след като конкурентът му беше наказан, главният изпълнителен директор на „ОупънЕйАй“ (OpenAI) Сам Олтман обяви, че компанията му е сключила сделка с Пентагона за доставка на изкуствен интелект на класифицирани военни мрежи, потенциално запълвайки празнина, създадена от отстраняването на „Антропик“.
Олтман обаче заяви, че същите червени линии, които бяха в основата на спора между „Антропик“ и Пентагона, сега са залегнали в новото партньорство на неговата компания.
„Два от най-важните ни принципа за безопасност са забраните за вътрешно масово наблюдение и човешката отговорност за употребата на сила, включително за автономни оръжейни системи“, написа Олтман, добавяйки, че Пентагонът „е съгласен с тези принципи, отразява ги в закона и политиката, като ги включва в нашето споразумение“.
Той също така каза, че се надява Пентагонът да предложи същите тези условия на всички компании за ИИ като начин за деескалация, отдалечаване от правни и правителствени действия и към разумни споразумения.
„Ще оспорим всяко определяне на риска за веригата на доставки в съда“, подчертаха от „Антропик“, добавяйки, че определянето на компанията като рискова е „безпрецедентно действие... никога преди прилагано публично към американска компания“.
Публичният сблъсък между Министерството на отбраната на САЩ и „Антропик“ започна след като двете страни започнаха дискусии относно използването от военните на системата „Клод ЕйАй“ (Claude AI) на компанията. Но разговорите се провалиха, тъй като двете страни изглежда не успяха да постигнат споразумение относно предпазните клаузи.
„Антропик“, която се представя като най-безопасната от водещите компании за ИИ, от месеци има разногласия с Пентагона още преди началото на публичните дискусии тази седмица. Представители на американското министерство на отбраната настояват за неограничен достъп до възможностите на „Клод“, които според тях могат да помогнат за защитата на страната, докато „Антропик“ се съпротивлява да позволи продуктът им да бъде използван за масово наблюдение или за автономни оръжейни системи, които могат да убиват хора без човешка намеса.
„Никакво сплашване или наказание от министерството няма да промени позицията ни относно масовото вътрешно наблюдение или напълно автономните оръжия“, заявиха от компанията.
В Силициевата долина „Антропик“ получиха подкрепа от най-яростните си конкуренти. Висши ръководители на компании за изкуствен интелект публично застанаха на тяхна страната, включително Сам Олтман.
Близо 500 служители на „ОупънЕйАй“ и „Гугъл“ също подписаха отворено писмо, в което се казва, че „няма да бъдем разделени“. Двете компании също имат договори с военните.
„Пентагонът преговаря с „Гугъл“ и „ОупънЕйАй“, за да се опита да ги накара да се съгласят с това, което „Антропик“ отказа ... Те се опитват да разделят всяка компания от страх, че другата ще се поддаде“, се казва в писмото.
За да поразят 1000 цели през първите 24 часа от атаката си срещу Иран, американските военни използваха най-модерния изкуствен интелект, използван някога във войната - инструмент, от който Пентагонът би могъл да се откаже трудно, дори след като прекъсне връзките си с компанията, която го е създала, информира "Вашингтон пост".
Военната система „Мейвън Смарт Систем“ (Maven Smart System), създадена от компанията за извличане на данни „Палантир“ (Palantir), генерира информация от изумително количество класифицирани данни от спътници, наблюдение и друга разузнавателна информация, помагайки за осигуряване на насочване в реално време и приоритизиране на целите за военни операции в Иран. В системата, обаче, е вграден ИИ инструментът „Клод“.
През последната година военните стратези са свидетели как „Клод“, съчетан с „Мейвън“, се е превърнал в инструмент, който се използва ежедневно в повечето части на армията, споделят източници на американското издание.
Докато планирането на потенциален удар в Иран е било в ход, „Мейвън“, задвижван от „Клод“, е предложил стотици цели, издал е точни координати за местоположение и е приоритизирал тези цели според важността им. Сдвояването на „Мейвън“ и „Клод“ е създало инструмент, който ускорява темпото на кампанията, намалява способността на Иран да контраатакува и превръща седмичното планиране на битки в операции в реално време, каза един от източниците. Инструментите с изкуствен интелект също така оценяват удара, след като е започнат.
„Клод“ е бил използван и в противодействието на терористични заговори и при акцията, при която бе заловен венецуелският президент Николас Мадуро. Но това е първият път, когато е използван в големи военни операции.
Военните командири са станали толкова зависими от системата с ИИ, че ако Амодей нареди на военните да прекратят използването му, администрацията на Тръмп ще се позове на правителствените правомощия, за да запази технологията, дотолкова, колкото тя не може да бъде заменена.
„Независимо дали моралът му е правилен или грешен, няма да позволим вземането на решения [на Амодей] да струва нито един американски живот“, казват от Пентагона.
Използването на усъвършенстван генеративен изкуствен интелект в кампанията в Иран идва в момент на ожесточен дебат относно етиката и скоростта на използване на подобни инструменти във войната.
„Забележително е, че вече сме в точката, в която ИИ е преминал от хипотетичен етап, към подкрепа на реални операции, провеждани днес“, каза Пол Шаре, изпълнителен вицепрезидент на мозъчния тръст Център за нова американска сигурност, експерт по използването на ИИ за целите на войната.
„Ключовата промяна в парадигмата е, че ИИ позволява на американските военни да разработват планове, за да насочват ударите със скоростта на машината, а не с човешка скорост“, посочва Шаре.
Недостатъците, казва той, са, че ИИ греши.
„Имаме нужда от хора, за да проверяваме резултатите от генеративния изкуствен интелект, когато залозите са живот и смърт“, подчертава експертът.
Пентагонът започна да интегрира чатбота „Клод“ в „Мейвън“ в края на 2024 г., според публичните съобщения. Системата е използвана за генериране на предложени цели, за проследяване на логистиката и предоставяне на обобщения на разузнавателна информация, постъпваща от мястото на сражението. Администрацията на Тръмп значително разшири използването на „Мейвън“ в много други части на армията, като към май миналата година над 20 000 военни са го използвали.
Военачалниците, които сега наблюдават кампанията в Иран, са зависими от използването на „Мейвън“, тъй като са използвали по-ранни версии на системата при изтеглянето на САЩ от Афганистан през 2021 г. и в подкрепа на Израел след терористичните атаки на 7 октомври 2023 г., според изявление на контраадмирал Лиъм Хюлин от Военноморските сили на САЩ през 2024 г.
Хюлин, сега заместник-директор по операциите в Централното командване, отбеляза тогава, че системата е извличала информация от 179 източника на данни.
В по-широк контекст битката между военните и индустрията за изкуствения интелект едва сега започва, пише Си Ен Би Си (CNBC) в подробна публикация относно евентуален разрив между публично-частното партньорство, що се отнася до военните технологии.
Пентагонът се сблъсква с частните компании, които контролират изкуствения интелект, по начин, който не е тестван в ерата след Втората световна война. В края на февруари „Антропик“ отказа искането на Хегсет да разхлаби определени предпазни мерки за своите модели за военна употреба, включително масово вътрешно наблюдение или напълно автономни оръжия, тъй като това нарушава политиките на компанията. Пентагонът обаче смята, че технологията трябва да бъде достъпна за поддръжка на всички законни приложения.
Противостоянието подчерта възникващата реалност, че частни компании, разработващи граничен изкуствен интелект, може да се стремят да определят свои собствени ограничения върху начина, по който технологията се използва, дори в контекста на националната сигурност.
През юли Министерството на отбраната възложи договори на стойност до 200 милиона долара на четири компании – „Антропик“, „ОупънЕйАй“, „Гугъл ДийпМайнд“ (Google DeepMind) и „ЕксЕйАй“ (xAI) на Илон Мъск – за прототипиране на гранични възможности за ИИ, обвързани с приоритетите на националната сигурност на САЩ. Това показва колко агресивно се движи Пентагонът, за да внедри авангарден ИИ, ползван от бизнеса, в отбранителните дейности.
Спешността се отразява и във вътрешното планиране на Пентагона. Меморандум от 9 януари, очертаващ стратегията на военните за ИИ, призовава САЩ да се превърнат в сила „първо с изкуствен интелект“ и да ускорят интеграцията на водещи бизнес модели на ИИ във военните действия, разузнаването и корпоративните операции.
Трябва да се отбележи съществена промяна – отклонение от десетилетия на отбранителни иновации, през които самите правителства контролираха технологията, в процеса на нейното създаване, подчертава Лорън Кан, старши изследователски анализатор в Центъра за сигурност и нововъзникващи технологии в Джорджтаун, в интервю за Си Ен Би Си относно противопоставянето между Пентагона и „Антропик“.
„През по-голямата част от периода след Втората световна война правителството на САЩ определяше границата на напредналите технологии“, каза контраадмирал Лорин Селби, бивш началник на военноморските изследвания и настоящ генерален партньор в „Маре Либерум“ (Mare Liberum), инвестиционна фирма, специализирана в морски технологии и инфраструктура.
„Правителството определяше изискванията, финансираше фундаменталните изследвания, а индустрията ги изпълняваше според правителствените специфики. От ядрено задвижване до стелт и Джи Пи Ес, държавата беше основният двигател на откритията, а индустрията беше интеграторът и производителят“, посочва той.
Изкуственият интелект обърна този модел, смята Селби.
„Днес търговският сектор е основният двигател на граничните възможности. Частният капитал, глобалната конкуренция и мащабът на търговските данни развиват ИИ с темпове, които традиционните правителствени структури за научноизследователска и развойна дейност не могат лесно да възпроизведат. Военното министерство вече не определя границата на това, което е технически възможно в областта на ИИ – то се адаптира към тях“, обясни той.
Това обръщане на баланса на силите над технологиите носи както възможности, така и рискове, подчерта Селби.
„Не бива да се поставяме в ситуация, в която частните компании чувстват, че имат влияние над правителството на САЩ или западните съюзници заради технологичния капацитет, който предоставят“, каза Джо Шайдлър, специален съветник в Белия дом и съосновател и главен изпълнителен директор на стартъпа за изкуствен интелект „Хелиос“ (Helios).
„Технолозите трябва да изграждат и правят това отговорно, но правителствата трябва да бъдат субектите, които вземат решенията“, смята той.
Защо военните се нуждаят от частен изкуствен интелект?
Публично-частните партньорства отдавна подкрепят иновациите в отбраната на САЩ, от индустриалната мобилизация по време на Втората световна война до съвременните аерокосмически програми и програми за киберсигурност. Но ИИ е различен, защото най-модерните възможности са все по-концентрирани в частни компании, а не в държавни лаборатории.
„Силните публично-частни партньорства са това, което дава предимство на Америка“, каза Шайдлър.
„Няма да намерите по-динамична и иновативна среда от тази на американската предприемаческа общност. Идеята да се опитаме да възпроизведем това ниво на иновации в самото правителство... е трудна“, подчерта той.
Тази концентрация е именно причината правителствата да търсят партньорства, но според Селби зависимостта се дължи предимно на скоростта.
„Иновационният цикъл в рисковите компании се движи с месеци. Традиционните цикли на придобиване се движат с години. Без частни доставчици на изкуствен интелект правителството би било по-бавно, по-малко адаптивно и много по-скъпо“, каза той.
„Когато критични инструменти за национална сигурност се разработват от частни компании, основната промяна е, че правителството вече не контролира напълно разработването на най-модерните си технологични инструменти“, каза Бетси Купър, директор на Академията за политика „Аспен“ и бивш консултант на Министерството на вътрешната сигурност на САЩ.
Търговските системи с ИИ обикновено се изграждат първо за широки пазари, а не за военни мисии, което може да създаде разминавания между начина, по който компаниите проектират своите технологии, и начина, по който правителствата искат да ги внедрят, каза Купър. Това несъответствие може да стане по-изразено, когато корпоративните политики, опасенията за репутацията или глобалният натиск от страна на клиентите противоречат на целите на правителството, динамика, която сега се вижда в спора с „Антропик“.
„Компаниите може да не искат да рискуват негативна реакция от страна на клиентската си база, ако продуктът им се използва за противоречиви цели – например за създаване на автономни оръжия или за извършване на превантивни убийства, преди да бъдат извършени престъпления“, каза Купър.
Правителствата запазват своите прерогативи
Въпреки прехода, малко вероятно е лидерите в отбраната да се откажат от контрола върху критично важните системи.
„Първото нещо, което трябва да се разбере, е, че от това, което съм виждал досега, Министерството на отбраната няма да се откаже от окончателния контрол“, каза Брад Харисън, основател на „Скаут Венчърс“ (Scout Ventures), компания за рисков капитал в ранен етап, инвестираща на пресечната точка на националната сигурност и критичните технологични иновации.
„Правителството все още иска да разбере всичко, което е свързано с това, и всички зависимости и рискове“, заяви той.
Според Харисън, бивш въздушен десантчик на американската армия, завършил „Уест Пойнт“, ИИ би могъл евентуално да повлияе на решения като например как да се пресекат входящите заплахи, така че „правителството ще бъде изключително предпазливо с това как позволява на изкуствения интелект да взаимодейства с тези слоеве данни".
„Никой не иска да бъде човекът, отговорен за „Скайнет“, каза той, визирайки измислен изкуствен интелект от вселената на „Терминатор“, който е причинил ядрен апокалипсис.
Правителствата също така запазват мощни инструменти за влияние върху компаниите, включително решения за обществени поръчки, контрол върху износа и регулаторни правомощия. „Правителството има много лостове за влияние“, каза Харисън. „Ако не искате да работите с тях, те имат много начини да направят вашето решение много трудно“, добави той.
Но лостовете са двупосочни поне засега, смята Селби. „В краткосрочен план компаниите с оскъдни таланти в областта на ИИ и собствени модели могат да имат значително влияние. В дългосрочен план суверенните правителства запазват регулаторни правомощия, правомощия за сключване на договори, мащаб на финансиране и, ако е необходимо, правна принуда“, каза той.
Най-важният въпрос, според Селби, е „дали изграждаме трайно публично-частно споразумение, което третира ИИ като фундаментална инфраструктура за национална сигурност, а не просто като поредна връзка с доставчик“.
Рискове в новия военно-индустриален комплекс в Силициевата долина
Експертите казват, че проблемът в крайна сметка е по-малко в това дали компаниите или правителствата имат постоянно влияние, а повече в това как се развиват отношенията, тъй като ИИ става централен за мощта на държавата.
„Ако вградим съгласуваност и устойчивост в публично-частните отношения, ИИ може да засили националната сигурност, като същевременно запази иновациите“, каза Селби.
„Ако не успеем да го направим, рискуваме бъдеще, в което капацитетът е изобилен, но съгласуваността е крехка“, добави той.
Има много нови форми на риск в развиващия се военно-промишлен комплекс в Силициевата долина. Например, разчитането на външно разработен ИИ може да въведе уязвимости, ако системите се повредят неочаквано или станат недостъпни, особено ако военните свикнат с тях по време на операции.
„Прекомерното разчитане [на външен ИИ] може да се окаже смъртоносно“, каза Шанка Джаясинха, основател на „Онту ЕйАй“ (Onto AI), компания, която разработва инструменти за ИИ за военни, здравни, финансови организации и корпоративни решения, описвайки сценарии, при които специалните оперативни части зависят от инструменти, подобрени с ИИ.
Ако тези системи се повредят след продължителна употреба, „много животи биха били в опасност“, каза той. Обвързаността с доставчик е друг проблем. Тъй като платформите с ИИ се вграждат в работните процеси, замяната им може да стане трудна. „С настоящата скорост на напредък е трудно да се свали който и да е основен доставчик на ИИ“, каза Джаясинха.
Харисън обаче казва, че рискът, на който Пентагонът няма да се изложи, е да бъде пленник на една-единствена компания. „Правителството на САЩ няма да зависи от нито една компания от Силициевата долина“, каза той.
„Те ще тестват системи много методично, ще контролират слоя данни и ще действат стъпка по стъпка“, посочи Джаясинха.