Печалбите за третото тримесечие на 2025 г. предизвикаха ново увеличение на прогнозите за капиталовите разходи за големите компании, които имат размера и ресурсите за внедряване на ИИ инфраструктура в голям мащаб. Консенсусната оценка сред анализаторите от Уолстрийт за капиталовите разходи за 2026 г. вече е 527 милиарда щатски долара, в сравнение с 465 милиарда в началото на сезона на отчетите за третото тримесечие, продължавайки възходящата тенденция.
Дали колосалните инвестиции не представляват просто огромен финансов балон? Този въпрос задава Си Ен Би Си (CNBC). Това е и дебатът, който доминираше технологичната индустрия през 2025 г. и той няма да изчезне скоро.
Рекордни оценки и сделки, водени от големи инвестиции в ИИ, подхраниха бума, оставяйки някои да се подготвят за потенциалния „взрив“.
Лидери в областта на изкуствения интелект като „ОупънЕйАй“ (OpenAI) и „Енвидиа“ (Nvidia) сключиха впечатляващи сделки с компании за облачна инфраструктура, докато хиперскалиращи компании, включително „Амазон“ (Amazon), „Майкрософт“ (Мicrosoft) и „Гугъл“ (Google) продължават да харчат милиарди за изграждане на центрове за данни.
Въпреки че компаниите се надпреварват да задоволят бързо нарастващото търсене на ИИ, огромното дългово финансиране за неговото изграждане предизвика опасения, че разточителството може да се окаже прекаляване.
Икономическите балони възникват, когато цените на активите на определен пазар бързо се покачват, често поради спекулации или свръх ентусиазъм, последвани от срив, когато цените внезапно падат.
Разговорите за „балон“ се разпалиха отново в края на миналата година, след като главният изпълнителен директор на „Енвидиа“, Йенсен Хуанг, отхвърли опасенията от евентуален срив на ИИ по време на обявяването на приходите на компанията за третото тримесечие.
„Много се говори за балон от изкуствен интелект ... От наша гледна точка виждаме нещо много различно“, посочи той.
Други са по-малко уверени в стабилността на бума на ИИ, включително инвеститорът и хедж фонд мениджър Майкъл Бъри.
Бъри, който стана известен с прогнозирането на жилищната криза в САЩ през 2008 г., направи паралели между настоящата еуфория на разходите и дот-ком манията от края на 90-те години в дълго есе за онлайн платформата „Събстак“ (Substack).
„Понякога виждаме, че има „балон“, написа Бъри в публикация в „Екс“. „Понякога няма нещо, което може да се направи по въпроса. Единственият печеливш ход е да не се играе“, смята той.
Изпълнителният директор на „ОупънЕйАй“ Сам Олтман направи подобно сравнение по време на вечеря с репортери. „Намираме ли се във фаза, в която инвеститорите са прекалено развълнувани от ИИ? Моето мнение е „да“. Дали ИИ е най-важното нещо, което ще се случи от много дълго време? Моето мнение също е „да“, заяви той.
Кои са тенденциите в изкуствения интелект (ИИ), които предстоят през 2026 г.? „Евронюз“ (Euronews) разглежда възхода на световните модели и моделите на малки езици като алтернативи на традиционните чатботове, с нарастващи опасения относно безопасността, регулирането и устойчивостта на настоящия бум на ИИ.
Mрачното настроение на някои експерти и хора от бизнеса не спря технологичните компании да засилят присъствието си пазара с пускането на нови модели на ИИ. Новият модел „Джеминай 3“ (Gemini 3) на „Гугъл“ подтикна „ОупънЕйАй“ да побърза да подобри спешно своя „ДжиПиТи-5“ (GPT-5) модел.
Но тъй като чатботовете са толкова добри, колкото са данните, върху които са обучени, а някои от лидерите в областта предупреждават, че сме достигнали „пик на данните“, през 2026 г. може да се появи друг вид ИИ на фона на умората.
Възходът на световните модели
Предупреждението за пик на данните за 2026 г. няма нищо общо с недостига на данни. Има много неизползвани данни, казват експертите, но е трудно да се получи достъп до тях по много причини, като например софтуера, на който се съхраняват, регулациите или авторските права.
Тук биха могли да се намесят световните модели, които работят като се учат да „гледат“ видеоклипове или използват симулационни данни и други пространствени входни данни, а след това изграждат свои собствени представяния на сцени или обекти.
Разбира се, те изискват много данни, върху които да се обучават, но имат различни случаи на употреба от чатботовете.
Казано по-просто, вместо да предсказват следващата дума, което правят големите езикови модели (LLM), те предсказват какво ще се случи и моделират как нещата се движат с течение на времето.
Те могат да се разглеждат и като „цифрови близнаци“, където се създава цифрово копие на място, използвайки данни в реално време, и симулациите могат да се разиграят, за да предскажат какво може да се случи там.
Това означава, че световните модели биха могли да създадат система с изкуствен интелект, която може да разбира гравитацията и причинно-следствените връзки, без да е необходимо LLM да бъдат програмирани върху нея.
Тъй като хората се отегчават от „плявата“, когато ИИ генерира много голямо, но нискокачествено съдържание, както и от ограниченията на LLM, световните модели биха могли да станат по-популярни през 2026 г., тъй като те са ключови за създаването на изкуствен интелект за всичко - от роботика до видеоигри.
Главният изпълнителен директор на “Бостън Дайнамикс“ (Boston Dynamics) Робърт Плейтър заяви пред „Евронюз Некст“ (Euronews Next), раздел на информационния канал, посветен на иновации, че изкуственият интелект е помогнал на техните роботи да се развият, включително известното им куче робот.
„Все още има огромно количество работа за вършене, но нищо от това не би било възможно без изкуствен интелект. И така, това е наистина вълнуващо време“, каза Плейтър.
Компаниите вече се възползват от шумотевицата около световните модели, като „Гугъл“ и „Мета“ обявиха свои собствени версии за роботика и за да направят видео моделите си по-реалистични.
Големи имена също навлизат в пространството, включително един от така наречените кръстници на изкуствения интелект, Ян Лекюн, който обяви през 2025 г., че ще напусне „Мета“, за да започне свой собствен стартъп за световни модели. Компанията на Фей-Фей Ли, „Уърлд Лабс“ (World Labs), също обяви първата си версия – „Марбъл“ (Marble), през 2025 г.
Китайски технологични компании като „Тенсент“ (Tencent) също разработват свои собствени световни модели.
Пътят на изкуствения интелект в Европа
В Европа бихме могли да видим обратното – вместо ИИ да излезе на голямата световна сцена, той може да стане по-малък.
Моделите с малки езици, а не LLM, използвани от американските технологични компании, започнаха да стават тренд в Европа.
Въпреки името си, моделите с малки езици са впечатляващи. Те са олекотени версии на LLM, предназначени за работа със смартфони или компютри с ниска мощност. Въпреки че използват по-малко параметри и са по-малко енергоемки, те запазват големите възможности за генериране на текст, обобщаване, отговаряне на въпроси и превод.
По-малките езикови модели може също да са по-привлекателни при разговорите за спукването на балона на ИИ от икономическа гледна точка.
„Следващата година съмненията относно финансовата устойчивост и социално-икономическите ползи от днешния мащабен бум на ИИ ще продължат да нарастват, дори ако балонът не се спука напълно“, каза Макс фон Тюн, директор за Европа и трансатлантическите партньорства в Института за отворени пазари.
Според него правителствата ще стават все по-предпазливи по отношение на разчитането на американския изкуствен интелект и облачна инфраструктура, поради „ясните намерения на правителството на САЩ да използва технологичните зависимости като оръжие за политическа изгода“.
Това от своя страна може да означава, че Европа ще „ускори усилията за изграждане на местни възможности, като същевременно ще проучи подходи към ИИ, по-подходящи за нейните силни страни, като например по-малки и по-устойчиви модели, обучени върху висококачествени публични данни и данни от отделните индустрии“, каза той.
По-мощни модели
Изминалата година беше белязана от тревожни разговори за психоза, свързана с изкуствения интелект, при която потребителите формират заблуди или обсесивни привързаности към чатботове. През август беше заведено дело срещу „ОупънЕйАй“, в което се твърди, че „ЧатДжиПиТи“ е „треньор по самоубийство“, който е насърчил 16-годишен младеж да се самоубие.
По-късно компанията отрече обвиненията и заяви в отговор, че тийнейджърът не е трябвало да използва технологията без родителско съгласие и не е трябвало да заобикаля защитните мерки на приложението.
Случаят повдига сериозни въпроси относно ефектите на чатботовете върху уязвимите потребители и етичните отговорности на технологичните компании. Настоящата година може да донесе още повече вреда на потребителите, тъй като тези модели стават по-мощни.
Инженерите, които проектират тези системи, вероятно не са програмирали технологията да навреди на уязвими деца или възрастни, каза Макс Тагмарк, професор от Масъчузетския технологичен университет и президент на неправителствената организация Институт за бъдещето на живота (FLI).
„Те може дори да не са знаели, че това се случва“, каза той пред „Евронюз Некст“ (Euronews Next).
Това е обезпокоително, особено след като машините стават все по-мощни с по-усъвършенстван софтуер и код, каза той, добавяйки, че очаква по-мощен изкуствен интелект през 2026 г., който би могъл да доведе и до подобряване на агентите с ИИ, които да станат по-малко пасивни и по-скоро да действат като биологична система.
Агентите с изкуствен интелект са проектирани да предприемат автономни действия, за да помагат на хората, и не изискват човек да им казва какво да правят, тъй като събират данни въз основа на предпочитанията на потребителите. В момента те не са толкова напреднали, но обещанието е, че един ден биха могли да бъдат.
Например, с ИИ вече може да се планира и предложи почивка, но човек все пак ще трябва да кликне, за да закупи полета.
Обществен сблъсък заради неограничен изкуствен интелект
През 2026 г. може да има и сблъсъци между хора заради изкуствен интелект, заяви Тегмарк, посочвайки, че в САЩ има нарастваща съпротива срещу разгръщането на ИИ без регулация.
Регулирането в Съединените щати, където е базирана Тегмарк, отслабва. През ноември президентът Доналд Тръмп подписа изпълнителна заповед, целяща да блокира отделните щати от създаването на собствени правила за ИИ, което вероятно ще има големи последици за развитието на технологията през 2026 г.
Тръмп обоснова решението си, твърдейки, че индустрията е изложена на риск да бъде задушена от множество обременяващи правила, докато се бори с китайските конкуренти за лидерство в технологиите.
През октомври хиляди публични личности, включително лидери в областта на технологиите, призоваха компаниите, разработващи ИИ да забавят стремежа си към суперинтелект, широко дефиниран като изкуствен интелект, който надминава човешките когнитивни възможности.
Петицията, организирана от FLI, събра подписи от целия политически спектър, включително бившия главен стратег на Тръмп Стив Банън, бившата съветничка по националната сигурност на САЩ при Барак Обама Сюзън Райс, религиозни лидери и видни учени.
Тегмарк заяви, че тази анкета показва, че „в САЩ хората се обръщат срещу изкуствения интелект“. Според него една от причините за негативната реакция е, че суперинтелектът би „направил всеки работник неспособен да си изкарва прехраната“.
Но той предупреди, че умората и антиинтелектуалните настроения биха могли да забавят напредъка, който технологията обещава за индустрии като здравеопазването. „Ако няма регулация, добрият изкуствен интелект ще бъде пропуснат, защото може просто да се сблъскаме с голяма технологична атака“, каза той.
„През следващата година очаквам много по-широко обществено движение в целия политически спектър, което ще настоява срещу корпоративното благосъстояние, за да се въведат стандарти за безопасност за ИИ, и ще има масивен лобистки натиск срещу това“, прогнозира ученият. „Ще бъде доста ожесточен сблъсък“, смята Тегмарк.
През 2026 г. ИИ вече няма да се ограничава до политически документи и експертни панели, пише „Форбс“. Той ще се превърне във видим политически въпрос по време на междинните избори и подготовката за президентската надпревара през 2028 година. Въздействието върху пазара на труда ще доминира в обществения наратив. Тревогата от автоматизацията, страховете от изместване на работни места и поляризацията на уменията вече се пресичат с признаци на по-уязвим пазар на труда.
В същото време лобистките усилия около политиката за ИИ се засилват. Разходите на технологичните фирми и индустриалните коалиции оформят дебатите относно отговорността, прозрачността и федералното законодателство.
Конгресът на САЩ ще се изправи пред нарастващ натиск да действа до лятото на 2026 г., тъй като замяната на работни места в областта на ИИ се превръща в първостепенен въпрос на кампанията в щати от „ръждивия пояс“ като Мичиган и Пенсилвания. Прозрачността на ИИ в законодателството на Калифорния ще служи или като шаблон, или като поучителен пример.
Президентската администрация вече е предприела действия и нейната изпълнителна заповед от декември 2025 г. създаде работна група за съдебни спорове за ИИ към Министерството на правосъдието, нареди на Министерството на търговията да идентифицира обременяващи щатски закони и инструктира федералните агенции да откажат финансиране от щати с неблагоприятни регулации.
Заповедта също така насочва разработването на федерално законодателство, което би предотвратило противоречиви щатски закони.