Краят на мащаба заради самия мащаб – и началото на реалния AI
В историята на всяка технологична революция настъпва момент, в който ентусиазмът по „повече, по-голямо, по-бързо" отстъпва място на по-тихо, но далеч по-смислено питане: работи ли това нещо наистина?
Изкуственият интелект изглежда е достигнал именно този праг. След години, в които водещи компании инвестираха милиарди в обучението на все по-големи езикови модели, най-после започваме да се питаме: ами ако размерът не е всичко?
Допреди шест месеца пейзажът на изкуствения интелект напомняше състезание по тежка атлетика: най-големият трениран модел печели. Google, OpenAI, Meta, Baidu – всички се впуснаха в надпревара да обучат модели с трилиони параметри. Но когато китайската DeepSeek пусна сравнително лек модел – с 671 милиарда параметъра вместо няколко трилиона – който се конкурира с гигантите по производителност при цена от $2.19 на милион токена спрямо $15 при GPT-4, нещо се промени.
Microsoft бързо интегрира DeepSeek R1 в Azure AI Foundry. Alibaba обяви собствен „компактен" модел. Дори Meta призна, че работи върху по-ефективна архитектура. Посланието беше ясно: може би не е нужно да обучаваш модел върху целия интернет, за да постигнеш резултат.
Цената на единична задача с ИИ може да спада, но общите разходи продължават да растат. Защо? Защото когато нещо стане по-достъпно, започваме да го използваме повече. Много повече.
Klarna обработва 2.3 милиона разговора месечно с ИИ чатбот, еквивалент на работата на 700 служители. Но същевременно компанията признава, че първоначалните разходи за интеграция, обучение и поддръжка надхвърлиха $40 милиона. Инвестиционната банка Morgan Stanley използва GPT-4 за анализ на финансови документи – задача, която чисто технически може да се свърши с модел десет пъти по-малък и стотици пъти по-евтин.
Големи езикови модели се използват за банални задачи като класифициране на имейли или извличане на дати от договори. Резултатът: изчислителна мощ на стойност хиляди долари за задача, която би струвала центове.
На сцената излизат така наречените малки езикови модели (SLM – Small Language Models). Те не блестят с броя параметри, но компенсират с целенасоченост.
Microsoft пусна Phi-3, модел с 3.8 милиарда параметъра, който се справя с медицински задачи наравно с модели 100 пъти по-големи. Google анонсира Gemma 2B за вграждане в мобилни устройства. Apple интегрира серия от специализирани модели в iOS 18 – всеки под 3 милиарда параметъра, всеки калибриран за конкретна задача: резюмиране на нотификации, генериране на Emoji, коригиране на текст.
Проектирани за конкретни бизнес функции и обучени върху специфични вътрешни данни, тези модели не се стремят да разбират света – стремят се да разберат вашата фактура или вашата складова наличност. И се справят впечатляващо.
Логистичната компания DHL внедри собствен SLM за оптимизация на маршрути, обучен изцяло върху исторически данни за доставки. Резултат: 12% намаление на разходите за гориво и способност за работа на локални сървъри в складове без интернет свързаност.
По-малкият им размер ги прави по-лесни за верификация, по-безопасни за внедряване и способни да работят на локални машини или в хибридна облачна среда. Но има и уловка: за да се възползвате от SLM, трябва да разполагате със зрели, структурирани и чисти данни.
Ако SLM е специализираният майстор, то ИИ агентът е системата, която координира множество задачи автономно. Той не просто отговаря на въпроси, а взема решения, инициира действия. Звучи вълнуващо – и е. Стига да не сбърка командата.
В близо една четвърт от случаите агентните системи се провалят. Salesforce съобщи, че техният Agentforce прави грешни промоционални оферти на 200,000 клиенти през първата седмица на пилотното внедряване – защото агентът интерпретира грешно правилата за отстъпки. Цената: $3 милиона в некоректни ценови корекции.
Chevron тества ИИ агент за управление на снабдяването с петрол. През април 2024 системата автоматично отмени сделка на стойност $12 милиона поради „аномалия в данните" – която всъщност беше легитимна флуктуация на пазара. Грешки, които поотделно изглеждат дребни, могат да се навържат в поредица от действия с реални финансови последици.
Докато Европейският съюз въвежда AI Act с глоби до 35 милиона евро или 7% от глобалния оборот, САЩ демонстрират федерален минимализъм. Резултатът? Организации, работещи в няколко юрисдикции, трябва да планират според регулаторна матрица.
Zoom обяви през март 2024, че ще предлага различни версии на своите ИИ функции за Европа и Северна Америка. Европейската версия няма достъп до определени видове анализ на разговори – не защото е технически невъзможно, а защото рискът от регулаторна санкция е твърде висок.
Airbnb блокира напълно функцията за автоматично ценообразуване с ИИ във Франция и Германия след консултации с юристи. В Калифорния същата функция работи без ограничения.
Бъдещето на изкуствения интелект няма да бъде определено от най-големия модел или най-шумната премиера. То ще бъде решено от това кой какво прави с този ИИ в реални условия.
Walmart внедри 1,500 специализирани ИИ модела в логистиката си – не един универсален гигант, а армия от специализирани алгоритми. Всеки решава конкретна задача: прогнозиране на търсене на продукти, оптимизация на зареждане на камиони, предотвратяване на кражби.
JP Morgan обучава 60,000 служители да работят с вътрешна ИИ платформа, основана на комбинация от големи и малки модели. Инвестицията: $2 милиарда годишно. Не в технология, а в инфраструктура, данни и хора.
Печелившите организации ще са онези, които изграждат инфраструктура, подготвят данните си, планират рисковете и интегрират ИИ в оперативната си същност – не като моден аксесоар, а като част от работния си процес.
