Когато кодът не стига: защо AI обърква голяма част от IT общността
В последните години изкуственият интелект навлезе шумно във всяка технологична ниша. Модели, които генерират текст, анализират данни, разпознават образи и вземат решения, бяха интегрирани в продукти със скорост, с която IT индустрията рядко е виждала. И въпреки това парадоксът е очевиден: голяма част от хората, които професионално работят в технологичния сектор, не разбират как функционира AI на концептуално ниво. Те го използват, интегрират и автоматизират, но често не го разбират.
Цифрите също говорят: въпреки че все повече фирми по света заявяват, че внедряват инструменти с изкуствен интелект, множество проучвания показват, че реалните ползи често остават минимални или несъществени. Едно скорошно изследване (лято 2025г.) на MIT установи, че приблизително 95 % от пилотните проекти с генеративен AI не носят измерима възвръщаемост на инвестициите, дори след значителни разходи и интеграции в големи корпорации — което означава, че много компании инвестират в AI, без това да се отразява съществено на бизнес резултатите им.
Това наблюдение звучи провокативно, дори обидно. Истината обаче е, че проблемът не е в способностите на IT специалистите, а в историческия и културния контекст, в който е изградена тяхната професия.
Класическото IT се ражда от нуждата от контрол. Още от първите компютри през 50-те години - ENIAC и UNIVAC - основната идея е проста: машина, която изпълнява ясно зададени инструкции. Програмата е закон, а компютърът - верен изпълнител. Тази философия се запазва десетилетия наред. Алгоритмите следват ясен вход и предвидим изход. Ако нещо се счупи, то може да бъде debug-нато. Грешката има адрес, ред код и конкретна причина. Изкуственият интелект разрушава именно тази парадигма.
Съвременният AI, особено машинното обучение и големите езикови модели, не работи по логиката „ако - тогава“, която е в основата на класическото програмиране. Той не следва строги логически правила, а изгражда модели на свят чрез вероятности, разпределения и статистически зависимости. Вместо да „знае“ нещо в смисъла на формална истина, AI оценява колко вероятно е дадено твърдение, отговор или действие да бъде подходящо в конкретен контекст. Това е фундаментално различен начин на мислене, който заменя логическата сигурност със степен на увереност.
Този подход далеч не е нов. Още през XVIII век Пиер-Симон Лаплас развива революционната идея, че човешкото познание за света е по същността си вероятностно. Според него увереността ни в дадено твърдение не следва да се изразява категорично, а чрез вероятности - инструмент, който компенсира несигурността, породена от непълната ни информация.
В прочутия си мисловен експеримент за „демона на Лаплас“ той представя детерминизма като теоретичен идеал: хипотетично същество, способно да предскаже бъдещето с абсолютна точност, ако познава всички закони на природата и начални условия на Вселената. Днес тази идея намира паралели в съвременните AI технологии, които се стремят да моделират и предсказват сложни системи. Въпреки това, както Лаплас подчертава, за хората - и дори за най-съвършените алгоритми - реалният свят винаги остава подложен на несигурност поради непълни данни, шум и фундаментална сложност.
През XIX век тази идея започва да намира практическо приложение чрез развитието на статистиката, която постепенно се превръща в инструмент за разбиране на сложни социални, икономически и биологични процеси. Вместо да търси универсални закони от типа „причина - следствие“, статистиката се научава да работи с тенденции, отклонения и модели на вероятност. Тя приема, че индивидуалните случаи често са непредвидими, но колективното поведение може да бъде описано и анализирано с висока степен на точност.
IT като професия обаче се развива по различна траектория. В продължение на десетилетия тя е изградена върху идеята за пълен контрол, формална коректност и детерминистично поведение на системите. Вероятността, статистическата несигурност и интерпретацията на резултати остават в периферията, възприемани като нещо „неточно“ или „ненаучно“ в сравнение със строгата логика на кода. Именно затова, когато AI навлиза в IT света, той изглежда чужд, непредсказуем и дори подозрителен. Не защото е принципно неразбираем, а защото изисква интелектуална рамка, която дълго време е била извън културата на класическия софтуерен инженеринг.
Затова днес виждаме програмисти, които се объркват от факта, че един и същ prompt може да даде различни отговори, че моделът „греши“, без да има очевидна грешка, и че няма ясен начин проблемът да бъде „оправен“ с код. За човек, възпитан в строга логика, това изглежда като дефект. В действителност това е естественото поведение на вероятностна система.
Това не е първият път, когато инженери и практици се изправят пред промяна, която подкопава установените им професионални интуиции. В края на XIX век, с навлизането на статистиката в медицината, възниква сериозна съпротива от страна на голяма част от лекарската общност. Медицината дотогава се основава предимно на индивидуалния клиничен опит, на авторитета на утвърдени фигури и на внимателното наблюдение на отделния пациент. Статистическият подход, който работи с големи масиви от данни и търси закономерности на ниво популация, изглежда студен, редукционистки и откъснат от реалната клинична практика.
Много лекари възприемат „абстрактните числа“ като нещо, което не може да улови сложността на човешкото тяло и уникалността на всеки отделен случай. Те се опасяват, че статистиката ще подмени професионалната преценка с механични изчисления и ще превърне медицината в безлична дисциплина.
В този контекст съпротивата не е ирационална, а дълбоко човешка: тя защитава натрупания опит и идентичността на професията срещу инструмент, който променя самото разбиране за това какво означава „добро решение“.
С времето обаче става ясно, че статистиката не елиминира клиничния опит, а го допълва и дисциплинира. Тя позволява да се разграничат действителните лечебни ефекти от случайните съвпадения, да се оцени ефективността на терапии върху големи групи пациенти и да се намали влиянието на когнитивните изкривявания, на които индивидуалната преценка неизбежно е подложена. Постепенно статистическото мислене се превръща в основа на доказателствената медицина, без която съвременната клинична практика е немислима.
Тази историческа трансформация показва, че конфликтът между интуиция и вероятност не е сблъсък между „човешко“ и „нечовешко“, а между два различни начина за управление на несигурността. Подобен процес се разиграва в IT сферата с навлизането на AI. Както медицината някога е трябвало да приеме, че решенията могат да бъдат по-добри, дори когато не са абсолютно сигурни, така и IT специалистите са изправени пред необходимостта да приемет системи, които не обещават пълен контрол, а по-висока вероятност за правилно поведение.
Допълнителен проблем е липсата на математическа подготовка. Голяма част от IT специалистите нямат сериозни познания по линейна алгебра, теория на вероятностите и статистическо моделиране. Това не е упрек, а факт. В много кариерни пътища тези знания не са необходими. Един backend инженер може да изгражда стабилни системи десетилетия наред, без никога да се сблъска с covariance matrix или с trade-off-а между bias и variance.
Но без тези концепции AI остава „черна кутия“. Затова често виждаме проекти, в които моделът е обучен, но никой не разбира защо се държи по определен начин, данните са шумни, но това не се отчита, а резултатите се приемат без критична интерпретация.
Една от най-разпространените заблуди е, че AI е просто още едно API. „Дай ми endpoint-а и ще го вържа.“ Истината е, че AI е процес, а не функция. Той започва с формулиране на проблем, преминава през подбор и почистване на данни, обучение, оценка и интерпретация. Кодът е само малка част от цялата система.
Това напомня ранните дни на базите данни. Първоначално те са възприемани просто като място за съхранение. По-късно става ясно, че моделът на данните определя всичко. При AI данните са логиката.
Много IT специалисти реагират на това с цинизъм. „Hype е. Всичко е wrapper около няколко модела.“ Тази реакция е разбираема. Индустрията е преживяла множество hype вълни - от blockchain, NFT до IoT и мета вселени. Но AI е различен по една ключова причина: той замества когнитивни процеси, а не просто оптимизира технически такива.
Аналогията с печатната преса е показателна. В началото тя е възприемана като по-бърз начин за копиране на текст. В дългосрочен план обаче променя обществото, знанието и властта.
Парадоксално е, но често най-доброто концептуално разбиране за AI идва от хора, които по професия работят с несигурна информация, непълни данни, интерпретация и контекст. Историци, анализатори, лингвисти и OSINT изследователи отдавна живеят в свят, в който няма един „правилен отговор“, а има по-добра или по-слаба интерпретация.
В този смисъл AI е по-близо до хуманитарните науки, отколкото до класическия софтуерен инженеринг.
Не, IT специалистите не са неспособни да разберат AI. Но класическото IT образование не ги е подготвило за него. AI изисква комфорт с несигурността, статистическо мислене и интердисциплинарен подход. Това е културна, а не чисто техническа промяна.
И както всяка голяма трансформация в историята на знанието, тя първо поражда неразбиране. След това създава нови професии. И накрая се превръща в нова нормалност.
А ние в момента сме точно по средата.
П.С
В моя кръг от познати преобладават три професионални групи: журналисти, рекламисти и софтуерни инженери. Забелязах, че когато се говори за политика, единствените, които не прибягват до социологически проучвания като аргумент, са именно софтуерните инженери :)
