Когато кодът не стига: защо AI обърква голяма част от IT общността
НАЗАД

Когато кодът не стига: защо AI обърква голяма част от IT общността

(и защо това не е обида, а културен проблем)

a837de35-f331-44bc-9859-12de2e939da8
15 декември 2025 г.
AIРазмисли
8 мин. четене

В последните години изкуственият интелект навлезе шумно във всяка технологична ниша. Модели, които генерират текст, анализират данни, разпознават образи и вземат решения, бяха интегрирани в продукти със скорост, с която IT индустрията рядко е виждала. И въпреки това парадоксът е очевиден: голяма част от хората, които професионално работят в технологичния сектор, не разбират как функционира AI на концептуално ниво. Те го използват, интегрират и автоматизират, но често не го разбират.
Цифрите също говорят: въпреки че все повече фирми по света заявяват, че внедряват инструменти с изкуствен интелект, множество проучвания показват, че реалните ползи често остават минимални или несъществени. Едно скорошно изследване (лято 2025г.) на MIT установи, че приблизително 95 % от пилотните проекти с генеративен AI не носят измерима възвръщаемост на инвестициите, дори след значителни разходи и интеграции в големи корпорации — което означава, че много компании инвестират в AI, без това да се отразява съществено на бизнес резултатите им.

Това наблюдение звучи провокативно, дори обидно. Истината обаче е, че проблемът не е в способностите на IT специалистите, а в историческия и културния контекст, в който е изградена тяхната професия.

Класическото IT се ражда от нуждата от контрол. Още от първите компютри през 50-те години - ENIAC и UNIVAC - основната идея е проста: машина, която изпълнява ясно зададени инструкции. Програмата е закон, а компютърът - верен изпълнител. Тази философия се запазва десетилетия наред. Алгоритмите следват ясен вход и предвидим изход. Ако нещо се счупи, то може да бъде debug-нато. Грешката има адрес, ред код и конкретна причина. Изкуственият интелект разрушава именно тази парадигма.

Съвременният AI, особено машинното обучение и големите езикови модели, не работи по логиката „ако - тогава“, която е в основата на класическото програмиране. Той не следва строги логически правила, а изгражда модели на свят чрез вероятности, разпределения и статистически зависимости. Вместо да „знае“ нещо в смисъла на формална истина, AI оценява колко вероятно е дадено твърдение, отговор или действие да бъде подходящо в конкретен контекст. Това е фундаментално различен начин на мислене, който заменя логическата сигурност със степен на увереност.

Този подход далеч не е нов. Още през XVIII век Пиер-Симон Лаплас развива революционната идея, че човешкото познание за света е по същността си вероятностно. Според него увереността ни в дадено твърдение не следва да се изразява категорично, а чрез вероятности - инструмент, който компенсира несигурността, породена от непълната ни информация.
В прочутия си мисловен експеримент за „демона на Лаплас“ той представя детерминизма като теоретичен идеал: хипотетично същество, способно да предскаже бъдещето с абсолютна точност, ако познава всички закони на природата и начални условия на Вселената. Днес тази идея намира паралели в съвременните AI технологии, които се стремят да моделират и предсказват сложни системи. Въпреки това, както Лаплас подчертава, за хората - и дори за най-съвършените алгоритми - реалният свят винаги остава подложен на несигурност поради непълни данни, шум и фундаментална сложност.

През XIX век тази идея започва да намира практическо приложение чрез развитието на статистиката, която постепенно се превръща в инструмент за разбиране на сложни социални, икономически и биологични процеси. Вместо да търси универсални закони от типа „причина - следствие“, статистиката се научава да работи с тенденции, отклонения и модели на вероятност. Тя приема, че индивидуалните случаи често са непредвидими, но колективното поведение може да бъде описано и анализирано с висока степен на точност.

IT като професия обаче се развива по различна траектория. В продължение на десетилетия тя е изградена върху идеята за пълен контрол, формална коректност и детерминистично поведение на системите. Вероятността, статистическата несигурност и интерпретацията на резултати остават в периферията, възприемани като нещо „неточно“ или „ненаучно“ в сравнение със строгата логика на кода. Именно затова, когато AI навлиза в IT света, той изглежда чужд, непредсказуем и дори подозрителен. Не защото е принципно неразбираем, а защото изисква интелектуална рамка, която дълго време е била извън културата на класическия софтуерен инженеринг.
Затова днес виждаме програмисти, които се объркват от факта, че един и същ prompt може да даде различни отговори, че моделът „греши“, без да има очевидна грешка, и че няма ясен начин проблемът да бъде „оправен“ с код. За човек, възпитан в строга логика, това изглежда като дефект. В действителност това е естественото поведение на вероятностна система.

Това не е първият път, когато инженери и практици се изправят пред промяна, която подкопава установените им професионални интуиции. В края на XIX век, с навлизането на статистиката в медицината, възниква сериозна съпротива от страна на голяма част от лекарската общност. Медицината дотогава се основава предимно на индивидуалния клиничен опит, на авторитета на утвърдени фигури и на внимателното наблюдение на отделния пациент. Статистическият подход, който работи с големи масиви от данни и търси закономерности на ниво популация, изглежда студен, редукционистки и откъснат от реалната клинична практика.

Много лекари възприемат „абстрактните числа“ като нещо, което не може да улови сложността на човешкото тяло и уникалността на всеки отделен случай. Те се опасяват, че статистиката ще подмени професионалната преценка с механични изчисления и ще превърне медицината в безлична дисциплина.
В този контекст съпротивата не е ирационална, а дълбоко човешка: тя защитава натрупания опит и идентичността на професията срещу инструмент, който променя самото разбиране за това какво означава „добро решение“.

С времето обаче става ясно, че статистиката не елиминира клиничния опит, а го допълва и дисциплинира. Тя позволява да се разграничат действителните лечебни ефекти от случайните съвпадения, да се оцени ефективността на терапии върху големи групи пациенти и да се намали влиянието на когнитивните изкривявания, на които индивидуалната преценка неизбежно е подложена. Постепенно статистическото мислене се превръща в основа на доказателствената медицина, без която съвременната клинична практика е немислима.

Тази историческа трансформация показва, че конфликтът между интуиция и вероятност не е сблъсък между „човешко“ и „нечовешко“, а между два различни начина за управление на несигурността. Подобен процес се разиграва в IT сферата с навлизането на AI. Както медицината някога е трябвало да приеме, че решенията могат да бъдат по-добри, дори когато не са абсолютно сигурни, така и IT специалистите са изправени пред необходимостта да приемет системи, които не обещават пълен контрол, а по-висока вероятност за правилно поведение.

Допълнителен проблем е липсата на математическа подготовка. Голяма част от IT специалистите нямат сериозни познания по линейна алгебра, теория на вероятностите и статистическо моделиране. Това не е упрек, а факт. В много кариерни пътища тези знания не са необходими. Един backend инженер може да изгражда стабилни системи десетилетия наред, без никога да се сблъска с covariance matrix или с trade-off-а между bias и variance.
Но без тези концепции AI остава „черна кутия“. Затова често виждаме проекти, в които моделът е обучен, но никой не разбира защо се държи по определен начин, данните са шумни, но това не се отчита, а резултатите се приемат без критична интерпретация.

Една от най-разпространените заблуди е, че AI е просто още едно API. „Дай ми endpoint-а и ще го вържа.“ Истината е, че AI е процес, а не функция. Той започва с формулиране на проблем, преминава през подбор и почистване на данни, обучение, оценка и интерпретация. Кодът е само малка част от цялата система.
Това напомня ранните дни на базите данни. Първоначално те са възприемани просто като място за съхранение. По-късно става ясно, че моделът на данните определя всичко. При AI данните са логиката.

Много IT специалисти реагират на това с цинизъм. „Hype е. Всичко е wrapper около няколко модела.“ Тази реакция е разбираема. Индустрията е преживяла множество hype вълни - от blockchain, NFT до IoT и мета вселени. Но AI е различен по една ключова причина: той замества когнитивни процеси, а не просто оптимизира технически такива.

Аналогията с печатната преса е показателна. В началото тя е възприемана като по-бърз начин за копиране на текст. В дългосрочен план обаче променя обществото, знанието и властта.

Парадоксално е, но често най-доброто концептуално разбиране за AI идва от хора, които по професия работят с несигурна информация, непълни данни, интерпретация и контекст. Историци, анализатори, лингвисти и OSINT изследователи отдавна живеят в свят, в който няма един „правилен отговор“, а има по-добра или по-слаба интерпретация.
В този смисъл AI е по-близо до хуманитарните науки, отколкото до класическия софтуерен инженеринг.

Не, IT специалистите не са неспособни да разберат AI. Но класическото IT образование не ги е подготвило за него. AI изисква комфорт с несигурността, статистическо мислене и интердисциплинарен подход. Това е културна, а не чисто техническа промяна.

И както всяка голяма трансформация в историята на знанието, тя първо поражда неразбиране. След това създава нови професии. И накрая се превръща в нова нормалност.

А ние в момента сме точно по средата.

П.С
В моя кръг от познати преобладават три професионални групи: журналисти, рекламисти и софтуерни инженери. Забелязах, че когато се говори за политика, единствените, които не прибягват до социологически проучвания като аргумент, са именно софтуерните инженери :)

$share

>_СВЪРЗАНИ ПУБЛИКАЦИИ

Как се губи човекът, без никой да го маха
22.12.2025 г.

Как се губи човекът, без никой да го маха

Попаднах на статия във VentureBeat за нов стартъп, създаден от няколко топ инженери от Google и Meta, които разработват софтуер с изкуствен интелект за ресторанти.

6 мин. четенеПРОЧЕТИ
Краят на мащаба заради самия мащаб – и началото на реалния AI
22.07.2025 г.

Краят на мащаба заради самия мащаб – и началото на реалния AI

В историята на всяка технологична революция настъпва момент, в който ентусиазмът по „повече, по-голямо, по-бързо" отстъпва място на по-тихо, но далеч по-смислено питане: работи ли това нещо наистина?

5 мин. четенеПРОЧЕТИ
От класификация към контекст: еволюцията на текстовия анализ
14.12.2025 г.

От класификация към контекст: еволюцията на текстовия анализ

В продължение на години автоматичната класификация на текст премина през няколко технологични етапа - от статистически модели до контекстуални езикови архитектури.

7 мин. четенеПРОЧЕТИ
system@abelar:~/footer$cat info.txt

> БЮЛЕТИН

Абонирайте се за новини и анализи

> ИНФО

  • ./за_мен
  • ./контакти

> КАТЕГОРИИ

  • ./няма_категории
[2025] Abelar // All rights reserved
v1.0.0|status: online