Бюджеты корпоративного AI сливаются, не принося результатов

Самое дорогое предложение в корпоративных технологиях — это «мы можем начать внедрение в следующем квартале», и я слышал его так часто, что оно уже снится мне.

Вздох.

Корпоративный AI съедает бюджеты с такой скоростью, что даже предприниматель из пузыря eCommerce 1996 года пустил бы скупую, достойную слезу. Во многих организациях бизнес-результаты от AI настолько скромны, что их можно разглядеть только под микроскопом. При этом счета за вычисления вполне реальны, и даже если вы не участвуете в моде на максимизацию токенов, годовой контракт с провайдером инференса и ваши Azure AI Foundry, WatsonX, Vertex, Bedrock или Einstein — очень и очень реальны. А вот трансформация, то есть фактический измеримый сдвиг в том, как работает компания, приходит с опозданием — где-то между третьей переработкой дорожной карты и тем руководителем, который продвигал всю инициативу и теперь тихо переведен на другую роль без пресс-релиза.

Я наблюдал, как этот сценарий повторяется с такой регулярностью, что это было бы впечатляюще, если бы не обходилось так дорого. Вот как обычно все происходит . . .

Компания объявляет инициативу по AI‑трансформации. Создают комитет и выбирают вендора. Затем отбирают пилоты — обычно не по потенциальной ценности, а просто потому, что у какого-то руководителя есть «внутреннее чувство», и кто вы такие, чтобы это оспаривать. Потом эти пилоты представляют в PowerPoint и Excel, которые действительно показывают многообещающие цифры. Но эти цифры обычно реальны в том же смысле, в каком трейлер фильма является реальным отражением самого фильма: технически это правда и, конечно, тщательно отредактировано, но к тому, что вы получите после запуска, это почти не имеет отношения. Затем начинается внедрение, и комитет видит, как растут затраты, а где-то посреди всего этого сотрудники операционного блока продолжают вручную копировать данные между двумя системами, потому что агент не смог понять, что делать, когда поле оказалось пустым, или, что еще хуже, решил создать строку, которой вообще не должно было существовать.

Причина, по которой это продолжает происходить, не столько в самой технологии — модели действительно впечатляют, хотя нас время от времени все еще беспокоят отдельные галлюцинации, — сколько в том, что организации внедряют ИИ поверх отсутствия понимания.

Да, команды по агентификации внедряют AI‑агентов в процессы, которые никто на самом деле не понял на уровне, достаточном для действительно безопасной автоматизации. Они строят небоскребы на фундаменте из предположений и интуиции, а потом удивляются, когда оркестрация начинает трещать.

И в этой статье я объясню, что именно здесь идет не так, и почему process mining, один из самых непритязательных инструментов в арсенале корпоративного софта, вот-вот станет самым важным элементом в вашем наборе средств, в который серьезной организации стоит инвестировать ради успешного AI‑будущего.

Разрыв между тем, какими компании считают свои процессы, и тем, какими они являются на самом деле

Большинство компаний, которые предпочитают предсказуемость восторгу от шестизначного счета без соответствующего бизнес-результата, определили свои процессы до определенного уровня.

У деловой активности есть процесс. У него также есть название, описывающее активность, и кто владелец. Если вам «повезло», у него также есть диаграмма BPMN, с любовью созданная консультантом в 2019 году, которая была однажды распечатана для воркшопа, но больше никогда не открывалась. А когда вам действительно, действительно повезло, у него также есть документ это документ стандартной операционной процедуры (SOP) самого высокого уровня детализации (уровень 5) или инструкция по работе, живущая в папке SharePoint, чей URL никто не помнит, последний раз обновленный кем-то, кто там больше не работает. И обычно у него есть «эксперт по предметной области», который, когда его спрашивают, как работает процесс, с полной уверенностью говорит: «о, я точно знаю, как это работает», и затем описывает что-то, что смутно напоминает то, что происходит на самом деле, но пропускает примерно сорок процентов шагов, все исключения и всю теневую систему, которую трое людей из операционного блока построили в Excel, потому что официальная система не справлялась с нестандартными ситуациями.

Звучит знакомо, да?

Ну что ж, мой умный друг, это не то, с чем вы сталкиваетесь только в плохо управляемых компаниях. Я обнаружил, что это история всех компаний, даже тех, что хвастаются сертификатом ISO и консалтинговым счетом, достаточным для финансирования небольшой космической программы. Разрыв между задокументированным процессом и реальным процессом — один из самых постоянных и недооцененных фактов организационной жизни, и он существует повсюду, от производства до финансовых услуг, да, в каждом секторе, который когда-либо назначал «владельца бизнес-процесса», чтобы тот нарисовал блок-схему, а потом вернулся к тому, как всегда делал.

Да....

Реальный процесс не живет в документации. Но он живет в системных логах, которые показывают, сколько времени что-то действительно пролежало в очереди, прежде чем кто-то до него дотронулся, а также в циклах переделок, которые появляются, когда передача идет не так, или в эскалациях, которые случаются из-за неоднозначных официальных критериев принятия решений, и особенно в обходных путях, которые люди наработали за годы работы с системами, которые не совсем умеют общаться друг с другом.

Process mining читает эти логи.

Он восстанавливает то, что на самом деле происходит во времени. Разрыв, который он выявляет, обычно шокирует участников процесса — и я имею в виду это в психологическом смысле, как тот шок, который вы испытываете, увидев свой рентгеновский снимок и осознав, что кость была сломана много лет, а вы просто научились обходить это.

IBM провела исследование о сбоях в автоматизации и описала его в статье «Пять причин, почему инициативы по автоматизации бизнеса терпят неудачу, и как их избежать». В ней они выяснили, что организации регулярно автоматизируют сломанные или плохо исполняемые процессы, то есть тратят значительные деньги на то, чтобы неправильные вещи происходили быстрее.

И я чувствую, что это не первый раз, когда вы слышите эту историю, а если ничего из этого вам не знакомо, то вы либо совсем новичок в корпоративной автоматизации процессов, либо очень хорошо умеете забывать (что может быть благословением в корпоративной политике).

Эта фраза должна висеть на плакате над каждым столом для пинг-понга в офиисе AI-программы, но вместо этого она зарыта в PowerPoint-презентации, которую, конечно, никто не читает, потому что все заняты еженедельным демо агентов.

А task mining добавляет человеческий слой.

Process mining показывает, что зафиксировали системы, но не говорит, что делал человек, когда система перестала быть полезной — обычно это где-то на четвертом шаге процесса. Task mining фиксирует поведение на уровне экрана: обходные пути, которые люди придумывают, чтобы обойти систему, Excel-файлы для быстрых расчетов и переключения между вкладками, которые никто не документировал, потому что никто даже не считал это процессом, хотя это надежно работает уже три года на втором мониторе у кого-то.

Да! — это тот уровень знаний о процессе, который вам нужно иметь перед тем, как начинать его автоматизировать с помощью AI. Как будто вам и без того не о чем беспокоиться… Знаю, это отстой.

Agentic AI требует уровня детализации процессов, который большинство организаций не могут обеспечить

С небольшим везением у вас уже был опыт автоматизации процессов с помощью RPA. То, что я всегда ценил в традиционной RPA-автоматизации, — это то, что она была создана, чтобы выдерживать определенный уровень беспорядка в процессах, не становясь сразу же проблемой.

Традиционный RPA-скрипт по сути подобен педантичному сотруднику, который делает ровно то, что ему говорят, каждый раз и в точно таком же порядке, но терпит неудачу, когда реальность не соответствует его инструкциям. Он ригиден, но эта ригидность — достоинство, когда ваш процесс беспорядочен, потому что вы хотя бы сразу узнаете, когда что-то пошло не так.

Да, мой друг, оглядываясь на RPA, я понимаю, что именно то, что заставило нас жаждать AI, на самом деле то, чего мне сейчас больше всего не хватает. Потому что AI-агент — это принципиально другой зверь, и эта разница имеет огромное значение для того, что я собираюсь аргументировать.

AI-агент не следует детерминированному скрипту.

Он принимает решения на основе контекста и выбирает между возможными действиями. Он может справляться с неоднозначностью и определять, когда продолжать, а когда эскалировать, и делать все это непрерывно в рамках воркфлоу, который может охватывать несколько систем и отделов и продолжаться несколько дней. Но ему также нужно знать, как выглядит нормальное состояние, чтобы распознавать аномальное, ему должны показать, что такое допустимый переход, чтобы он мог обнаружить недопустимый, и когда что-то идет не так, у него должна быть четкая логика эскалации. А в моей программе он также обучен оптимизировать границы затрат, потому что агент, который продолжает повторять API-вызов, который никогда не удастся, активно сжигает наш бюджет токенов, терпя неудачу.

Все эти требования нуждаются в одном — в том, чего нет у большинства организаций: в операционно честном понимании того, как на самом деле работают их процессы.

Без этой основы вы получаете то, что я называю «автономными сотрудниками без онбординга и с корпоративной кредиткой». Они автономны, да, и при этом глубоко сбиты с толку относительно того, что им нужно делать, потому что кто-то дал им карту от 2019 года.

В июне прошлого года наши друзья по хайпу из Gartner в своем пресс-релизе† оценили, что более сорока процентов agentic AI проектов будут отменены к концу 2027 года, причем растущие затраты, неясная бизнес-ценность и недостаточное управление указаны как основные причины. Я бы утверждал, что все три этих причины указывают на одну и ту же основную причину — организации внедряют агентов в процессные среды, которые они не понимают, и обнаруживают цену этого незнания в масштабе.

Пресс-релиз: «Gartner прогнозирует, что более 40% проектов agentic AI будут отменены к концу 2027 года».


Process mining обеспечивает корпоративному AI необходимую операционную основу

Инструменты процессного майнинга, и я имею в виду платформы вроде Celonis, UiPath Process Mining, SAP Signavio и нескольких других, делают нечто, что звучит просто, но оказывается чрезвычайно ценным. Они читают ваши журналы событий и показывают, что на самом деле происходит в ваших операциях. И если вы когда-либо видели подробную карту процесса, которую они создают, вы понимаете, о чем я.

Эти инструменты показывают вам, где настоящие узкие места, не там, где вы думаете, а там, где данные показывают реальную потерю времени, и они демонстрируют, какие шаги согласования добавляют задержки без добавления ценности, а затем вы видите взрыв вариантов — то есть количество различных путей, которые один тип процесса реально проходит на практике, и это всегда оказывается гораздо больше, чем путей, спроектированных кем-то на бумаге или в Aris. Процесс, спроектированный с тремя вариантами, часто имеет сорок на практике, и каждый из этих вариантов представляет собой другой набор вещей, которые никто не подумал записать, но с которыми AI-агенту в итоге придется разбираться.

Они также делают нечто особенно ценное для планирования корпоративного AI — выявляют кандидатов на автоматизацию, которые действительно того стоят.

На практике существует четыре типа процессов, с которыми вы сталкиваетесь в своих AI-проектах, и я уже описывал их несколько раз ранее, так что для постоянных читателей эту часть можно пропустить.

Зона I — это высокоструктурированные, низкорисковые и повторяющиеся процессы. Это то, что привлекает внимание и вызывает охи и ахи, когда вы пытаетесь продать свою программу. Честная проблема в том, что большинство agentic-автоматизаций в этой зоне нельзя назвать «трансформационными» с серьезным видом. Когда вы нацеливаетесь на эти «быстрые победы», вы ищете то, что я называю точечные решения. Такие вещи, как сортировка email, заполнение строк в Excel или сканирование счета, живут в этой зоне, и из всех agentic-реализаций, которые мы анализировали, 27% шагов корпоративных процессов действительно попадают сюда, а документированный уровень успеха для развертываний в зоне I составляет 71%.

Зона II охватывает 17% шагов корпоративных процессов и имеет уровень успеха 52%. На первый взгляд это кажется приемлемым, пока не вспомнишь, что остальные 48% генерируют работу по исправлению, которая никогда не появляется на дашборде, который видит ваш управляющий комитет. Эти процессы имеют четкую структуру большую часть времени, но разваливаются на краях — из-за отсутствующего поля или недокументированного исключения, которое кто-то всегда обрабатывал вручную, знаете, edge cases и варианты. Однако это первая зона, где начинаются процессы с человеком в контуре.

21% шагов корпоративных процессов попадают в Зону III, и у них уровень успеха всего 31%. И это, мой любопытный друг, та цифра, которую следует печатать в каждом предложении по развертыванию агентов шрифтом достаточно крупным, чтобы читать без очков. Это процессы, которые достаточно структурированы, чтобы быть автоматизируемыми в принципе, но они насыщены исключениями, compliance и рисками. Так насыщены, что детерминированная автоматизация вроде RPA всегда на них ломалась. Однако именно здесь вы получите реальные приросты производительности, но это также место, где самый высокий профиль затрат на токены, потому что неоднозначность стоит вычислений, а процессы Зоны III полны ею. Без процессного майнинга агент в Зоне III работает с описанием процесса, которое написал кто-то, кто думал, что знает, как все устроено. Но это оказалось ошибкой. Отсюда и 31%.

Но именно эти процессы — те, где современные AI-агенты могут создать реальную ценность, а процессный майнинг — инструмент, который выявляет их с доказательствами, а не по интуиции.

Celonis прямо об этом говорит, описывая то, что они называют process intelligence — идею, что AI-агенты нуждаются в бизнес-контексте, полученном из реальных данных процессов, чтобы эффективно работать в корпоративной среде, и без этого контекста агент оперирует на основе предположений, а предположения в продакшен-среде стоят довольно дорого.

Зона IV охватывает 12% зафиксированных нами случаев и имеет уровень успеха 8%. Да. Это цифра, которую вы никогда не услышите от вендоров в их питчах. Это высокорисковые, неоднозначные, низкоструктурируемые процессы, противопоказанные для автономной обработки в текущих условиях. Случаи неудач в развертываниях Зоны IV имеют одну общую черту: задействованные организации убедили себя, что находятся в Зоне II, обычно потому, что кто-то, у кого был финансовый интерес в проекте, так им сказал. Когда кто-то утверждает, что agentic AI уже способен автоматизировать эту зону, я просто спрашиваю, готовы ли они лететь на самолете, которым управляет ChatGPT.

Разумеется, нет.

Накопительная стоимость развертывания агентов без process intelligence

Я хочу уделить время механике того, что идет не так, потому что думаю, что режим сбоя менее очевиден, чем кажется.

Когда вы внедряете AI-агентов в неисследованный процесс, первое, что происходит, — агенты работают достаточно хорошо на простых случаях, которые неявно имели в виду все, кто проектировал систему. Именно эти случаи вы держите в голове, когда генерируете цифры для пилотной презентации, но дело в том, что они составляют, возможно, лишь тридцать процентов от реального объема.

Остальные семьдесят процентов — это все про накопительный эффект.

Агент, столкнувшийся с кейсом, к которому не был готов, продолжает пытаться решить его, потребляя токены, делая API-вызовы, пробуя варианты, иногда создавая побочные эффекты в связанных системах, и либо в итоге сдается, либо выдает результат, который технически является ответом, но на самом деле неправильный.

Каждый такой неудачный заход стоит денег, каждый неправильный результат создает последующую работу, и каждый случай, требующий человеческого вмешательства, — это момент, когда генеративный AI стоит денег без принесенной AI-ценности, а в среде с большим объемом эти случаи быстро накапливаются.

Скрытая ручная работа по исправлению — пожалуй, самое коварное последствие, потому что она невидима для метрик, которые докладывают наверх. Агент завершил задачу в том смысле, что состояние воркфлоу изменилось. Тот факт, что кто-то из операционного блока потратил сорок минут на исправление того, что наделал агент, не появляется на дашборде, который показывают комитету, насколько хорошо работает AI-программа. ROI-расчеты выглядят нормально, а операционная команда тонет.

IBM подробно задокументировала этот паттерн в своей статье под названием «Пять причин, почему инициативы по автоматизации бизнеса терпят неудачу, и как их избежать», и в ней говорится, что организации, которые с наибольшей вероятностью увидят отдачу от автоматизации, — это те, что вложились в понимание своих процессов до внедрения технологий. Те, кто пропустил этот шаг, обычно заканчивают дорогим уроком.

Затраты на токены — самая заметная статья расходов в бюджете корпоративного AI, и в этом контексте они являются симптомом всей обработки исключений и случаев, когда у агента не хватало контекста для уверенных действий, и ему приходилось работать усерднее, чтобы выдать результат. Этот вывод я использовал в исследовательских статьях Poundwise Tokenomics и Rountrip Value Governance.


Построение стека: майнинг, симуляция, развертывание и управление в правильном порядке

Организации, которые успешно внедряют корпоративный ИИ, сначала решают вопрос операционной модели, а уже потом фокусируются на технологиях. Такая модель обычно включает поэтапное построение стека — от майнинга данных и симуляций до развертывания и управления — в правильной последовательности, чтобы минимизировать риски и затраты на токены как индикатор неэффективности. Это перекликается с вашими исследованиями по Poundwise Tokenomics и Roundtrip Value Governance, где токены отражают проблемы контекста и обработки исключений.

Начинается с процессного майнинга как диагностического слоя — не разового упражнения, а непрерывной способности, которая считывает журналы событий по всему предприятию и создает постоянную картину того, что реально происходит в операциях, основанную на фактах. Это фундамент. Все остальное строится поверх него.

Второй слой — симуляция, и это шаг, который почти все пропускают, потому что он кажется медленным, поставщик ждет начала развертывания, а через шесть недель презентация для совета директоров.

Симуляция означает использование собранной процессной аналитики для моделирования того, что произойдёт при внедрении агента в конкретные шаги, с прогнозированием влияния на пропускную способность, затраты, качество и уровень исключений — до перехода в продакшн. Apromore‡ и аналогичные инструменты значительно вложились в эту возможность именно потому, что стоимость ошибок в продакшене на порядки выше, чем в симуляции.

Третий слой — это контролируемое развертывание, где внедрение происходит поэтапно и обратимо, с четкими критериями успеха, триггерами для вмешательства и людьми в контуре для исключительных категорий, которые симуляция определила как высокорисковые.

Когда вы развернули решение, переходим к четвертому слою — runtime governance процесса через процессный майнинг. Да, эта возможность не исчезает после деплоя, а переходит в режим мониторинга: непрерывно сравнивает, что агенты реально делают, с тем, для чего они спроектированы, фиксирует отклонения и измеряет реализованную ценность. Именно это я сейчас делаю с Celonis для измерения Net Program Value.

Этот стек не выглядит гламурно, но создает реальную ценность: доказывает, что ваша программа работает в масштабе и со временем, без необходимости увеличивать операционную команду, которая вынуждена подчищать за ней последствия.


Что руководителям нужно сделать до того, как следующее коммерческое предложение от поставщика окажется в их почте

Если вы руководитель, первое, что вам нужно сделать, — перестать покупать технологии раньше, чем вы покупаете понимание.

Да, согласен: эта фраза вполне заслуживает того, чтобы висеть на мотивационном плакате рядом со столом для пинг-понга.

Process mining не является обязательным пунктом, который всплывает в предложениях консультантов только потому, что консультанты хотят строить агентов, но тем не менее это обязательное условие. А для организаций, которые его игнорируют, аудит не заставит себя долго ждать.

Второе, что вам нужно сделать, — это устранить проблемы на стыках между этапами до того, как вы начнете автоматизировать их. Я имею в виду такие вещи, как двойной ввод данных, ручная передача между системами или множественные согласования. Это структурные сбои, которые ИИ-агент либо будет воспроизводить, либо на них застрянет, и в любом случае это стоит денег.

В качестве приблизительной оценки: час, потраченный на исправление передачи между этапами до развертывания, стоит примерно десяти часов затрат на токены, которые уйдут на попытки обойти это после него.

Также относитесь к журналам событий как к стратегическому активу. Это означает, что вы инвестируете в инфраструктуру для сбора процессной телеметрии и в инструменты для ее анализа, а также в организационную дисциплину, чтобы действовать на основе того, что они показывают. Большинство предприятий сидят на данных, которые точно сказали бы им, где находятся их самые ценные возможности для автоматизации, и не читают их, потому что никто не сделал для этого дашборд и никто не назначил человека, которому было бы не все равно.

Измеряйте признанную ценность, а не прокси-показатели производительности. Выполненные задачи, сэкономленное время, теоретически освобожденные FTE — эти метрики легко генерировать, хотя они могут быть именно тем, что хочет видеть ваше руководство, но они почти бесполезны для понимания того, создает ли ваша ИИ-программа реальное влияние на бизнес. Метрики, которые имеют значение, — это сокращение времени цикла в конкретных процессах, изменения уровня ошибок в конкретных выходах, стоимость на транзакцию в конкретных рабочих процессах и, в конечном итоге, влияние на выручку, маржу и риски. Если ваш ИИ не может генерировать эти цифры, вы должны спроектировать их так, чтобы он мог.

Последнее: вы перестаете позволять разговору о технологиях происходить отдельно от разговора об операциях. Корпоративный ИИ — это не ИТ-проект с бизнес-спонсором, а фундаментальное изменение того, как функционирует организация, и для этого с самого начала в комнате должны быть люди, которые понимают операции, процессы, исключения и крайние случаи.

Process mining — это дисциплина, которая делает эти разговоры возможными заранее, потому что она дает всем в комнате одну и ту же картину, основанную на доказательствах, того, как организация на самом деле работает, а не коллекцию конкурирующих мнений о том, как она должна работать.

Приходите на вебинар "Как использовать Process Mining для непрерывного управления процессами", регистрация по ссылке

Комментарии (0)