
Привет, Хабр! Вы, наверное, часто слышали, как топы западных ИТ-компаний хвалятся: «Сейчас внедрим LLM вместо сотрудников и будем только смотреть, как за нас работают видеокарты». Спешу вас расстроить — к сожалению (или к счастью), этого не случится.
Меня зовут Павел Бабин, я CPO облачной платформы MWS GPT — сервиса, через который можно работать с open source LLM и моделями от МТС. В этом материале по мотивам моего доклада с True Tech Day я расскажу, что реальное применение LLM не такое крутое, как кажется по новостям, пестрящим заголовками типа «новая супер-мульти-гига-мега-агентная система сделает все за вас». На самом деле кейсы, которые дают заметные бизнес-эффекты, начинаются с простых вещей. Я приведу несколько таких примеров без сложных пайплайнов и кастомных моделей, но с понятной ценностью.
Помощь сотрудникам при живом общении с клиентами

Начну с Morgan Stanley. Это банк с очень крутым консалтингом, и он оперирует огромными суммами денег. У ребят была реальная проблема — их сотрудники-консультанты не пользовались всей гигантской библиотекой данных. В ответ на это они сделали ИИ-ассистента.
Звучит громко — «ассистент для консультантов», но на самом деле это стандартный RAG по внутренней базе знаний с дополнительным поиском по интернету. Пользователям дали простейший UI, как в DeepSeek: обычное поле для запроса, кнопки загрузки файла и поиска.
Результат — adoption rate 98%. Почти все консультанты стали пользоваться агентом. Для Morgan Stanley критично важна метрика data reach, показывающая активность применения накопленных данных. До внедрения в работу реально попадало около 20% всей информации, после — 80%. Консультантам теперь не нужно тратить время на поиск PDF и подготовку презентаций. Они сразу переходят к общению с клиентом. И это дало заметный прирост по производительности — резкое снижение lead time на 50%.
Простая функция в нужном месте и дизайне

Другой кейс — Duolingo. Да-да, та самая зеленая сова из рилсов, которая теперь не просто напоминает о занятиях. Ребята пошли по пути монетизации через LLM и запустили новую подписку — Duolingo MAX. Обычная стоила 7 $, а тут сразу 30 $. Откуда взялась такая четырехкратная наценка?
Главная фича — интерактив с ИИ. Раньше пользователь отвечал на задания, ошибался — получал стандартное «попробуй еще». Теперь появилась кнопка «почему неправильно?», которая позволяет в чате получить объяснение, что не так в ответе. Это буквально промпт в духе «скажи, почему этот ответ неверный и как сделать правильно».
Вторая фича — возможность поболтать с персонажем по имени Лили. Там простой Automatic Speech Recognition (ASR): ты говоришь, а модель распознает и отвечает. Ничего сложного — условно, это можно реализовать за день.
После внедрения двух простых сценариев компания получает больше 1 000 новых подписок в день на MAX и прогнозирует 30% рост дохода за год. И это вполне реально: людям нравится говорить с персонажами — они у Duolingo харизматичные, яркие, не просто болванчики с заученными фразами.
Показатель успеха — 15% от ежедневной аудитории уже пользуется подпиской MAX. С их масштабом это миллионы долларов. И все на базе обычного промпта и пары интеграций.
Автоматизация простого сценария, влияющего на ключевую метрику

Stripe — платежная система, через которую идет огромный поток транзакций крупных зарубежных сервисов. Они тоже реализовали достаточно простой и показательный кейс внедрения LLM.
Для них критически важно время до первой оплаты (метрика time to first payment). Например, к ним приходит стартап, который хочет принимать оплату. Чем быстрее он интегрируется, тем раньше начнет капать комиссия. Обычно внедрение занимало до полугода, потому что процесс сложный. Поддержке приходилось долго объяснить: «Вот тут у тебя API не так вызывается, а вот тут надо было другой ключ взять».
Теперь разработчик может в интерфейсе написать: «Почему у меня ошибка 400 при вызове такого-то метода?», — и получить внятный ответ. Этот простой RAG-поиск по документации радикально сократил нагрузку на саппорт и time to first payment на 40%. То есть деньги начали приходить быстрее, а затраты на сопровождение упали.
Все эти кейсы — максимально простые. И именно такие решения дают первые внятные цифры: рост выручки, снижение затрат, ускорение процессов. Дальше можно докручивать, усложнять пайплайн, строить кастомные логики. Но старт — всегда с малого. И ниже я расскажу, как мы это реализуем в МТС.
Быстрое внедрение новых пользовательских сценариев

Clatch — это приложение-женский календарь. У ребят случился интересный поворот: они добавили кнопку «поддержка», но вместо стандартных тикетов получили вал эмоциональных вопросов. Пользовательницы начали писать: «Мне грустно», «Меня никто не любит», «Что делать?».
Команда задумалась и решила дать возможность выговориться прямо в приложении. Моя команда подключилась, и мы вместе сделали Клашу — чат-бота, с которым можно просто поболтать про что угодно. Если интересно, то Катя Меркулова, CPO Clatch, уже рассказывала этот кейс на Хабре.
С технической точки зрения мы все реализовали без сложной инфраструктуры, с помощью простого промпта. Результаты — более чем убедительные. Недельное время в приложении выросло на 13%, возврат в первый месяц после внедрения Клаши — на 35%. Для mobile-приложений это очень крутой показатель. А еще 20% ежедневной аудитории заходят просто поболтать с виртуальной подругой. Сейчас Клаша эволюционирует — у нее появляется память, можно вернуться к старым диалогам, вспомнить, о чем говорили.
Удобный UI для сотрудников

Большой компании, где есть много разных продуктов, нужна живая, актуальная база знаний — в МТС это система управления знаниями (СУЗ). В ней ищут ответы сотрудники поддержки и продаж. Внутри компании есть команда, которая пишет статьи в СУЗ. Ребята добавляют, актуализируют материалы и удаляют устаревшие.
Раньше они делали это вручную: искали информацию в Confluence, копипастили, переписывали. На базе MWS GPT мы создали для них простой интерфейс с чатом, куда можно написать: «Создай статью про МТС Premium и скидку на каршеринг», — и он тебе сгенерит заготовку. Или обновит существующий материал статьи.
Сделали две фокус-группы: одна продолжала работать по старинке, другая — через наш интерфейс. В первой группе одно изменение статьи — добавление абзаца или правка текста — занимало в среднем 275 секунд. Во второй с LLM — 199. То есть в среднем на 76 секунд меньше на каждое действие. Когда у тебя сотни правок в неделю, это уже часы, которые можно потратить на что-то полезное. В итоге команда получила прирост контента более чем на 20%. В ней не так много людей, а благодаря простому инструменту они стали успевать больше.
Отдельно хочу сказать про саму идею давать сотрудникам интерфейс для работы с LLM. Это мощный тренд. Раньше OpenAI продавал либо персональную подписку, либо API — и дальше крутись как хочешь. А теперь появился OpenAI Enterprise: покупаешь лицензии на компанию и раздаешь сотрудникам. Без API, без разработчиков, просто чтобы люди сами могли попробовать, где LLM реально помогает. И это ключевая идея. Дай человеку нормальный инструмент — он сам найдет, как его применить.
Замена устаревших технологий

Посмотрим еще один кейс — «Секретарь». Вы с ним уже сталкивались, если пользуетесь МТС. Это тот самый голос, который отвечает за вас, когда вы заняты: «Здравствуйте, вы звонили Павлу, он сейчас не может говорить. Могу передать сообщение?».
Раньше все работало на классических интентах — было распознавание намерений, дерево сценариев и так далее. Новые ветки создавались с огромным трудом. Чтобы добавить новую, нужно было:
– придумать интенты;
– разрулить, чтобы они не пересекались;
– прописать логику: «а если сказал так», «а если передумал», «а если ошибся».
Одна ветка делалась месяц, а то и два. Ребята решили пойти другим путем и поставили LLM, которая теперь и определяет тематику, и генерирует ответ. Результат — новый сценарий можно создать за пару дней. В итоге на 5,8% увеличилась «глубина звонка» — время, которое человек остается на линии после приветствия. Длительность диалога выросла на 15%. То есть люди меньше бросают трубку при запуске «Секретаря» и больше с ним взаимодействуют.
Если интересно, можете протестировать сами. У «Секретаря» есть бесплатный период — просто попросите знакомого с номером МТС позвонить вам и послушайте, как модель работает в реальности.
Как найти кейсы у себя в компании
Мы это поняли два года назад — просто дали коллегам доступ к интерфейсу с LLM. Через некоторое время вернулись, а там:
– одни автоматизируют себе почту;
– другие правят сообщения клиентам;
– третьи пишут скрипты;
– кто-то картинки генерирует в перерывах между встречами.
Сотрудники сами лучше всех знают, где болит и что можно ускорить. Надо просто дать им инструмент — и кейсы появятся.
Что важно учесть при поиске сценариев?
Повторяемость задачи. Нет смысла автоматизировать то, что случается раз в год.
Где у вас идет работа с текстами и документами. Все, что связано с текстами, — золотая жила для автоматизации. У рекрутеров, юристов, саппорта часто имеются тонны ручной работы, которую можно упростить.
Субъективная оценка пользы. Вот тут и нужны сотрудники: как раз они и скажут, где у них LLM зайдет, а где нет.
Риски. Если цена ошибки высокая, не пускайте LLM в прод напрямую. Используйте ее как Copilot: помощник, а не автопилот. Проверка человеком — must-have.
Как запускаться?
Многие думают, что надо сразу рисовать архитектуру, накидывать пайплайны, год обсуждать GDPR — и только потом, возможно, что-то внедрить.
На деле все куда проще:
Есть идея? Напишите в чате, как бы вы ее решали. Натуральный язык — вот ваш фреймворк.
Сделайте PoC. Один разработчик, два дня, терминал и простейший интерфейс. Работает? Значит, пошло.
Погуглите: запрос + GitHub в конце. Например: recruiter assistant github. Есть шанс, что кто-то уже это сделал — останется просто адаптировать. Если не хотите в Google, идите в Perplexity. Она все красиво саммаризирует.
И главное: LLM надо пробовать руками
Оказывается, можно простым промптом увеличить стоимость подписки в четыре раза, получить новых пользователей и удержать их в приложении. Надо пробовать и начинать с простого. Для тестов LLM у нас есть платформа MWS GPT — записывайтесь на демо, и мы поможем решить ваши кейсы.