ИТ-лидеры видят большой бизнес-потенциал в малых моделях ИИ благодаря гибкости, низкой стоимости и нацеленности на конкретные задачи малые языковые модели (SLM) лучше подходят для бизнес-специфичных приложений и вскоре могут обойти LLM по использованию в корпоративной среде.
Малые языковые модели (SLM) дают CIO больше возможностей разрабатывать специализированные, отраслевые AI-приложения, эксплуатация которых дешевле, чем систем на базе универсальных больших языковых моделей (LLM).
Согласно недавнему отчёту Gartner, к 2027 году более компактные, контекстно-специфичные модели обгонят LLM по объёму использования как минимум в три раза; в том же отчёте утверждается, что точность ответов LLM снижается на задачах, требующих специфического бизнес-контекста.
«Разнообразие задач в бизнес-процессах и потребность в более высокой точности подталкивают к переходу на специализированные модели, прошедшие fine-tuning на конкретных функциях или доменных данных, — говорит аналитик Gartner Сумит Агарвал, соавтор отчёта. — Эти более компактные, задачные модели отвечают быстрее и требуют меньше вычислительных ресурсов, снижая операционные и эксплуатационные затраты».
Доктор Магеш Кастури, сотрудник технического штата Wipro (Индия), отмечает, что не считает LLM более склонными к ошибкам, чем SLM, но соглашается, что галлюцинации LLM вызывают опасения. «Для доменно-центричных решений, например в банковском секторе или энергетике, SLM — правильный выбор с точки зрения гибкости, экономичности ресурсов, быстрого прототипирования и разработки, а также безопасности и приватности данных организации», — говорит Кастури.
Несмотря на фокус внимания на универсальных LLM общего назначения (OpenAI, Gemini, Claude, Grok), всё активнее появляются небольшие специализированные модели как экономичные альтернативы для задачных приложений — в том числе Llama 3.1 от Meta, семейство Phi от Microsoft и линейка Gemma SLM от Google.
Например, Google заявляет, что её недавно представленная Gemma 3 SLM может работать всего на одном GPU NVIDIA.
SLM привлекают внимание корпоративного сектора
Николас Колисто, CIO Avery Dennison, связывает растущий интерес CIO к SLM во многом с подъёмом агентного ИИ.
«Выбор правильных базовых моделей для приложений генеративного и агентного ИИ — одна из самых сложных задач для CIO и CAIO сегодня. Дело не только в бенчмарках: важно сбалансировать стоимость, безопасность, интерпретируемость, масштабируемость и скорость получения бизнес-ценности (time-to-value), — говорит Колисто. — Ландшафт смещается от крупных, универсальных моделей к более компактным, доменно-специфичным, которые лучше закрывают потребности отраслей, снижая риски и издержки».
Gartner отмечает, что SLM дают больший контроль над чувствительными бизнес-данными, при этом сокращают операционные расходы и повышают качество в конкретных доменах. Такой более прицельный подход к ИИ — для автоматизации клиентского сервиса, анализа рыночных трендов, продуктовых инноваций и сентимент-аналитики — также приносит выгоды в части приватности и соблюдения авторских прав.
«На 100% верно, — говорит Патрик Бьюэлл, Chief Innovation Officer в Hakkoda (компания IBM). — Настроенные (fine-tuned) открытые SLM, работающие за корпоративным файрволом, снимают многие вопросы безопасности, governance и стоимости».
Том Ричер, бывший CIO и основатель Intelagen (Google Partner, разрабатывающей специализированные вертикальные AI-решения), добавляет, что выводы Gartner совпадают с тем, что он видит на практике:
«Универсальные LLM нужны, но для конкретных бизнес-задач меньшие, прошедшие fine-tuning модели дают лучшие результаты и делают это эффективнее — особенно в регулируемых отраслях, — говорит Ричер. — Главный драйвер перехода к SLM — риск галлюцинаций у LLM. Склонность универсальных LLM генерировать неточные или бессмысленные ответы, особенно в специфичных или нюансированных бизнес-контекстах, — серьёзный барьер».
И далее: «В корпоративных приложениях, где критичны точность и надёжность, этот внутренний риск делает ставку только на универсальную LLM во многих случаях неприемлемой. Именно поэтому более прицельный, специализированный подход чаще всего разумнее и надёжнее. В медицине, например, нельзя допускать риск галлюцинаций».
Гибкое будущее
Прошлой осенью Microsoft объявила об адаптированных моделях ИИ на базе портфеля малых языковых моделей (SLM) Phi, чтобы расширить отраслевые возможности и позволить компаниям точнее и эффективнее закрывать кастомные потребности. Компания сообщила, что разрабатывает модели, прошедшие fine-tuning и предварительно обученные на отраслевых данных для типичных бизнес-кейсов, совместно с корпоративными партнёрами — Bayer, Rockwell Automation, Siemens Digital Industries Software и др.
Генеральный директор Microsoft Сатья Наделла недавно похвалил одну из SLM, созданную крупной авиакомпанией, которую он видел на демо в Токио. «С нашей SLM Phi бортпроводники Japan Airlines тратят меньше времени на бумажную работу и больше — на пассажиров», — написал Наделла в LinkedIn.
По утверждению Microsoft, Orca и Orca 2 демонстрируют использование синтетических данных для посттренировочного обучения малых языковых моделей, что позволяет им лучше справляться со специализированными задачами.
Gemma 3 от Google, основанная на Gemini 2.0, — это набор лёгких, передовых открытых моделей, спроектированных для быстрой работы прямо на устройствах — от телефонов и ноутбуков до рабочих станций. «Модели Gemma SLM используют доменно-специфичную бизнес-интеллектуальность вместо широкой генерализации и нацелены на такие отрасли, как здравоохранение, юридические услуги и финансы, превосходя LLM в соответствующих доменах», — говорится в заявлении компании для CIO.
Gartner отмечает, что предприятия могут кастомизировать LLM под конкретные задачи, применяя retrieval-augmented generation (RAG) или другие техники fine-tuning для создания специализированных моделей. Но прогноз Gartner о том, что через два года SLM по объёму использования опередят LLM, отражает ускоряющийся в индустрии тренд на более «задачеспецифичный» ИИ, соответствующий требованиям governance и регуляторного комплаенса, говорит Навин Шарма, старший вице-президент и глава направления AI & Analytics в Cognizant.
«По мере того как организации стремятся масштабировать ИИ эффективнее, более компактные, задачеспецифичные модели оказываются быстрее, экономичнее и проще интегрируются в реальные бизнес-процессы, — говорит Шарма. — Когда речь об ИИ-моделях, “меньше” может означать “умнее”, но будущее — не “или-или”, а оркестрация: большие модели дают фундамент, а небольшие, таргетированные модели закрывают точные бизнес-нужды».
Шарма также подчёркивает, что рост числа SLM не означает исчезновения больших базовых моделей.
«Если уж на то пошло, их роль становится более стратегической. Вместо того чтобы быть конечным продуктом, они становятся стартовой точкой — предоставляя ключевые возможности, на которых команды могут строить, адаптировать и проводить fine-tuning под конкретные кейсы, — добавляет он. — Мы смещаемся от использования их как универсальных инструментов к использованию как базовой инфраструктуры для более узко настроенных, эффективных AI-систем, которые лучше служат бизнесу».
010011011000101110101
Я не понял, корпоративный сектор не может купить сервер и десяток GPU? На 256Gb видеопамяти можно уже развернуть приличную БЯМ. "Солидная нефтяная компания возьмёт в ареду дырокол"? :-)
longtolik
Сейчас речь уже идёт о федерациях агентов. И зачем переплачивать за гипер-универсальность.