Меня зовут Андрей Коптелов, я долгие годы работаю с бизнес‑процессами и корпоративной архитектурой, теперь волею судеб мне приходится погружаться в тему искусственного интеллекта. По мере возможностей пытаюсь делиться своим скромным опытом в этой теме.
Представьте: вам поручили «внедрить искусственный интеллект (ИИ)», но без бюджета, и с требованием сохранить данные внутри периметра организации. Результат нужен вчера. Ваши подчиненные не умеют программировать, и используют большие языковые модели только в режиме чата.
Результат: через 8 рабочих часов вы развернёте локальную языковую модель, например, Qwen на Ollama, инсталлируете оркестратор на n8n, интегрируете n8n и Ollama, автоматизируете простейший процесс, например, регулярный анализ интернет‑сайтов с последующей рассылкой информации заинтересованным сторонам. Далее, при желании, настроите внутреннюю базу знаний в организации и получите рабочий прототип ассистента с использованием ИИ, который отвечает на вопросы по вашей базе знаний без отправки данных вовне.
Какую задачу решает эта инструкция — она демонстрирует, как за один рабочий день создать функциональный прототип ИИ‑агента для рутинных задач (анализ и генерация текста, поиск информации). Это пошаговый маршрут с результатами на каждом этапе, и этот маршрут я прошел сам, без опыта программирования.
Важно: этот подход подходит для пилотных проектов и доказательства концепции.
Ограничение: экономические предпосылки внедрения ИИ‑агента остаются за кадром этой инструкции, просто представим, что задача внедрения ИИ поставлена, и ее нужно быстро решить на уровне прототипа. И да, так бывает в организациях.
Исходные условия и ограничения
Бюджет — 0₽ (только открытое ПО).
Инфраструктура — ПК с 32 ГБ ОЗУ, 4+ ядра, 20+ ГБ свободного места.
Доступ — Права администратора на локальной машине.
Сеть — Интернет нужен только на этапе установки, далее — офлайн‑режим.
Компетенции команды — Базовые навыки работы с браузером и LLM.
Тип задач — Обработка текста: анализ, суммаризация, классификация, поиск.
Где это решение НЕ сработает:
Генерация изображений/видео — требуются карты NVIDIA и специализированные инструменты (ComfyUI, Stable Diffusion).
Высоконагруженные сценарии (>10 запросов/мин) — локальные модели на обычных компьютерах сильно медленнее облачных.
Задачи с жёсткими SLA по времени ответа — локальные LLM дают задержки 5–50 секунд.
7 шагов к рабочему прототипу автоматизированного процесса с применением ИИ
Каждый шаг имеет чёткий критерий успеха — не переходите к следующему, пока не завершили предыдущий.
Шаг 1. Разворачиваем большую языковую модель локально в Ollama
Ollama — это платформа с открытым исходным кодом, предназначенная для запуска больших языковых моделей (Large language model, LLM) локально, на вашем компьютере. Она позволяет работать с такими моделями, как Llama, Gemma, DeepSeek, Qwen и другими, не отправляя данные в облако.
Что делаем:
Идем на сайт Ollama (https://ollama.com/), регистрируемся, скачиваем и устанавливаем программу для вашей операционной системы.
Запускаем Ollama — обычно достаточно открыть приложение.
Для пробы загружаем одну модель, например, Qwen 3.5 9b.
Запускаем интерактивный чат с моделью.

Зачем: когда вы запускаете модель локально, ваши данные не уходят в облако, не становятся частью чьего‑то датасета и не зависят от санкций и блокировок. Но нужно учитывать, что модель отвечает медленно, не имеет инструментов и сильно слабее облачных аналогов.
Совет: если ПК слабый (менее 16 ГБ оперативной памяти) — выбирайте модель с пометкой:4b или:9b. Модели с:14b и выше требуют более мощного оборудования.
Ошибка: модель не скачивается. Проверьте наличие свободного места на диске (модели весят от 2 до 20+ ГБ).
Результат шага: модель Qwen работает на вашем железе, без интернета, без передачи данных вовне.
Шаг 2. Разворачиваем n8n локально с помощью Docker Desktop
n8n — это система для автоматизации процессов (workflow), которая позволяет объединять различные сервисы в единую цепочку действий без необходимости писать код. Большинство простых автоматизаций можно реализовать с помощью визуального редактора n8n, где нужно соединять блоки (ноды) между собой.
Docker — это платформа для контейнеризации приложений, которая позволяет упаковывать программы вместе со всеми их зависимостями в изолированные контейнеры, которые можно запустить на локальном компьютере.
Что делаем:
Устанавливаем Docker Desktop (https://www.docker.com/products/docker‑desktop/).
Находим n8n через Docker Desktop, загружаем к себе на локальную машину.

Запускаем n8n в Docker Desktop, получая рабочий инструмент автоматизации.

Открываем в браузере: # http://localhost:5678

Зачем: одной локальной LLM, развернутой в Ollama, недостаточно, чтобы ИИ‑агент стал частью бизнес‑процесса, его нужно «встроить» в последовательность автоматизированных действий.
Совет: после установки Docker Desktop обязательно перезагрузите компьютер.
Ошибка: n8n не открывается в браузере. Проверьте, что Docker Desktop запущен и работает (иконка в трее должна быть зеленой).
Результат шага: инструмент n8n запущен локально, что позволяет автоматизировать процесс.
Шаг 3. Интегрируем n8n и Ollama
В n8n есть стандартные ноды для вызова различных больших языковых моделей. Нас будет интересовать нода Ollama для вызова нашей локально установленной модели.
Что делаем:
В n8n создаём новый workflow, например, парсинг сайта hh.ru для поиска вакансий.

Добавляем в процесс ноду ИИ‑агента на Ollama, и настраиваем вызов локально развернутой Ollama с моделью, которую мы установили заранее.

Проверяем работу большой языковой модели.
Встраиваем ИИ‑агента в автоматизированный процесс.

Зачем: чтобы ИИ‑агент начал выполнять реальные задачи (отвечать на вопросы или анализировать данные), его нужно встроить в цепочку автоматизированных действий.
Совет: если n8n запущен в Docker, а Ollama — на ПК, используйте адрес host.docker.internal вместо localhost в настройках подключения к Ollama.
Результат шага: процесс автоматизирован n8n и настроен так, что он может отправлять запросы к локальной модели Ollama и получать от неё ответы.
Шаг 4. Пишем промпты для работы ИИ‑агента
Что делаем:
Просим нейросеть написать пропт: Роль + Контекст + Задача + Формат + Пример.
Тестируем промпт в режиме чата (такой режим есть у ИИ‑агента в n8n).
Улучшаем в цикле: запустили промпт → получили ответ → оценили → поправили промпт.
Переносим промпт в внутрь ИИ‑агента, встроенного в процесс.

Пример промпта:
|
Роль: Ты — эксперт по подбору персонала с 10-летним опытом в рекрутинге. Контекст: У нас есть резюме кандидата и описание вакансии. Нужно оценить соответствие. Задача: 1. Сравни требования вакансии с опытом кандидата. 2. Дай рекомендацию: «Подаваться на вакансию» или «Нет». Формат ответа: — Соответствия: [маркированный список] — Решение: [одна фраза] |
Зачем: модель лучше понимает чёткие, конкретные запросы.
Результат шага: ИИ‑агент правильно отрабатывает задачу в процессе в большинстве случаев (более 80%).
Шаг 5. Подключаем RAG (в случае необходимости ответов по внутренней базе)
В случае необходимости ИИ‑агенту отвечать по внутренней информации организации, придется использовать RAG (Retrieval‑Augmented Generation), если документов много и в контекстное окно они не поместятся, ведь часто просто закинуть в модель пачку PDF‑файлов — она либо обрежет их, либо проигнорирует середину, при этом выдаст уверенную, но ложную информацию.
Представьте, что вы даете ИИ «шпаргалку» перед экзаменом. Вы не пытаетесь впихнуть в его память весь учебник (он всё равно забудет), а даёте возможность быстро подсмотреть нужный параграф из вашей базы знаний прямо во время ответа.

Что делаем:
Подключаем базу с эмбедингами для создания векторной базы по документам в n8n.
Подключаем модель для эмбедингов в Ollama (я предварительно развернул mxbai‑embed‑large:latest на Ollama).
Подключаем созданную базу к агенту.
Загружаем документы в хранилище.
Результат шага: чат бот в процессе отвечает на вопросы по вашей базе знаний.
Шаг 6. Показываем прототип руководителю, поставившему задачу
Что делаем:
Зовем руководителя.
Рассказываем, как вы внедрили ИИ в процесс в пилотном режиме.
Показываем прототип, отвечая на вопросы.
Обсуждаем возможности ИИ.
Результат: Внедрение ИИ‑агента в бизнес‑процесс в пилотном режиме завершено.
Финальный совет: не стремитесь сделать «идеально» с первого раза. Цель прототипа — не замена людей в процессе, а доказательство ценности ИИ именно в этом процессе.
Коротко: чек‑лист внедрения ИИ в бизнес‑процесс
Определен процесс для пилотного внедрения
Развёрнута локально Ollama с большой языковой моделью
Развернут n8n для автоматизации процесса
Выбрана большая языковая модель под задачу и протестирована на реальных промптах
При необходимости подключена база знаний через RAG
Сохраните в закладки: к этому гайду вы вернётесь, когда будете внедрять ИИ в свои процессы.

Когда первый прототип ИИ‑агента уже собран, быстро становится понятно: развернуть модель и связать её с n8n — только половина задачи. Дальше начинается самое сложное: заставить LLM стабильно работать с вашими данными, не терять контекст, не выдавать красивые, но бесполезные ответы и встраиваться в реальный бизнес‑процесс, а не жить отдельным экспериментом «для демонстрации руководителю».
Если задача — не просто пообщаться с нейросетью, а научиться превращать LLM в рабочий инструмент для анализа данных, генерации контента и автоматизации процессов, этому посвящён курс OTUS «Промпт‑инжиниринг: внедрение ИИ в бизнес‑процессы». На курсе разбирают, как проектировать промпты под конкретные сценарии, работать с ограничениями моделей и собирать решения, которые можно повторять, проверять и улучшать.
Познакомиться с подходом можно на бесплатных открытых уроках курса. Они помогут оценить формат обучения, посмотреть, как преподаватель‑практик разбирает реальные задачи, и понять, где LLM может снять рутину уже сейчас — в работе с данными, текстами и контентными процессами.
➊ 4 июня в 20:00. «Продвинутый анализ данных с помощью LLM». Записаться
➋ 16 июня в 20:00. «Автоматизация креативного контента». Записаться
Комментарии (4)

jojozuka
14.05.2026 16:17Внедрить ИИ за один день, не имея постановки задачи, это примерно как собрать водопровод за 1 день, не понимая для чего, кому и где. Берём насос, трубы, краны, фильтры, всё скручиваем, зовём начальника - смотри - прототип водопровода! Посреди комнаты, без воды и не подключённый ни к чему.

koptelovak Автор
14.05.2026 16:17Нет, ну вода в нашем "водопроводе" уже есть :), несмотря на прототип
Так что журчать будет.... может и тепленькая пойдет....Просто бизнес часто постановку задачи сделать не может пока не увидит, как выглядит водопровод.... он же его еще никогда не видел...
bellkagold
Интересно, что самый частый вопрос после такого прототипа — "а оно думает или притворяется?". Работаю с локальными моделями уже год, и этот вопрос меня так захватил, что я написала НФ-повесть про андроида, который сам пытается на него ответить. Но по делу: статья толковая, особенно про "прототип — это не продакшн".
koptelovak Автор
Спасибо за оценку! Есть ощущение, что пока не думает, а притворяется. Если начнет думать, нам всем хана :)