Привет, Хабр! Меня зовут Максим Панфилов, я ИТ-предприниматель. Моя история в разработке началась 25 лет назад с программирования, но со временем переросла в управление собственной веб-студией. Последние лет 15 я не писал код, полностью переключившись на менеджмент и бизнес-процессы. Я думал, что мои дни в роли разработчика остались в прошлом, пока не случилась революция больших языковых моделей.
Внезапно у меня появилась возможность вернуться к созданию продуктов своими руками. Это возвращение ощущалось так, будто я обрёл сверхспособности. Задачи, которые раньше требовали бы команды и недель работы, теперь я решаю за считанные дни. И это не просто пет-проекты для развлечения, а реальные рабочие веб-сервисы, некоторые – с десятками тысяч пользователей.
Главным инструментом, моим «костюмом Железного человека», стала среда разработки Warp. За последний год я перепробовал всё, где есть AI: Cursor, Windsurf, Replit и другие. Но именно Warp позволил мне в одиночку за два месяца полностью переписать и модернизировать сложный легаси-проект и довести до продакшна несколько новых.
В этой статье я хочу подробно рассказать, почему терминал в основе среды ИИ-разработки — это удобнее, чем текстовый редактор, как правильно «думать» вместе с LLM, и какие конкретные rules, MCP и фреймворки помогают мне в разработке, ускоряя её в разы.
Warp: среда разработки в терминале с ИИ
Большинство современных AI-инструментов, таких как Cursor или Windsurf – это форки IDE VS Code с панелью чата с ИИ: в их основе лежит текстовый редактор. Warp шел другим путем: изначально это был клиент для терминала, куда встроили ИИ.

По сути, команды терминала - это «шорткаты» для определенных действий, которые мы просим выполнять машину: то есть тоже язык. Но благодаря AI в терминале нет необходимости в том, чтобы запоминать «словарь» команд – LLM выступает переводчиком с естественного языка.
Режимы работы Warp
Процесс разработки так или иначе активно задействует терминал: сборка, git, ssh, docker, запуск скриптов, управление зависимостями. Warp не пытается изолировать вас от этого — он погружает вас в эту среду и усиливает ее.
Главная магия происходит в едином поле ввода. Оно легко переключается между двумя режимами:
Терминал: Для выполнения стандартных команд. Warp здесь предлагает умные автодополнения и запоминает часто используемые команды в контексте конкретных директорий проектов, что ускоряет работу: например, по какому адресу подключаться к серверу, как запустить проект, какие команды для git – достаточно нажать на клавиатуре стрелку вправо, и текст из подсказки заполнится в поле ввода.
AI-агент: Для общения с языковой моделью на естественном языке – в ответ на ваши промпты Warp будет писать код или выполнять команды в терминале. Если кому-то нравится надиктовывать текст, то есть возможность включить режим расшифровки аудио (я его отключил, мне удобнее печатать).
Warp достаточно умен, чтобы в большинстве случаев автоматически определять, что вы хотите. Начинаете вводить git push... — он понимает, что это команда. Пишете по-русски «объясни мне этот bash-скрипт» — он активирует AI. Это создает абсолютно бесшовный, непрерывный рабочий процесс, где AI — не отдельное окно, а естественное продолжение вашей командной строки. Есть удобный шорткат Cmd+I (на MacOS) для переключения между режимами.
При этом Warp состоит не только из командной строки – в интерфейсе можно открыть и файловый менеджер, и текстовый редактор (не такой крутой, как у подобий VS Code, но для того, чтобы поправить мелочи за ИИ хватает).
Warp как ваш личный DevOps
Одно из преимуществ Warp как терминала — его возможности не ограничиваются локальной машиной. После подключения по ssh Warp «прокидывает» своего агента на удаленный сервер — это называется "warpify session".
Это даёт возможность для автоматизации типовых DevOps-задач:
Настройка Nginx: Добавь новый конфиг для домена example.com с проксированием на порт 3000 для проекта из папки /folder.
Работа с Docker: Покажи логи контейнера 'my-app' за последний час и найди все ошибки.
SSL-сертификаты: Выпусти и настрой Let's Encrypt сертификат для домена my-app.com.
AI видит файловую структуру сервера, может читать конфиги и выполнять команды. Для простых и средних проектов это практически полностью заменяет необходимость в отдельном DevOps-инженере.
Далее я расскажу про принципы, инструменты и методы разработки с использованием ИИ, к которым я пришел за последние полгода. В целом, их можно применять не только в Warp – это общие подходы, которые будут работать в любой среде разработки с LLM.
Context is king
Самое важное, что я осознал за время работы с AI в разработке: единственное, чем мы можем и должны управлять — это контекст. Качество работы любой модели напрямую зависит от того, насколько полный и релевантный контекст мы ей предоставляем. Все «агенты» и «инструменты разработки» по сути являются лишь продвинутыми менеджерами контекста для LLM. Вот несколько примеров, как можно управлять контекстом в Warp.
По сути весь промпт-инжиниринг и управление контекстом решают задачу направления и ограничения LLM при работе, чтобы она меньше выдумывала от себя, то есть галлюцинировала.
Контекст проекта – файл warp.md
Находясь в папке с кодом проекта достаточно выполнить команду /init, чтобы Warp проиндексировал кодовую базу и создал специальный файл warp.md. В нём содержится информация о стеке технологий, структуре директорий, основных зависимостях. Туда же вы можете добавить в него указания о своих архитектурных предпочтениях и другие моменты вашего код-стиля и принципов разработки для данного проекта – всё это LLM будет автоматически брать в контекст, когда вы будете ставить ей задачи.
Правила для кодинг-агента
Как и в других средах разработки с LLM, управлять поведением AI в Warp помогают настраиваемые правила – Rules. Вы можете задать как общие правила для всех своих проектов, так и специфические для каждого отдельного.
Поскольку я почти все пишу на Node.js и TypeScript, у меня есть глобальный набор правил под этот стек, которому агент следует всегда:
Архитектура: Всегда использовать подходы SOLID и Clean Architecture при проектировании решений.
Типизация: В конце задачи проверять ошибки компиляции TypeScript, особенно в части строгой типизации.
Комментарии: Обязательно оставлять инлайн-комментарии в коде. Это помогает не только мне быстрее разбираться в том, что он написал, но и самому AI, так как он использует эти комменты для лучшего понимания контекста при последующих задачах.
Запреты (Deny List): У меня есть строгое правило никогда не трогать файл
.env. Он может работать с.env.example, но рабочий.envему трогать, удалять или редактировать запрещено.Согласование: Любые изменения, связанные со структурой базы данных, агент должен проводить только с моего согласования.

MCP Context7
Также есть возможность подключать внешние источники данных через MCP (Model Context Protocol). Самый главный из них для меня — это Context7, библиотека самой актуальной документации по десяткам тысяч фреймворков и библиотек, адаптированной для использования LLM.
Это критически важно, потому что модели, даже самые новые GPT-5 или Claude Sonnet 4.5, имеют «отсечку по знаниям» – их внутренняя «память» заканчивается на дате где-то за полгода до выпуска. Они могут не знать о выходе, например, Nuxt 4, и будут писать код по старым гайдам для Nuxt 2. Подключив в настройках MCP Context7, я просто добавляю в правила «всегда консультируйся с Context7», и агент идет в эту библиотеку за самой свежей документацией, что гарантирует использование актуальных версий и подходов.

Режим планирования и документация
Большие проекты, вроде полного рефакторинга кодовой базы или создания сложного веб-сервиса, нельзя выполнить одним промптом. Ключ к успеху — это Spec-Driven Development – разработка на основе спецификаций.
Мой обычный рабочий процесс над крупными задачами выглядит так:
Создание спецификации: Я начинаю с промпта-шортката: «Спроектируй...». Для AI это триггер, что нужно составить подробную документацию по функциональности, которую я описываю, и записать ее в
.mdфайл в папкуdocs/.Режим планирования: Для сложных задач Warp предлагает «режим планирования» (Planning). Я прошу AI составить пошаговый план внедрения (чек-лист) прямо в этом файле документации.
Контроль выполнения: Я даю команду: «Приступай к реализации по этому плану и отмечай прогресс в этом же файле по ходу выполнения».
Это помогает удерживать LLM в рамках контекста. Даже если AI «забивает» свое окно контекста и начинает новый диалог, он всегда может вернуться к файлу с документацией и отметкой прогресса, посмотреть, что уже сделано, а что нет, и продолжить работу ровно с того места, где остановился. Я же, как тимлид, просто проверяю этот docs/ файл и правлю спецификацию, если AI что-то понял не так, пока не согласую ее и не пущу в работу.

Контекст диалога
Когда вы ведете длинный диалог, контекстное окно модели начинает заполняться: в него попадают как ваши промпты и другие входные данные, так и ответы LLM и код, который она пишет. Окно контекста (context window) измеряется в тысячах токенов: например, 200 тысяч для Claude Sonnet или даже миллион для Gemini. Но при активной разработке на проектах с разветвленной архитектурой даже большое окно контекста заполняется. Тогда Warp незаметно для пользователя автоматически суммирует предыдущую беседу и уже эту выжимку использует как контекст, очищая контекстное окно, при этом сохраняя ключевую информацию из истории диалога.
Тем не менее, иногда качество ответов может ухудшаться, если контекст становится слишком большим. В таком случае можно попросить записать саммари по проделанной работе в отдельный md-файл, затем вручную начать новый диалог (есть шорткат Сmd+Shift+N) и передать весь необходимый контекст заново – "на чистую голову" модель может начать думать лучше, чем в перегруженном старом диалоге.
Ещё есть удобные функции дополнения контекста из результатов работы команд терминала:
выделите любой текст в терминале – он автоматически добавится в контекст следующего промпта (над полем ввода появится плашка "selected text attached"),
также в правом верхнем углу каждого блока с результатами работы команды терминала есть кнопка "Attach as Agent Mode context" – она добавляет в контекст,
шорткат
Cmd+↑добавляет в контекст весь текст из результата последней команды терминала.

Скриншоты
При работе с фронтендом удобно просто копи-пастить скриншоты интерфейса в поле запроса – все модели в Warp мультимодальные, то есть могут обрабатывать изображения. Это упрощает задачу, когда нужно показать, как выглядит текущий UI, который нужно поправить, или передать сложную схему, не тратя время на ее словесное описание.
Выбор языковой модели
В Warp доступны все ключевые на текущий момент языковые модели, за исключением OpenAI Codex и моделей Grok.
Какие выводы я сделал по использованию языковых моделей (актуально на ноябрь 2025 года):
Claude 4.5 Haiku: У меня установлена в настройках по умолчанию. Для быстрых, простых задач: внести небольшую правку, объяснить фрагмент кода, выполнить команду в терминале. Самая быстрая и дешевая.
GPT-5 High Reasoning: Мой основной выбор для сложных архитектурных задач. Рефакторинг, проектирование новых модулей, анализ взаимосвязей в большой кодовой базе. На моем опыте, именно GPT-5 лучше всех справляется с удержанием «в уме» сложной, многоуровневой логики и работой с документацией.
Claude 4.5 Sonnet: Тоже подходит для сложных задач. Не так эффективно, как GPT-5, зато быстрее. Главное отличие – использует emoji в ответах!
Claude 4.5 Sonnet (thinking): Вариант флагманской модели от Claude с размышлениями. Это главный конкурент GPT-5 High Reasoning в моём списке. Думает быстрее и часто хорошо справляется, но всё же даю ему второе место.
Gemini 2.5: Идеален для работы с текстом, когда нужен копирайтинг, но с кодом он справляется хуже GPT или Claude, даже несмотря на заявленное окно контекста в 1 миллион токенов.

На сложных задачах я всегда выбираю GPT-5 High Reasoning: на ключевом проекте, о котором я расскажу ниже, у меня было несколько моментов, когда я решил поэкспериментировать и доверил задачи сложного рефакторинга модулей Claude Sonnet и Gemini – обе модели ушли не туда, и пришлось откатывать изменения. С GPT-5 я успешно завершил задуманное.
Кейс: воскрешение из легаси-ада за два месяца
Чтобы не быть голословным, расскажу о реальной задаче. Мой пет-проект «OK, Bob!» — трекер задач в Telegram с мини-аппом и веб-версией — за несколько лет превратился в монстра. Он состоял из трех разных репозиториев (бек на Nest.js, фронт на Vue.js и бот на Telegraf.js), написанных в разное время разными разработчиками. И если фронт мы успели отрефакторить, то кодовая база бека страдала от всех известных болезней: спагетти-код, отсутствие единого стиля, устаревшие зависимости, три разные версии API, работающие одновременно. Развивать это было болью, а пользовательская база росла, и мне хотелось продолжать улучшать продукт.
Я поставил себе амбициозную задачу: переписать бек с нуля с помощью LLM. И сделал это в одиночку за два с небольшим месяца, будучи, по сути, «ржавым» кодером.
Шаг 1: Аудит и планирование
Первое, что я сделал — попросил AI стать моим архитектором и отревьювить код модуль за модулем. Базово начинал с команды:
Проведи аудит модуля src/module/users. Используя документацию из context-7 по Nest.js и принципы Clean Architecture, составь подробный план рефакторинга.
В результате я получал подробный Markdown-документ, который содержал:
Цели и задачи рефакторинга
Предложенная новая файловая структура модуля
Детальный пошаговый план работ, разбитый на этапы
Описанные риски и критерии приемки
Такой подход к разработке с AI называется Spec-Driven Development или «разработка, основанная на спецификации». И это единственный способ, которым можно справляться с сложными задачами, требующими тщательного планирования и архитектуры.

Шаг 2: Итеративная реализация
Далее я работал итерациями, давая команды вида:
Приступай к реализации этапа 1 из файла
docs/users/refactoring_plan.md. Отмечай прогресс по ходу выполнения в этом же файле.
AI начинал писать код, а я выступал в роли ревьюера: в warp можно установить режим «автоприёмки», но это не всегда подходит, особенно если задача сложная. По умолчанию все изменения в файлах нужно согласовывать: если что-то не устраивает, можно отредактировать вручную или дать уточняющие инструкции для LLM.

Шаг 3: Автотесты
Разработка проекта с множеством взаимосвязей внутри кодовой базы требует тщательного подхода к тестированию. С помощью LLM удобно писать unit-тесты для бекенда. Для моей задачи я также сделал покрытие e2e-тестами для сравнения идентичности работы старых и новых методов API, которые были написаны с ИИ.
Сейчас на проекте более 700 автотестов. Они стали моей страховкой и позволили проводить рефакторинг с уверенностью, что я ничего не сломал.

Результат
Чуть больше, чем за два месяца я получил:
Единый репозиторий для бекенда и бота, без необходимости их связки через API
Архитектуру модулей, построенную на принципах Clean Architecture: изоляция логики, разделение на сервисы, контроллеры, репозитории для взаимодействия с базой данных, валидаторы, DTO, интерфейсы и абстракции
Оптимизированное взаимодействие между модулями (вместо медленных API-вызовов между сервисами теперь это внутренние вызовы через порты)
Полное покрытие кода тестами
На этой основе уже можно было продолжать развивать продукт. Добавление новых функций пошло г��раздо проще: за несколько недель я запустил новую систему per-seat тарификации, прикрутил GPT в бота для постановки задач, закрыл старые баги, ну и в целом подчистил накопившийся беклог. Сейчас работать с проектом одно удовольствие, а скорость релизов возрасла в разы.
Фреймворки – ещё один способ управлять контекстом
Напомню, что одна из главных задач применяющего ИИ разработчика – минимизировать галлюцинации LLM. Поэтому для проектов, которые я начинаю с нуля, я использую фреймворки и инструменты, которые хорошо поддаются инструкциям и имеют четкую структуру. Это еще один отличный способ задать рамки при работе с ИИ.
Next.js
Недавно попалась на глаза статья Dead Framework Theory про то, что React – это уже не фреймворк, а платформа. Все LLM-ассистенты по дефолту генерят код на React – просто потому, что на нем написано 80% веба, на котором они учились. Поэтому Next.js – сейчас очевидный выбор, чтобы выжать из AI-агентов максимум при разработке веб-сервисов (особенно, если нужен SSR).
Payload CMS
Но под Next.js нужна админка для бека. Тут после энного количества экспериментов я остановился на Payload CMS – максимально гибкой и простой для быстрого запуска. Вот основные преимущества:
Конфигурация в коде (Code-First): Схема данных, коллекции и конфигурация описываются кодом на TypeScript. Это обеспечивает версионирование и строгую типизацию.
Автоматические миграции: Встроенные инструменты для генерации и управления миграциями базы данных через CLI упрощают изменение схемы данных.
Встроенный ORM: Payload использует Drizzle ORM для работы с БД, предоставляя удобный и типизированный доступ к данным. ORM – это абстракция над базой данных, которая упрощает взаимодействие и делает код более предсказуемым и безопасным.
REST и GraphQL API из коробки: Система автоматически генерирует REST и GraphQL API на основе схемы данных.
Система хуков (Hooks): Позволяет встраивать собственную логику событий на разных этапах жизненного цикла документов (до и после сохранения, удаления, чтения).
Расширяемая админ-панель на React: Админ-панель построена на React и полностью кастомизируется. Можно добавлять собственные React-компоненты для полей, представлений или целых страниц.
Гибкая аутентификация и контроль доступа: Встроенная система аутентификации и гранулярного контроля доступа на уровне полей и операций (CRUD), которую можно расширять и адаптировать.
Полная поддержка TypeScript: Обеспечивает строгую типизацию во всей системе, от конфигурации до API, помогая отлавливать ошибки на этапе разработки.
Live Preview и Hot Reload: Позволяет видеть изменения контента в реальном времени на фронтенде и обеспечивает мгновенное обновление при разработке без перезагрузки сервера.
Shadcn Blocks
Для быстрого запуска фронтенда я открыл для себя ShadcnBlocks (на базе Shadcn UI). Это не просто библиотека компонентов, а набор готовых, стилизованных блоков (шаблонов).
Мой воркфлоу: я захожу в каталог блоков, выбираю подходящий (например, «Hero Section»), копирую код и вставляю его в Warp с инструкцией: «Сделай мне раздел на странице на основе этого кода, контент возьми отсюда». Не нужно верстать с нуля, при этом кастомизация с помощью Tailwind CSS ничем не ограничена.
Так, например, я сделал сайт для нового направления своего бизнеса, связанного с внедрением GenAI – panfilov.consulting.

Refine: Мой выбор для админок и внутренних инструментов
В какой-то момент мне понадобилось быстро создать простую, но функциональную админку для управления кейсами студии. Мои поиски привели меня к Refine. Это оказался идеальный инструмент для таких задач: это фреймворк на базе React, специально созданный для быстрой сборки админ-панелей, дашбордов и внутренних инструментов.
Что меня в нем привлекло:
Агностицизм к UI-фреймворкам: встроенная поддержка популярных библиотек, таких как Material UI, Ant Design, Chakra UI, Mantine, а также возможность использовать любой собственный дизайн или TailwindCSS.
Автогенерация CRUD-интерфейсов: можно автоматически создавать CRUD-страницы на основе структуры данных.
Встроенные компоненты: Refine идет с огромным количеством готовых решений. Например, в нем уже встроена авторизация (включая логин через Яндекс, который привязывается очень просто), управление правами доступа и ролями (администратор, менеджер), инвайты и так далее.
Интеграция с данными: БД на PostgreSQL, подключение к S3-хранилищу для файлов и CDN для их раздачи.
В итоге из внутреннего инструмента для управления кейсами студии я запилил ещё один пет-проект: я прикрутил ИИ для сбора инфы по кейсам, сделал лендинг на Payload CMS – и получилась «Кейс-Платформа», ИИ-ассистент и админка для управления кейсами.

Выводы
Возвращение в разработку после 15-летнего перерыва могло стать болезненным опытом, но благодаря инструментам вроде Warp оно превратилось в увлекательное приключение. Это не просто ускорение работы – это фундаментальное изменение парадигмы. AI становится вашим напарником, младшим разработчиком, архитектором и DevOps-специалистом в одном лице.
Вы перестаете тратить время на рутину, синтаксис и boilerplate, и концентрируетесь на самом важном — на архитектуре, логике и продукте. Если вы давно не кодили или чувствуете, что «заржавели» — сейчас лучшее время, чтобы вернуться. Ваши сверхспособности уже ждут вас.
Я не написал про ценообразование Warp, потому что как раз сейчас они его меняют и я еще не разобрался с новой тарифной сеткой. Единственное, что могу сказать: в предыдущей конфигурации тариф Lightspeed за $225 в месяц отбился у меня минимум х10, а скорее всего – х100. За 20 тысяч рублей в месяц я мог бы купить максимум 10-15 часов работы middle разработчика. С Warp же я получил результат, эквивалентный трудозатратам команды с бюджетом в несколько миллионов рублей.
Общие рекомендации по работе с LLM
Управляйте контекстом. Качество работы модели напрямую зависит от полноты и релевантности предоставленной информации. Используйте все возможности для его уточнения: файлы с описанием проекта (
warp.md), настраиваемые правила (Rules), внешние базы знаний (MCP Context7) и даже скриншоты для задач по фронтенду.Используйте разработку через спецификации (Spec-Driven Development). Для больших задач не пытайтесь всё сделать одним промптом. Сначала попросите AI составить подробный план и документацию, согласуйте их, и только потом приступайте к пошаговой реализации.
Выбирайте модель под задачу. Экспериментируйте и подбирайте оптимальный вариант: используйте быстрые и дешевые модели (Claude Haiku) для простых правок, а мощные и «думающие» (GPT-5 High Reasoning) — для сложного рефакторинга и проектирования архитектуры.
«Заземляйте» модель с помощью фреймворков. Инструменты с четкой структурой (Next.js, Payload CMS, Refine) и ORM задают рамки, в которых AI работает более предсказуемо и меньше галлюцинирует.
Делегируйте, но контролируйте. Выступайте в роли архитектора или тимлида. Делегируйте AI рутину и написание boilerplate-кода, но всегда проводите ревью и не используйте «авто-приёмку» для сложных задач.
Пишите автотесты. Это ваша страховка при рефакторинге и разработке. Попросите AI помочь с написанием unit- и e2e-тестов, чтобы быть уверенным, что новые изменения ничего не сломали.
Спасибо за внимание! Если было интересно меня читать, ещё я делюсь опытом у себя в Telegram-канале и всегда готов обсудить с вами вопросы там или здесь в комментариях.
Комментарии (29)

alexss12
07.11.2025 13:27Вы упомянули, что для критичных задач доверяете только GPT-5 High Reasoning, потому что Claude и Gemini «ушли не туда». Можете рассказать конкретный пример, где модель «сошла с дистанции»: какие именно архитектурные решения она предложила и почему это оказалось невозможно откатить без боли? Интересно понять, где проходит тонкая грань между «надо просто доуточнить промпт» и «нужно срочно переключать модель, пока не поздно».

mpanfilov Автор
07.11.2025 13:27Спасибо за вопрос! На долгой дистанции Claude может выдумывать несуществующие сущности, даже с учетом разработки на основе спецификации, добавлять от себя не нужную функциональность – в общем, галлюцинировать. И Gemini тоже, несмотря на заявленный миллион токенов контекстного окна – чем длиннее и комплекснее задача, тем он хуже удерживает её в рамках изначальной архитектуры.

alexss12
07.11.2025 13:27Есть такое. Мне один раз claude сказал: у меня не получается сделать это на vue, давай перепишем весь проект на react. И пошел переделывать - хорошо, что я это вовремя заметил

Q3_Results
07.11.2025 13:27А где DeepSeek?

alexss12
07.11.2025 13:27А его в warp не подключить. Там выбор только из определенного количества моделей. Кастомный endpoint для запросов разработчики собираются делать, но пока не реализовали

aladkoi
07.11.2025 13:27Все хорошее когда-нибудь заканчивается. Для warp - это повышение цен и снижение в два раза запросов по тарифным планам. Теперь это уже перешло из разряда "халява" в дорогое удовольствие. Это коснулось всех крупных llm. Крупные компании в силу сложившегося положения задумываются о переходе на "классический" подход в разработке ПО. Новый порядок цен на доступ к облачным ИИ технологиям заставит сильно поумерить аппетиты в их использовании в разных проектах начиная с RAG и прочим технологиям на их основе. На сегодняшний день "флаг" подхватят китайцы с их дешевыми и бесплатными тарифами на тот же qwen-code.

Bardakan
07.11.2025 13:27а они не смогут бесконечно поднимать цены, потому что пользователи или уйдут к конкурентам, или не смогут использовать вайбкодинг в принципе

mpanfilov Автор
07.11.2025 13:27да по идее когда конкуренция высокая наоборот цены снижаются. всякие https://kiro.dev/ и https://qoder.com/ поджимать должны

aladkoi
07.11.2025 13:27Я пробовал kiro - там ценник зашкаливающий. Все это дорого для вайбкодинга.

Derfirm
07.11.2025 13:27Кто
Давно киро пробовали? Они сильно упростили биллинг и расчетов токенов, многократно снизив стоимость, рекомендую дать ещё шанс.

mpanfilov Автор
07.11.2025 13:27С этими кредитами теперь у всех разбираться — непонятно как: у всех свой курс за токены? У каждой ide разный курс за разные модели?

mpanfilov Автор
07.11.2025 13:27Крупные же могут себе позволить On-Premise модели, Qwen3 так вообще по идее на уровне может быть, тем более когда вопрос в приватности данных.
А по warp – видимо, придется комбинировать: оставить его для терминала, а код в Windsurf писать (мне он больше чем курсор зашёл).
aladkoi
07.11.2025 13:27Там все проблема сейчас в "зашкаливающем" ценнике на доступ к моделям типа Claude и пр., что по затратам не тянут сейчас даже крупные компании. Локальные модели для кодинга вообще не подходят. Чисто "побаловаться". По новостям у производителя Claude убытки каждый квартал более 100мил., баксов. Поэтому и цены идут вверх, соответственно все поставщики ai агентов их тоже поднимают. Все это грозит обвалом ai технологий. Раньше warp за 18$ в месяц давал 2500 запросов, которых при активном использовании хватало дней на 5. Сейчас у них за 20$ только 1500 запросов. Как говорят, почувствуйте разницу. У остальных поставщиков ai агентов цены выше еще в 2-3 раза. Если размышлять про rag и различных ai консультантов в облаке, где подключены разные ai модели с тарифицируемым трафиком, то по таким сегодняшним ценам на модели никто пользоваться этим не будет.

Eugene_Burachevskiy
07.11.2025 13:27Удивил ваш комментарий про 1500 запросов, особенно в свете того как курсор вообще отказался от лимитированных запросов и теперь просто продает токены по цене апи.
Почитал - там все же не запросы а АИ кредиты, чем больше контекста и тяжелее модель - тем больше тратится кредитов. Не подскажите, сколько их уходит на достаточно типизированный запрос, скажем 200к токенов для Сонет 4-4.5?

aladkoi
07.11.2025 13:27Раньше 2500 хватало примерно на 5 дней при активном кодинге. 1500 - это вообще ни о чем. Многие ai агенты в базе вообще предлагают 250- 500 запросов. Улетают точно также. Напрямую покупать токены на Claude - можно сразу "разориться". Сейчас пытаюсь работать с qwen-code. Китайцы для своего ai агента дают 2500 ai запросов в день бесплатно. Разработчики в текущей ситуации предлагают начальный код делать на "тупых" бесплатных моделях, а потом "вычищать" его на дорогих.

eigrad
07.11.2025 13:27Цены за те же возможности падают в два раза чуть ли не каждые полгода.

aladkoi
07.11.2025 13:27Что-то незаметно при текущем их повышении в 2 раза. Даже разработчики в codex и cursor "за голову хватаются" и не понимают, что делать дальше.
Всё резко поменялось
С начала ноября 2025 появились лимиты.
Два вида: пятичасовое окно и недельная квота.
Эти лимиты чертовски быстро тают.На форумах и в реддите в последние дни - типичная картина:
«за час плотной работы сгорело почти всё»,
«недельный лимит - за день»,
«после апдейта лимиты стали строже».
И это не единичные истории - таких тредов сейчас много.А ведь раньше лимитов не было - теперь они часть продукта.
ivman
Сорян, но ты не написал ровным счётом ничего, что отличало бы warp от vs code со встроенными агентами и mcp
mpanfilov Автор
Для меня главное преимущество – плотная связка ИИ с терминалом + бесшовное переключение между командной и промпт-строкой. Это прямо принципиально другой UX, чем выстроенный вокруг IDE с редактором в основе, именно это для меня зашло больше всего.
eigrad
Хз как именно, но статья бы сильно выиграла если бы получилось это хорошо раскрыть. Как получилось в принципе тоже с удовольствием прочитал.
mpanfilov Автор
Да, наверное все же увлёкся рассказом в целом о тех подходах к разработке с ллм, которые у меня сработали.
А вот уже после публикации вспомнил, что забыл рассказать: вкладки!! Табы как в браузере, в каждом окне свои, и когда несколько проектов с разными репозиториями очень удобно навигировать. И вкладки ещё переименовывать можно.
Так если обобщить ТОП-3 фичи warp для меня:
Не мешает постоянно открытый текстовый редактор — поле ввода и история команд / диалога с ии в основе, ничего лишнего
Переключение терминал / промпт бесшовное с возможностью передавать контекст из одного в другое и автоподсказками
ИИ на удаленном сервере: очень помогает когда падает на проде что-нибудь - сам идёт, смотрит логи, фиксит, с учетом окружения, а не только кода проекта; ну и настройка базовая серверного по упрощается