Недавно вышло видео “Playwright v1.56: From MCP to Playwright Agents” и на первый взгляд оно выглядит как революция:
ИИ-агент, который сам понимает, что тестировать, сам пишет тесты, сам их чинит. Никаких локаторов, никаких апдейтов при каждом изменении DOM - просто запускаешь и смотришь, как тесты выполняются.
Но если вы хоть раз поддерживали живой тестовый проект в крупной компании, то вы уже чувствуете, где тут подвох.
? Что обещают
Создатели Playwright Agents говорят о новом уровне автоматизации:
Агент анализирует интерфейс и сам предлагает тест-план.
Он пишет тесты по этим планам.
Если что-то ломается, то он “лечит” их, не спрашивая вас.
Всё это можно запускать прямо из VS Code или CLI, как будто рядом сидит junior, который никогда не устает.
Смотрится мощно. Особенно если вспомнить, сколько времени уходит на банальное “исправь селектор, перезапусти пайплайн, проверь отчёт”.
⚙️ А теперь о реальности

-
Сложный UI ломает магию
В демо всё работает, пока интерфейс простой. Но в реальном проекте: React + динамический контент + кастомные элементы + Shadow DOM и агент тут же теряет уверенность. Он может “исправить” тест, но привязаться к случайному элементу, который просто похож на нужный. Да, тест зелёный, но вы проверяете уже не то.
-
Контекст важнее логики
Тестирование - это не только клик по кнопкам. Это понимание, почему мы вообще тестируем этот сценарий, какую бизнес-ценность он покрывает. Агенту всё равно. Он чинит, но не думает. И в этом его сила и слабость.
-
CI/CD и политика доступа
Попробуйте встроить такого агента в продакшен-пайплайн крупного банка или финтеха. Там каждый пуш проходит через ревью, аудиты, SLA. Идея, что “ИИ сам поменял тест”, вызывает не радость, а тревогу.
-
Стабильность и зрелость
Пока агенты - эксперимент. Даже в комментариях под видео разработчики жалуются: примеры не работают, команды подвисают, модель не отвечает. То, что в демо выглядит гладко, в реальности часто ломается на мелочах: версии Node, ограничения сети, прокси, нестандартные HTML-структуры.
? Где польза есть уже сейчас
Если у вас pet-проект, демо или внутренний прототип, то Playwright Agent действительно может помочь. Он сгенерирует шаблон тестов, быстро покажет, что и где падает, создаст “скелет” покрытия. Это отличный инструмент, чтобы поиграться, показать команде направление, провести внутренний митап.
Но если вы отвечаете за надёжность тестов в CI/CD, где каждый false-positive - это деньги и репутация, то пока лучше смотреть на это как на исследование, а не как на инструмент в прод.
? Мысль напоследок
Playwright Agents - это не магия, это репетиция будущего. ИИ пока не умеет думать как тестировщик. Он не чувствует, когда “что-то не так”, не замечает нестыковки между экраном и логикой, не понимает намерения бизнеса. Но мы видим первый шаг туда, где тесты станут живыми: будут учиться, адаптироваться и эволюционировать вместе с продуктом.
Мы ещё не там. Но направление выбрано правильно. Магия впереди ✨
? Если тема автоматизации, тестирования и ИИ вам интересна - подписывайтесь на мой телеграм-канал https://t.me/it_vadimqa. Там я делюсь практикой, кейсами и инструментами, которые упрощают жизнь QA-инженерам.
AleksSharkov
У нас тоже не взлетело на деревьях и таблицах.
Возможно решением этой проблемы как раз является связка MCP разных сервисов
1. MCP сервис справки - чтобы LLM могла почитать что за продукт, для чего он нужен, какие у него есть кнопочки
2. MCP Playwright - чтобы LLM могла в нем этот продукт потыкать
Тогда есть шанс