Почему технический прогресс превращается в системный коллапс?

Всё дело в парадоксе Джевонса — эффекте, при котором повышение эффективности не ведёт к экономии, а запускает цепную реакцию роста.

И в эффекте Черномырдина — когда «лучше» на бумаге становится «как всегда» в реальности. Это не философия. Это — диагноз.

Узнайте, как эти феномены работают в ИТ-проектах, почему «оптимизация» часто бьёт по людям, и как построить систему, которая не разрушает то, что должна улучшать.

Чек-лист для аудита проекта внутри.


В 1865 году британский экономист Уильям Стенли Джевонс опубликовал работу, в которой описал странный феномен. Он заметил, что с изобретением более эффективных паровых двигателей, которые потребляли меньше угля на единицу работы, потребление угля в стране не сократилось — а резко выросло. Казалось бы, логика проста: чем эффективнее машина, тем меньше топлива она требует. Но произошло обратное. Почему? Потому что эффективность сделала паровые двигатели выгоднее, их стали внедрять повсеместно — в шахтах, на фабриках, в транспорте.

Экономия на одном уровне породила рост на другом. То, что должно было сберечь ресурс, на самом деле расширило его использование.

Этот эффект, позже названный парадоксом Джевонса, стал классическим примером того, как технологический прогресс не всегда ведёт к ожидаемым последствиям. Улучшение не решает проблему — оно меняет правила игры. И если не понимать этих правил, можно оказаться в ситуации, когда технический успех оборачивается системным провалом.

Спустя почти два столетия мы сталкиваемся с этим же парадоксом — но уже в цифровом мире. Только теперь вместо угля — время, вычислительные мощности, внимание, нервные клетки. И вместо паровых двигателей — серверы, алгоритмы, автоматизация, облачные платформы. Мы внедряем технологии, чтобы сэкономить, упростить, ускорить.

Но часто получаем обратный эффект: нагрузка растёт, границы стираются, люди устают сильнее, чем раньше.

Этот феномен хорошо описала не экономика, а политика.
В 1990-х Виктор Черномырдин, Председатель Правительства России, подводя итоги экономических реформ резюмировал: «Хотели как лучше, а получилось как всегда». Эта фраза ушла в народ и стала крылатой, потому что она точно попадает в суть: хорошие намерения не гарантируют хороший результат, если не учитывать систему в целом.

Парадокс Джевонса и «эффект Черномырдина» — это не просто курьёзы.
Это предупреждения, что улучшение одного элемента системы не ведёт автоматически к улучшению всей системы.

И в мире ИТ, где каждое решение масштабируется мгновенно, эти эффекты проявляются особенно остро.


Представьте, что вы — архитектор. Вы внедряете кэширование, масштабируете серверы, настраиваете CDN. Система становится быстрее, стабильнее. Вы довольны. Но через месяц нагрузка вырастает в десять раз. Почему? Потому что маркетологи, зная, что теперь «всё выдержит», запускают массовую кампанию. Они не виноваты — они просто пользуются возможностями. А вы не предупредили, что экономия ресурсов порождает амбиции.

Или другой случай: вы перешли на SSD, оптимизировали базу. Теперь отчёты генерируются за секунды. Отлично. Но теперь аналитики строят 200 отчётов в день, каждый — с глубокой аналитикой. База снова тормозит. Почему? Потому что быстрее — не значит легче. Быстрее — значит больше.

То же самое происходит с микросервисами. Вы внедряете гибкую архитектуру, чтобы ускорить разработку. Но команды начинают строить новые сервисы, не согласовывая интерфейсы. Сложность растёт экспоненциально, интеграция превращается в ад. Гибкость, которой вы так гордились, превращается в хаос.

Или возьмём гибкий график и удалёнку. Цель — баланс, меньше стресса. Но на практике люди начинают отвечать в 23:00, встречи назначают в 8:00, а «быстро» превращается в «сейчас». Границы между работой и личной жизнью исчезают. Выгорание растёт. Гибкость, задуманная как свобода, становится ловушкой.

Автоматизация — ещё один яркий пример. Вы внедряете RPA, скрипты, ИИ-ассистентов, чтобы освободить сотрудников от рутины. Но руководство, видя, что задачи выполняются быстрее, добавляет их в два раза больше и увеличивает KPI. В итоге человек работает больше, чем раньше. Благие намерения по экономии времени превращюется в перегрузку.

Даже в UX-дизайне это видно. Вы упрощаете интерфейс, сокращаете клики. Пользователь должен стать счастливее. Но руководство, видя, что «теперь всё просто», добавляет десять новых функций. Интерфейс снова становится перегруженным. Простота порождает хаос.

И, пожалуй, самый тонкий пример — безопасность. Вы внедряете двухфакторную аутентификацию, тренинги, мониторинг. Ожидаете меньше фишинга, больше доверия.
Но пользователи получают по десять предупреждений в день. Они перестают реагировать. Тревожность растёт, а безопасность падает. Защита порождает уязвимость.


Парадокс Джевонса запускает в мире языковых моделей порочный цикл: чем умнее становится модель, тем больше на неё возлагают задач — не для облегчения труда, а для захвата рынков, масштабирования сервисов и роста капитализации. Внедряя LLM как инструмент повышения продуктивности, компании вместо сокращения рутины расширяют функционал: теперь одна и та же модель должна анализировать, генерировать, модерировать, обучать, лечить и убеждать.

Эта гонка за универсальностью заменяет глубину широтой, а интеллект — имитацией. Вместо специализированных решений — универсальные, перегруженные системы, которые начинают давать сбои в сложных рассуждениях, теряют контекст и выдают поверхностные ответы.

Чтобы снизить издержки и ускорить обработку, разработчики прибегают к агрессивной оптимизации — квантованию, дистилляции, прунингу. В результате модель становится дешевле и быстрее, но теряет именно те качества, ради которых её создавали: способность к синтезу, рефлексии, логике.

Так рост эффективности оборачивается не прогрессом, а масштабируемым упрощением — и чем активнее мы используем ИИ, тем сильнее он деградирует под давлением ожиданий. Это и есть суть парадокса Джевонса в эпоху LLM: технология, призванная освободить разум, постепенно делает себя и нас глупее.


Но есть ещё один, глубинный уровень этого парадокса — он касается людей.

Во всех этих примерах мы видим, как технические улучшения перекладываются на человеческий ресурс. Ускорили систему — и сразу увеличили объём задач. Автоматизировали рутину — и тут же повысили план. Внедрили гибкий график — и сделали сотрудника доступным 24/7.

Главная ошибка — это рассматривать людей как ресурс, подлежащий «оптимизации». Как будто их время, внимание, энергия — бесконечны. Как будто «выигранное время» можно бесконечно перераспределять, не считаясь с последствиями.

Но это не так.

Человек — не процессор, который можно разогнать. Он — субъект с ограниченной устойчивостью, с психикой, с личной жизнью, с правом на отдых и автономию.

И когда мы забываем об этом, система даёт сбой не в коде, а в людях.

Пример: в одном проекте автоматизировали 80% рутинных задач разработчиков.
Цель — освободить время на стратегию и архитектуру. Через полгода нагрузка выросла в 2.5 раза: появилось больше релизов, больше требований, больше срочных задач. Команда начала выгорать. Через год — массовый уход сотрудников. Проект «успешно» оптимизировали — и развалили.

Это и есть эффект Черномырдина в чистом виде: хотели как лучше, а получилось как всегда — хуже.


Именно поэтому этические принципы — не просто «гуманизм ради гуманизма».
Они — системные законы устойчивости. И для того, чтобы люди не выгорали иногда приходится искусственно вводить этические ограничители.

Этические ограничители не дают рьяным «оптимизаторам» перегреть систему.

Один из самых строгих этических принципов — категорический императив Канта:

«Относись к человеческой личности и в своей, и в чужой персоне всегда как к цели, никогда только как к средству».

Это не моральная заповедь — это системный принцип.
Если вы относитесь к человеку как к инструменту, вы нарушаете устойчивость всей системы.
Вы можете выиграть краткосрочно — но в долгосрочной перспективе система накапливает напряжение: выгорание, текучка, потеря доверия, снижение качества.

И однажды — прилетает «ответка» от системы.

Не в виде бага. Не в виде взлома. А в виде коллапса команды, провала проекта, ухода лучших специалистов.


Поэтому перед любым проектом, перед любой «оптимизацией», нужно задать не только технические, но и этические вопросы (обещанный чек-лист):

  • Кто и как будет использовать этот выигрыш?

  • Будет ли это время, энергия, мощность — переложено на людей?

  • Где проходит граница между «гибкостью» и «эксплуатацией»?

  • Что мы теряем, чтобы что-то выиграть?

  • Сохраняется ли у человека автономия, достоинство, право на отказ?

Если на большинство этих вопросов нет чёткого ответа — проект рискует повторить эффект Черномырдина. Технически он будет успешным. Системно — нет.


Парадокс Джевонса и эффект Черномырдина — не приговор. Они — предупреждение. Они говорят: технология не решает системных проблем. Она их трансформирует.

Мы не можем строить системы, не задавая вопрос: «Что будет, если это сработает?» Потому что самый опасный сценарий — это успех.
Успех, который превращает экономию в перегрузку, гибкость — в хаос, автоматизацию — в выгорание.

Что делать?

  • Не оптимизируйте в вакууме. Всегда анализируйте контекст: команду, культуру, ожидания.

  • Ставьте лимиты. Экономия ресурсов — не повод для роста. Иногда лучше оставить «про запас».

  • Проектируйте сопротивление. Добавляйте «замедлители»: ручные подтверждения, ограничения по объёму, тайм-ауты.

  • Включайте гуманитарный анализ. Психолог, философ, социолог — не лишний человек в команде. Он видит, что инженер не видит.

  • Измеряйте не только производительность, но и качество жизни. Сколько часов в день человек проводит в уведомлениях? Сколько раз он прерывает отдых ради «быстрой задачи»?

Итог:
Хотели как лучше — получится как всегда,
если не спросить:

«Лучше — для кого?»
«Меньше — чего?»
«Быстрее — за счёт чего?»

Технология не освобождает от ответственности.
Она только увеличивает её масштаб.

Владислав Тарасенко

Доцент МГТУ им. Н.Э. Баумана, более 30 лет занимающийся исследованием и проектирование систем, увлечен философскими основами вычислительной техники и искусственного интеллекта. Специализируется на соединении абстрактных теорий с практической реализацией.

Комментарии (7)


  1. bromium
    15.08.2025 18:16

    Н-да, хорошо философствовать, особенно если не платишь из своего кармана за неэффективность.

    Почему-то не упоминается, а где та грань или критерий, чтобы понять — это лень или «выгорание».


    1. v5093075 Автор
      15.08.2025 18:16

      Я более 30 лет работал и работаю - как руководитель проектов, как руководитель организаций, и как консультант. И есть мне руководитель говорит, что его сотрудник "ленится" или "выгорел", то в 99% случаев проблема не в сотруднике.
      Нельзя всё списывать на «выгорание». Но нельзя и всё списывать на «лень».
      Потому что если система, построенная руководством по логике парадокса Джевонса, сама создаёт условия для выгорания, то она, устами руководства, как правило, называет парадокс «недостатком мотивации». Слышал это много раз.
      Парадокс Джевонса - это самые популярные "грабли" по которым наши руководители ходят как по асфальту.

      Настоящая эффективность — это не когда человек работает больше.
      Это когда он работает с меньшим напряжением, с большим смыслом, с правом на отдых. И если мы не научимся видеть разницу между настоящей эффективностью и оптимизацией "по Джевонсу", мы будем продолжать выжимать из людей то, что уже истощено, нагружать бессмысленными задачами, лишать права на отдых и при этом удивляться, почему «все стали ленивыми».


      1. bromium
        15.08.2025 18:16

        Все говорят , что делать (научиться видеть разницу), но никто не рассказывает, как.

        Что за система, которая создает условия для выгорания?

        Что за система, которая не создает условия для выгорания?

        Медицина, работа в мчс, учителем в школе, работа шахтером в шахте— это системы, создающие условия для выгорания или нет? И что такое выгорание?


        1. Vict777
          15.08.2025 18:16

          "Медицина, работа в мчс, учителем в школе, работа шахтером в шахте— это системы, создающие условия для выгорания или нет? И что такое выгорание?" - Да, это система построенная так что почему то именно в этих специальностях считается нормой "выгорание" (может не совсем верный термин для этих специальностей), психологическое и физическое перенапряжение, но вы специально выбрали такие демонстративные специальности, а работа в горячем сталелитейном цеху, а водитель фуры вынужденный гнать без перерыва на отдых потому что работадатель дал план, а работа на рыболовном сейнере. Во всех этих случаях этого можно избежать.


          1. bromium
            15.08.2025 18:16

            Что такое демонстративные специальности? А какие надо было выбрать «неспециально»?


  1. ruomserg
    15.08.2025 18:16

    Есть еще один важный принцип: эффективность всегда достигается за счет устойчивости. Или, в более наглядных аналогиях - паровой котел наиболее эффективен в последние миллисекунды перед взрывом!


  1. Ndochp
    15.08.2025 18:16

    Всегда так было, всегда так будет (но вообще совпадение по времени одинаковых сюжетов удивило)

    Береста. Неолитическая революция: первая антиутопия
    Рутуб
    ютуб