Я заметил, что вокруг новых AI-инструментов для кодинга (типа Cursor AI, ChatGPT, Claude) идёт жаркая дискуссия. Классические программисты порой скептически смотрят на тех, кто активно пользуется генеративным ИИ вместо ручного кодирования. Некоторые считают таких «вайбкодеров» мешком софта без понимания: мол, они просто копипастят то, что выдаёт ИИ. Попробую разобраться в этом лично: ведь для многих из нас эти инструменты открывают новые возможности.

Что такое вайб-кодинг?

Под «вайб-кодингом» (vibe coding) понимают способ разработки, когда вместо ручного написания кода разработчик формулирует задачу «по-человечески», а большой языковой AI (LLM) генерирует программу. Идею популяризировал бывший руководитель Tesla AI Андрей Карпати. Он пояснил это так:

Это не совсем программирование – я вижу что-то, говорю что-то, запускаю, копирую – и это в основном работает.

Проще говоря, современные AI-инструменты позволяют непрофессионалам собирать приложения простым описанием желаемой функциональности, без знания языков программирования. Википедия даёт такое определение:

Вайб-кодинг – метод программирования с помощью LLM, который позволяет создавать ПО, даже не имея глубоких навыков в кодировании.

Мой опыт и примеры

Я сам использую такой подход. К примеру однажды с помощью Cursor я буквально за несколько минут получил основу простого веб-приложения: генерация маршрутов, базовая структура страниц и запросы к API. Конечно, ИИ «насыпал» код далеко не идеальный – пришлось поправить логику и стили, но основной каркас был готов практически за час, вместо недели ручной работы. Удивительно, но это действительно удобно: как написал один разработчик, «не писать код руками, а проверять его — намного круче. Глаза меньше устают, появляются время и силы думать, а не печатать дефолтный код». Аналогичный опыт описала дизайнер из Medium:

За пять лет в дизайне я наконец создал работающее приложение (Flits)… хотя начинал без навыков кодирования, благодаря AI я стал понимать немного кода – и это невероятно вдохновляет

Такие примеры показывают: с помощью AI можно быстро превратить идею в прототип или даже рабочий проект, даже если ты не суперэксперт в классическом программировании.

Классические программисты смотрят так…

Конечно, не все в индустрии воодушевлены. Бывает, что опытные девелоперы «высказываются»: например, CEO SurfStudio Владимир Макеев пишет, что «вайбкодинг» сейчас для многих – это «брать Cursor, заставлять его писать код за вас и нести в прод – всё, success»; по его словам, так думают 90% вайбкодеров, и он не станет нанимать таких разработчиков. Критики справедливо указывают и на риски: ведь код от ИИ иногда выглядит как «работает, но не спрашивай как». Исследования подтверждают: некоторые AI-сгенерированные решения могут незаметно внедрять уязвимости, вызывать сбои или ошибки, требующие ручной отладки. Партнёр Y Combinator Джаред Фридман отметил, что хотя много стартапов и генерируют до 95% кода с помощью ИИ, их основатели – очень техничные люди:

Каждый из них мог бы написать продукт сам, но год назад он писал бы всё вручную, а теперь 95% сделал AI

Мнение специалистов сводится к тому, что даже при использовании ИИ программисты всё равно нужны как архитекторы и ревьюеры кода. Как подчёркивает партнёр Y Combinator Диана Ху, важно «иметь вкус и опыт», чтобы отличить нормальный код от говнокода. Классические методы и знания необходимы для того, чтобы проверять, дорабатывать и сопровождать результаты AI.

Почему вайб-кодинг хорош

Несмотря на споры, я лично вижу в таких инструментах огромный потенциал. Вайб-кодинг не отменяет классическое программирование, а освобождает время от рутины. Один из авторов на Habr так сформулировал главную мысль:

вайб-кодинг не про то, чтобы забыть программирование, а про то, чтобы переключиться с рутины на идеи

То есть, вместо копирования шаблонов, мы можем сосредоточиться на дизайне архитектуры, глубинной логике и инновационных задачах.

Мне кажется, что благодаря AI можно быстрее учиться и расти. Как признаёт один энтузиаст выше, «эти два года с AI стали концентрированной инъекцией знаний – я вырос как программист больше, чем за предыдущие восемь лет… Для интроверта вроде меня это идеально». И он добавляет, что, возможно, «скоро кодить будут не классические программисты, а те, кто умеет ‘вайбить’ с AI». То есть наступает время, когда творческий подход и умение формулировать задачи станут ценнее, чем умение ручками расставлять скобки. При этом никто не говорит, что «кодерам конец»: специалисты всё равно должны ставить задачи, контролировать качество и внедрять новые решения. Это не делает программистов ненужными: наоборот, те, кто научится работать с AI, будут формировать будущее индустрии.

В результате, на мой взгляд, мы получаем win-win ситуацию. Новички и специалисты в других областях могут быстрее реализовывать идеи благодаря AI-инструментам, а опытные программисты освобождаются от рутинной работы и получают новые вызовы - от архитектуры до финальной доводки системы. В конечном счёте востребованность софта только растёт: более продуктивные разработчики дадут рынку ещё больше полезных приложений (понадобится ещё больше софта!), а ценность человека будет в умении придумать и спроектировать по-настоящему нужный продукт.

Вывод: для меня и многих коллег «вайб-кодинг» — это ещё один инструмент, а не магия или угроза. Да, он несёт с собой свои подводные камни (нужно сохранять ответственность и проверять код), но при правильном подходе открывает новые возможности. Я уверен: программирование не умрёт, но оно развивается. Кто не отвергает AI, а использует его как помощника, получает больше времени для творчества и ценных задач. И это, пожалуй, самое главное.

Для меня вайб-кодинг — это новый инструмент, который помогает творить быстрее. А как думаете вы? Присоединяйтесь к моему Telegram-каналу, там я рассказываю про такие эксперименты и делюсь мыслями о тестировании, ИИ и разработке.

Источники

Комментарии (180)


  1. AVAF
    17.08.2025 11:09

    Делегирование кодинга AI - избавление от пере(пере)переизобретения велосипедов. Более 90% задач кем-то когда-то уже решалось, AI знает почти все возможные варианты этих решений и совсем занедорого их напишет.

    Это самая настоящая "малая механизация" прикладных повсеместных(!) задач.

    У кого раньше не было денег/сил/ресурсов/etc автоматизировать рутину теперь их получили.


    1. Maccimo
      17.08.2025 11:09

      Делегирование кодинга AI — избавление от мозга у делегирующего.


      1. vvzvlad
        17.08.2025 11:09

        Делегирование генерацию машинного кода GCC — избавление от мозга у делегирующего.


        1. Wesha
          17.08.2025 11:09

          Делегирование генерацию машинного кода GCC — избавление от мозга у делегирующего.

          Ну, во-первых, я и без GCC могу.

          Во-вторых, GCC детерминирован: на один и тот же входной файл всегда выдаёт один и тот же выходной. То есть стопроцентно предсказуем (за что и любим). В отличие от.


          1. vvzvlad
            17.08.2025 11:09

            Так я тоже без LLM могу. И?
            Ставим у LLM температуру 0 и он тоже становится детерминированным. И?



            1. Wesha
              17.08.2025 11:09

              Ставим у LLM температуру 0 и он тоже становится детерминированным

              Неправда ваша, дяденька Биденко!

              И?

              И болваном!


              1. vvzvlad
                17.08.2025 11:09

                Ну вон там же написано, что оно может быть детерминированным, просто считать быстрее если не обращать внимание на ошибки округления.

                Ну, типа, если вы обьясните, зачем нужен детерминированный результат работы LLM и какие проблемы он решает, возможно все проникнутся аргументом и перейдут на детерминированные расчеты.


                1. Wesha
                  17.08.2025 11:09

                  оно может быть детерминированным, просто считать быстрее если не обращать внимание на ошибки округления.

                  Осталось самая мелочь: объяснить компьютеру, как это: "не обращать внимения на ошибки". А то он так не умеет.

                  зачем нужен детерминированный результат работы

                  Где-где, а вот в этом конкретном месте что-то говорить — только портить.


        1. orenty7
          17.08.2025 11:09

          GCC сохраняет (с точностью до багов компилятора) семантику. Какая формальная семантика у запросов к llm? Остаётся ли она такой же у сгенерированного кода?


          1. vvzvlad
            17.08.2025 11:09

            Обновляете на новую версию и не сохраняет. Строго говоря, и не очень-то оно сохраняет, иногда такие оптимизации встречаются, которые логику кода выворачивают наоборот. Или UB, при котором компилятор волен делать вообще что угодно, и тут-то с размаху можно влететь в "а чо оно раньше работало, а щас при обновлении минорной версии сломалось/делает не то".

            Си даже к железу-то уже не привязан, это некая абстрактная виртуальная машину, которую потом с переменным успехом пытаются натянуть на разное железо.

            Ну и как бы, я в целом готов даже не спорить насчет сохранения семантики. Ну не сохраняет и не сохраняет, угу.
            Как это влияет на тезис "когда вы пишите на си/плюсах у вас атрофируется навык писать на асме"?


            1. orenty7
              17.08.2025 11:09

              Строго говоря, и не очень-то оно сохраняет, иногда такие оптимизации встречаются, которые логику кода выворачивают наоборот.

              Выворачивание кода не всегда нарушает семантику. Пока наблюдаемый результат исполнения кода (определение зависит от контекста, но не суть) не меняется -- семантика не нарушается, а уж как оно там внутри считается -- дело компилятора.

              Или UB, при котором компилятор волен делать вообще что угодно

              Он потому и может делать что угодно, что в стандарте не задана семантика. i.e. входная программа попросту не является корректной программой на си, поэтому сохранять там нечего

              Как это влияет на тезис "когда вы пишите на си/плюсах у вас атрофируется навык писать на асме"?

              Никак, с этим тезисом я даже согласен. Но ведь в вашем первом комментарии он совсем не так сформулирован


              1. vvzvlad
                17.08.2025 11:09

                Пока наблюдаемый результат исполнения кода (определение зависит от контекста, но не суть) не меняется -- семантика не нарушается, а уж как оно там внутри считается -- дело компилятора.

                О, так LLM получается тоже часто семантику запроса не нарушает. Я в нее тыкаю одним и тем же запросом, она генерирует разный код, но который решает задачу одинаково правильно :)


                1. orenty7
                  17.08.2025 11:09

                  У запроса семантика формально не задана и вариативность решений llm настолько большая, что ни о каком сохранении семантики (по крайней мере, пока что) речь идти не может


                  1. vvzvlad
                    17.08.2025 11:09

                    Ну подождите, вы только что сказали, что если результат выполнения тот же при одних и тех же входных данных, то семантика не нарушается


                    1. orenty7
                      17.08.2025 11:09

                      И дальше пишу, что результат выполнения у текста, который идёт на вход в llm никак не задан. Другими словами, любой запрос к llm это undefined behavior.

                      Это, кажется, никак не противоречит прошлым сообщениям, разве нет?


            1. mayorovp
              17.08.2025 11:09

              Обновляете на новую версию и не сохраняет. Строго говоря, и не очень-то оно сохраняет, иногда такие оптимизации встречаются, которые логику кода выворачивают наоборот.

              Если оптимизация меняет семантику - значит, либо в компиляторе ошибка, либо семантика никогда не была такой.


        1. LaRN
          17.08.2025 11:09

          Не совсем так. GCC без входных данных (исходников) ничено не сгенерит, а чтобы написать исходники мозги нужны.


    1. Wesha
      17.08.2025 11:09

      AI знает почти все возможные варианты этих решений и совсем занедорого их напишет.

      Вася, зырь, миллениалы изобрели copy-paste со Stack Overflow!


      1. AVAF
        17.08.2025 11:09

        Именно! Только LLM делает это в десятки и сотни раз быстрее человека, не требуя от него вообще никакой квалификации. Достаточно скачать и установить курсор/TRAE и написать, что ему надо. Принципиальное упрощение.


        1. Wesha
          17.08.2025 11:09

          не требуя от него вообще никакой квалификации

          Впервые слышу, чтобы кто-то гордился тем, что у него вообще никакой квалификации.


          1. AVAF
            17.08.2025 11:09

            Я описал по сути пользование waymo.

            Вы увидели то, чего в моём комментарии и близко не подразумевалось.


        1. Nalivai
          17.08.2025 11:09

          Ну а что в половине случаев вместо копипасты лучшего решения ллм генерит хреноту - так кому это важно, люди с принципиально никакой квалификацией все равно не заметят разницы.


          1. AVAF
            17.08.2025 11:09

            Если это работает, обеспечивая требуемое качество на имеющихся мощностях - ЛЛМ успешно выполнила свою задачу.


            1. Nalivai
              17.08.2025 11:09

              С принципиально никакой квалификацией и квадратные колеса на имеющихся мощностях можно сказать что "работают".


        1. ViacheslavNk
          17.08.2025 11:09

          Преимущество SO, что там всегда можно почитать дискуссию и комментарии, с LLM такой возможности нет, использование LLM (для продакшена естественно) все так же требует квалификацию как минимум такую же как в случае решения задачи без LLM, минус LLM что за задачу может взяться  разработчик у которого не хватает квалификации и он без особого осмысления будет использовать решение которое ему сгенерила сетка, но это уже по большей части вопросы к бизнес-процессам, в целом я считаю что у LLM больше плюсов чем минусов.

          Например у кастомера иногда   не работает сетевое соединение в сложной инфраструктуре кастомера с полным набором всяких политик (Hyper-V, Kerberos, Firewall и пр), код сложный много асинхронной работы, очереди, потоки и пр, как проверить что проблема где то у нас или на стороне кастомера или на стороне Майкрасофт(реально репортили им несколько инцидентов, где они признавали это как баг ), написать простой PS скрипт который примерно так же вызывает WinAPI-шные вызовы, посмотреть, как отработает, и я просто кусок кода на С++ скормил LLM попросил перевести на PS, он мне выдал скрипт, я его еще немного подправил, проверил что работает и все можно отдавать саппорту, они кастомеру, без LLM я бы сделал тоже самоё, но заметно дольше бы делал.


          1. pae1
            17.08.2025 11:09

            мне тоже кажется, что все эти жаркие баталии в основном связаны с тем, что ллм меняет саму технологию процесса, а народ пытается новую возможность запихнуть в старую привычную технологию.


        1. t3n3t
          17.08.2025 11:09

          Вычитывать сгенеренный код на предмет галлюцинаций и возможных ошибок тоже LLM будет?


          1. i-netay
            17.08.2025 11:09

            У многих студентов, которых наблюдаю, именно так. И тесты, и сообщения об ошибках, всё полностью. Даже установка пакетов для тестирования, давая пароль от root нейронке. Делегируют вообще всё полностью. Х хотя не все даже пытаются проверить и запустить, что оно вообще работает и что хотя бы синтаксис корректный, порой отдают сгенерённое как есть. Зато у себя не запустили недоверенный код, проблема преподавателя или научника, кто прод положит.


    1. Ravil2
      17.08.2025 11:09

      Красиво, только куда деть орды разработчиков, если 10% "уникальных" задач не требуют того штата, что есть сейчас? Не надо фантазировать что рынок расширится за счёт простых людей и их повседневных задач, простые задачи нейронки и без экспертов автоматизируют, а под большинство сложных уже давно есть готовые инструменты. Раньше тоже говорили, что у каждого человека будет свой сайт и свои продукты, но оказалось, что большинству это не нужно даже за небольшие деньги. 10% задач смогут выполнять кучка сеньоров, а остальным, при таком раскладе, останется эникеить за гроши.


      1. Aggle
        17.08.2025 11:09

        а остальным, при таком раскладе, останется эникеить за гроши.

        Главный вопрос - а куда такая армия эникейщиков нужна?


    1. nerosut
      17.08.2025 11:09

      Есть готовые библиотеки и поиск в гугле. ИИ ищет же код в открытых источниках. Должен, во всяком случае. Так в чём разница? Только в том, что при осмысленном поиске программист выбирает решение, а не пользуется тем, что дали.


      1. pae1
        17.08.2025 11:09

        разницу ощутить легко, если мысленно представить что нужно без посторонней помощи найти нужную книгу в хранилище Публичной библиотеки. или нужную страницу в правильной книге в этом архиве. Осмысленный поиск может затянуться. Все же квалифицированная помощь существенно ускорит процесс


  1. vic_1
    17.08.2025 11:09

    Недавно мне надо было поправить андроид приложение, т.к. я не знаток андроид, но пишу на java и понимаю общие принципы андроид приложений, я решил воспользоваться гига чатом. Так вот, я потратил целый день пытаясь получить от него что то рабочее, но так и не случилось,. Код пишет, понимает что от него хотят, но код работает не так как надо. Мне кажется как замена джунов, наверное, но опытный разработчик сделает это быстрее и качественней, 100%. Так что не знаю, с учётом того что большую часть времени я трачу на чтение кода, чем не его написание, у меня пока нет желания переходить на вайб кодинг. Мне кажется классический подход пока выигрывает


    1. voidinvader
      17.08.2025 11:09

      я решил воспользоваться гига чатом

      Ошибка номер раз.


      1. AiR_WiZArD
        17.08.2025 11:09

        надо было поправить андроид приложение, т.к. я не знаток андроид

        Ошибка номер два и три.

        Если нет полного понимания что происходит и как этого добиться по шагам без нейронки - результат будет такой же непредсказуемый

        Править с помощью нейронок уже готовое себе дороже, новые типовые функции генерирует вполне неплохо, но проанализировать уже существующее и внести правки слишком сложно, в обучающем наборе данных таких задач не было.


        1. vic_1
          17.08.2025 11:09

          У меня достаточно опыта разработки UI, андроид это всего лишь очередной фрэймворк, которые не имеет особого отличия от свинга, гвт, кутэ... можете продолжить список, джем ни, встроенный в студию, тоже ничем не помог, единственное отличие, он предупреждает сразу что может ошибаться


          1. arsmerk777
            17.08.2025 11:09

            курсор\перплексити


    1. stas_dubich
      17.08.2025 11:09

      Все эти мега чаты и прочие поделки, они сейчас на уровне ChatGPT 5 летней давности наверно, максимум могут текст нагенерить, до нормального рабочего кода там еще очень и очень далеко


      1. revoltex
        17.08.2025 11:09

        Серьёзно? Галлюцинации уже у мясных мешков начались? ChatGPT 5 лет назад не существовало. Хотя не важно, ни один Gen AI не справляется с чем-то отличным от решения типовых задач.


        1. orenty7
          17.08.2025 11:09

          del


        1. stas_dubich
          17.08.2025 11:09

          Согласен, кожаные галлюцинируют не меньше ;-)

          "GPT-3 (2020) — впервые предоставили API через OpenAI, но по приглашениям. Это стало отправной точкой для массового использования разработчиками."


          1. orenty7
            17.08.2025 11:09

            GPT-3 =/= ChatGPT


          1. notwithstanding
            17.08.2025 11:09

            Initial release

            November 30, 2022 (2 years ago)


            1. Nalivai
              17.08.2025 11:09

              Грок, сколько будет 2025 минус 2022?


              1. notwithstanding
                17.08.2025 11:09

                Говорит, что 3

                Надо спрашивать, сколько времени прошло с 30 ноября 2025. Целых лет будет 2.


        1. i-netay
          17.08.2025 11:09

          Человек просто прибыл к нам из будущего, где это есть уже очень много лет, и сообщает, что и там ничего не изменилось, как мы и предполагали. Так что пишем нормальный код сами.


      1. vvzvlad
        17.08.2025 11:09

        Отставание где-то в год


    1. BadHat
      17.08.2025 11:09

      Попробуйте qwen3 coder он явно умнее "аналогов из России"


      1. i-netay
        17.08.2025 11:09

        А они не с него ли дистиллированы как раз? Возможно, сравнение глубже, чем может показаться на первый взгляд.


    1. LeVoN_CCCP
      17.08.2025 11:09

      но опытный разработчик сделает это быстрее и качественней, 100%.

      Неа, опытный разработчик знает библиотеку, которую будет пытаться приклеить к текущему зоопарку примерно столько же по времени. Результат будет с примерно 20% успеха, на 80% скажет что текущая инфраструктура (читай набор других библиотек) несовместима и закроет таск.
      Вот не особо опытный разработчик скорее всего наваяет более-менее рабочий код за пол дня. А опытным он станет когда узнает о существовании библиотеки выше. Но главное код уже будет и будет рабочим.


    1. JBFW
      17.08.2025 11:09

      Вы сейчас как раз доказываете, что для правильного использования ИИ нужно самому понимать, что именно вы делаете и что должно получиться.

      И что страхи "настоящих программистов", что их вот-вот заменят - лишены оснований.

      Заменят того, кто привык получать детализированное ТЗ и переводить его с человеческого на язык программирования.
      Но кто-то же должен ТЗ составлять?


      1. Vlad__Ok
        17.08.2025 11:09

        На данный момент вы правы. Но ии бурно развиваются и возможно через годик вы будете не правы совершенно :)


        1. Nalivai
          17.08.2025 11:09

          Это довольно старая песня, с каждой новой версией очередного генератора нам маркетологи рассказывают, что уж этот-то в тысячу раз лучше чем предыдущий, и все их тесты проходит в сто раз более правильно.
          А если посмотреть в прогрессе, то основные, фундаментальные проблемы не выглядят более решенными. Я так вангую что ни через годик ни через двадцать годиков ллм не превратится из тыквы в карету.


        1. microuser
          17.08.2025 11:09

          ИИ уже закончили бурно развиваться, они вышли на плато и дальше будет развиваться только тулинг и различные интеграции


        1. t3n3t
          17.08.2025 11:09

          Об этом можно будет предметно рассуждать только когда "ии" станет ИИ - что уж точно не через годик. Пока что это лишь компилятор существующих наработок, за которым нужен глаз да глаз.


    1. Wesha
      17.08.2025 11:09

      я не знаток андроид

      В наше время этим не гордились! ©


    1. aladkoi
      17.08.2025 11:09

      Надо брать платный claude. Бесплатный AI Вам ничего не напишет.


    1. SHAD0W137
      17.08.2025 11:09

      Серьёзно? Не нужно быть гением, чтобы понять, что использлвать отечественные кастраты - так себе затея.

      Используйте GPT последних версий. А для Android очень советую прошные версии Gemini. Он очень хорошо справляется с Android кодом. Хоть иногда и стремится использовать устаревшие решения, он способен собрать готовое рабочее приложение


    1. zkutch
      17.08.2025 11:09

      Мой пример: в свое время я достаточно много писал на перле. Недавно ради интереса поставил простой вопрос чату по перлу - я префазировал много раз, пытался объяснить, но все ответы были не рабочими. Данный чатом код просто не работал.


  1. Uolis
    17.08.2025 11:09

    Программисты, по крайней мере раньше, немного понимали что несут ответственность за код и последствия его применения. В этом и вся разница. Те кто понимают, те смотрят недоверчиво, а поросль молодая, безответственная, рада и прыгает.


    1. rmikhailov
      17.08.2025 11:09

      А что такое ответственность за код ? И какие могут быть "последствия его применения" ? Мы же не о ЯО говорим... Нормально настроенные процессы TDD + BDD + ревью кода + QA сводят к минимуму шанс попадания чего-то кривого на прод. Даже если это кривое туда попало то это уровень ответственности CTO/Head Of Engineering, поскольку эти люди отвечают за настройку процессов в целом, но никак не линейного программиста.

      И - да, можно сколько угодно кидаться какашками в LLM и говорить что это все ерунда, но это как с автопилотом Теслы или программой Space X - сначала все ржали, а сейчас тесла сама по себе ездит, а ракеты успешно возвращаются и летают повторно, с LLM будет так же.


      1. Frydex
        17.08.2025 11:09

        Только стобы тесла смогла поехать на автопилоте, нужно было написать ответственный код


      1. AiR_WiZArD
        17.08.2025 11:09

        Нормально настроенные процессы TDD + BDD + ревью кода + QA сводят к минимуму шанс попадания чего-то кривого на прод.

        Не везде есть возможность выстроить подобную цепочку. Мне вот надо цех автоматизировать - задача не сложная, но ошибка может стоить много денег (хорошо, хоть не травмоопасно), доверите десятки миллионов рублей результату работы черного ящика? Оно точно не сломается при определенной фазе луны? Тесты нормально можно только на реальном железе прогнать, симуляцию с учетом каждого аспекта пилить никто не будет.

        поскольку эти люди отвечают за настройку процессов в целом, но никак не линейного программиста

        Да, только не везде есть раздутый штат из десятков/сотен программистов, что бы требовалось процессы выстраивать. Есть задача - надо оценить сроки и сделать

        И - да, можно сколько угодно кидаться какашками в LLM и говорить что это все ерунда, но это как с автопилотом Теслы или программой Space X - сначала все ржали, а сейчас тесла сама по себе ездит, а ракеты успешно возвращаются и летают повторно, с LLM будет так же.

        Когда будет, тогда будет, но на текущий момент LLM неприменима для крупных проектов, и что-то мне подсказывает, так и останется на уровне автокомплита на стероидах. Тесла сама по себе не ездит, тот автопилот стагнирует годами и находится на уровне круиз контроля с приятными бонусами.


      1. warkid
        17.08.2025 11:09

        Вы глазами ревьювите нагенерёный код?!


        1. i-netay
          17.08.2025 11:09

          А вы чем? Зрительное восприятие наиболее эффективно. Программист отвечает за код, так что стоит его видеть.

          Где-то для многих наступает момент "чёрного ящика". Можно понимать язык до синтаксиса, но не знать работу компилятора, интерпретатора или виртуальной машины. Или понимать это, но слабо понимать архитектуру процессора и асм. С нейронка и можно даже не очень понимать, что такое код и как оно работает, то есть черный ящик вообще всё, что происходит. В таком случае это магия и карго-культ, а не технологии и разработка.


          1. Wesha
            17.08.2025 11:09

            До техножрецов буквально пара шагов.


        1. rmikhailov
          17.08.2025 11:09

          Естественно. У нас люди почему-то любят крайности, для многих нейронка = скинуть в клауди тикет жиры и пинать ее пока он не выдаст что-то что хотя-бы скомпилится, повторить это раз 10 а потом удивляться и рассказывать что нейронка тупая и нифига на самом деле не умеет.


        1. DarthVictor
          17.08.2025 11:09

          Конечно, я же не совсем промтститутка.


      1. Aleksej2020
        17.08.2025 11:09

        А можно ли к вам на работу устроиться, раз у вас за код программиста отвечает СТО, а остальным можно повайбкодить по желанию.


        1. rmikhailov
          17.08.2025 11:09

          CTO отвечает в том числе и за процессы, а процессы - не дают затащить г**но в прод, и мало кому интересно откуда это г**но взялось. Если человек регулярно присылает на ревью г**но, то - рискует получить соответствующий фидбек от коллег на перформанс ревью, и дальше с ним будет импрувмент план и он либо перестает присылать г**но на ревью, либо - мы с человеком расстаемся.

          Но глобально - всем плевать как конкретно материализовался код.


      1. Wesha
        17.08.2025 11:09

        Мы же не о ЯО говорим...

        От создателей «нам же на нём не на Луну лететь!»

        сейчас тесла сама по себе ездит,

        Но есть нюанс. Буквально пара-тройка сотен.


      1. CareDealer
        17.08.2025 11:09

        Напишу про теслу. У нее нет автопилота. Это расширенный круиз контроль. У них только второй уровень автоматизации управления. Левел 5 там Маск где-то в 2013 обещал через 3 года, так что не просто так "все сначала ржали"


      1. Afiligran
        17.08.2025 11:09

        Тесла сама по себе не ездит и не будет ездить в ближайшем будущем. Причина как раз в той же ответственности, о которой написали выше. Доверять программе человеческую жизнь никто не будет. За перемещение Теслы отвечает водитель, а не автопилот.


        1. mayorovp
          17.08.2025 11:09

          Нет, они просто не осилили. Так-то роботакси кое-где уже ездят...


      1. t3n3t
        17.08.2025 11:09

        Нормально настроенные процессы TDD + BDD + ревью кода + QA сводят к минимуму шанс попадания чего-то кривого на прод.

        Аххах, и как все это, кроме ревью кода, спасет от кривого кода с неоправданной нелинейной сложностью алгоритма, например? Условный кривой запрос к БД вернет правильные данные по тестам, вот только выполняться он будет не то чтобы очень быстро. А ревью кода, внезапно, нужно кому-то заниматься. Физически.


        1. rmikhailov
          17.08.2025 11:09

          Естественно! Меня тут заминусили, но я нигде ни разу не писал что можно просто взять скопипастить тикет в ИИ и просто жать accept. Естественно нужно глазами ревьювить то что сгенерил ИИ и естественно протаскивать это все через обычный процесс код ревью. Это само собой разумеющееся. Я например, ту самую процедурку которая делает тот самый запрос к базе напишу сам, а вот чтобы протащить ее через N слоев абстракций - использую ИИ. И я считаю это нормальным.


      1. ncix
        17.08.2025 11:09

        нормально настроенные процессы TDD + BDD + ревью кода + QA сводят к минимуму шанс попадания чего-то кривого на прод. Даже если это кривое туда попало то это уровень ответственности CTO/Head Of Engineering, поскольку эти люди отвечают за настройку процессов в целом, но никак не линейного программиста

        Вы так пишите, как будто любой код создается в современной корпорации с огромным штатом высококлассных разработчиков и тех.менеджеров, и отлично выстроенными процессами


  1. voidinvader
    17.08.2025 11:09

    Я заметил, что вокруг новых AI-инструментов для кодинга (типа Cursor AI, ChatGPT, Claude) идёт жаркая дискуссия.

    Ничего себе!!! Вот это да!!! Как же ты своевременно это подметил-то, а?! Эх, не знаю что я бы без тебя делал...


  1. sidorovkv
    17.08.2025 11:09

    Ждём-с когда завалиться первый стартап с кодовой базой написанной на 90% AI. Ничего не имею против ИИ, как инструмент и правда не плохой. Больше беспокоит, что все чаще из разных утюгов слышу про те самые продукты которые сделали только через промпты. Моими новыми вопросами на собеседовании будут: Сколько кодовой базы было написано ИИ? Работали ли над проектом вайбкодеры? Заложено ли в бюджет полное переписывание продукта если его навайбкодил дизайнер? Думаю в скором времени многим из нас придется столкнуться с архитектурой джуновского уровня поверх которой пытаются навернуть синьорский код. Так что держим ухо востро.


    1. BugM
      17.08.2025 11:09

      За деньги да


      1. Wesha
        17.08.2025 11:09

        За деньги да

        «Но знайте: таксу возьму я с вас не простую, а золотую...» ©


      1. Nalivai
        17.08.2025 11:09

        Ну все-таки себе цену тоже надо знать


    1. i-netay
      17.08.2025 11:09

      Ничего, классическим программистам, способным работать без нейронки и использовать отладчик, станут платить в разы больше в итоге, так что не вижу повода жаловаться на потенциальный дикий рост зарплаты)))


      1. Artyomcool
        17.08.2025 11:09

        Ну на наш век конечно хватит, а вот за молодняк обидно. Им теперь вайти в айти будет сильно тяжелее. Ну или мне просто так кажется.


        1. i-netay
          17.08.2025 11:09

          Кажется. Ничего страшного не будет. Вакансии никуда не денутся, их количество резко не увеличится и не уменьшится, а "всех заменят!!!" — marketing bullshit от тех, кто нейронки монетизирует. Порог входа немного вырастет, но не очень сильно. Вопрос только в доле отсева и количестве разочаровавшихся, что авторы всяких гпт им обещали, что они станут кем угодно сразу одновременно всего лишь за платную подписку, а они не стали кем угодно. Как так, неужели обманули? Как могли в рекламе обмануть? И если каждый второй выпускник хочет вкатиться в айти и считает, что с нейронкой это просто, следует помнить, что не появится по полмиллиона новых айтишных вакансий в год, где ещё и каждый будет сходу очень много получать.

          Обидно за молодняк только в плане разочарования многих, что им обещали всё на халяву без усилий, но раньше инфоцыгане обещали, когда-то финансовые пирамиды, а сейчас авторы всяких LLM. За разочарование от отсутствия халявы даже не так уж обидно. Больше за то, что очень многие ведутся, а кто-то на этом очень обогащается, обещая революцию в науке и технике, а при этом просто очень хорошо зарабатывает.


          1. Artyomcool
            17.08.2025 11:09

            Я скорее про то, что порог входа для новичков может приподняться слишком крутым и неприятным образом, потому что раньше надо было конкурировать с такими же новичками, а теперь ещё и с железным конём. Причем учиться самостоятельно мыслить станет сложнее.

            Но поживем увидим, я не очень уверен в своих же прогнозах. Может напротив всё станет как в старые добрые с зелёной травой: в профессии снова смогут закрепляться только те, кто горят инженерным делом и качество среднего человеческого материала вырастет.


            1. i-netay
              17.08.2025 11:09

              Новичкам не надо самим конкурировать с железным конём, надо самому конкурировать с другими (тоже неопытными) пользователями такого же железного коня, им кто-то ещё должен оперировать. Сложно скорее отличить новичка, который умеет немного сам и который не умеет вообще ничего, но конём изображает. Кто горит инженерным делом, закрепиться сидеть и так, а обилие остальных не из-за вайб колеров, а из-за хайпа и пока что-то новое не станет популярно, и деньги туда станут засовывать, потому что можно. Вообще ничего страшного. Только с лучшим материалом плохо: и так базовые школьные знания усваивают плохо, якобы всегда загуглят всё, зачем учиться... Хотя оно так не работает. LLM позволяют не только перестать узнавать, но и учиться думать и структурно воспринимать текст. Лучшие останутся такими же, хотя с новым возможностям, а среднее значение резко упадёт.


      1. t3n3t
        17.08.2025 11:09

        Бутиковый posh-код - написан настоящими живыми программистами :)


    1. Ninil
      17.08.2025 11:09

      Спасибо за идею! Добавил в свой список вопросов)


  1. maslyaev
    17.08.2025 11:09

    В нашем ремесле есть два вида активности, одна любимая, вторая нелюбимая - соответитвенно писать говнокод и читать говнокод. LLM-ки эффективно заменяют первое на второе.

    Но беда, конечно, не в этом. Потерпели бы, приспособились. Как говорится, человек не скотина - ко всему привыкает. Беда в том, что изучение и созидание это два принципиально разных вида деятельности, реализуемых разными мозговыми цепями. Анализ и синтез, которые друг без друга, конечно, не существуют, но тем не менее тренируются отдельно. Наиболее наглядно это наблюдается на изучении иностранных языков, когда бывает так, что reading и listening прокачались до уровня B2, но человек реально два слова связать не может. Speaking и writing у него позорный A1. Помню времена, когда у самого так было. Ничего удивительного, ведь анализ и синтез речи реализуется разными мозговыми центрами. Один натренирован, второй нет.

    Если (или уже "когда"?) синтез кода полностью делегируется нейронкам, а нам останется только анализ, это не будет означать, что мы начнём лучше анализировать. Скорее всего хуже. Но это мы не почувствуем, потому что анализ мы тоже делегируем нейронкам. Никакого "учиться и расти" не будет, потому что учиться будет нечему и незачем, а расти будет некуда и тоже незачем.


    1. karrakoliko
      17.08.2025 11:09

      бывает так, что reading и listening прокачались до уровня B2, но человек реально два слова связать не может

      В среде где это единственный способ добиться желаемого - запоет как миленький за неск месяцев. На уровень ниже, но всем будет ок.

      Проверено на себе


      1. Newbilius
        17.08.2025 11:09

        > запоет как миленький за неск месяцев

        Только надо помнить, что "неск месяцев" может быть и больше 12. Проверено на как минимум одном знакомом)


    1. Aggle
      17.08.2025 11:09

      Я больше скажу - даже связать два слова в речи и их же на бумаге - тоже различные виды деятельности (и на родном языке). Неоднократно встречал людей, которые грамотно и толково говорят, но попытки изложить эти же мысли в письменном виде внушают жалость. Обратные примеры тоже имелись.