Введение: Парадокс сентября 2025

2025 год должен был стать годом триумфа Искусственного Интеллекта. И если смотреть на заголовки, так оно и есть: 78% организаций по всему миру заявляют, что используют ИИ хотя бы в одной бизнес-функции, а общие корпоративные инвестиции в технологию за 2024 год перевалили за $250 миллиардов. Деньги льются рекой: половина лидеров планирует удвоить бюджеты на ИИ, а средние месячные расходы компаний готовятся вырасти с $63,000 до $85,000. Кажется, что машина хайпа несется на полной скорости.

Но если присмотреться к приборам, а не к пейзажу за окном, картина становится куда интереснее. И тревожнее.

Впервые за два года непрерывного роста крупные компании (250+ сотрудников) внезапно нажали на тормоз: уровень внедрения ИИ в их производственные процессы за лето 2025-го снизился с 14% до 12%. В это же время свежий отчет MIT бьет наотмашь: 95% пилотных проектов по генеративному ИИ проваливаются, не доходя до реального использования.

Что происходит?

Добро пожаловать в эпоху "отрезвления". Период, когда эйфория от первых успехов ChatGPT сменяется жестким похмельем от столкновения с реальностью. Реальностью, в которой 42% лидеров втихую признаются, что громкие заявления их компаний об ИИ - просто раздутый хайп, а 82% людей в целом скептически относятся к технологии. Внутри корпораций назревает настоящий раскол между лагерем "скептиков", которые видят риски и провалы, и лагерем "реалистов", которые продолжают верить в технологию.

Эта статья - глубокое погружение в цифры и настроения сентября 2025-го. Мы разберемся:

  • Почему гиганты сбавляют обороты, пока малый бизнес экспериментирует?

  • Куда на самом деле уходят миллиарды долларов инвестиций?

  • Почему 95% пилотов проваливаются, и что делают те 5%, которые добиваются успеха?

  • И главный вопрос: это начало конца хайпа или рождение нового, более зрелого и прагматичного подхода к Искусственному Интеллекту?

Давайте отложим маркетинговые брошюры и посмотрим на холодные, неудобные факты.

Глава 1: Ландшафт внедрения. Картина в цифрах

На поверхности все выглядит более чем оптимистично. По последним данным, 78% организаций в мире уже внедрили ИИ хотя бы в одной бизнес-функции, а 71% компаний заявляют о регулярном использовании генеративного ИИ. Но если отделить маркетинговый шум от реального производства, картина становится куда более трезвой. По данным Бюро переписи населения США на август 2025 года, реально используют ИИ в своих производственных процессах всего 9.7% американских фирм.

Этот разрыв между "попробовали" и "внедрили" - лейтмотив 2025 года. И он прослеживается во всем.

  • Цифровое неравенство секторов. ИИ по-прежнему остается технологией "белых воротничков". Если в информационном секторе его использует каждая четвертая компания (25%), то в сфере гостеприимства и питания - лишь каждая сороковая (2.5%). Разрыв в десять раз.

  • Тревожный звонок от гигантов. Самый неожиданный тренд лета 2025-го - крупные компании (250+ сотрудников) впервые за два года показали снижение темпов внедрения ИИ с 14% до 12%. В это же время малый бизнес (1-4 сотрудника), не обремененный сложными процессами согласования, стабильно держит свои 5.5%. Похоже, именно гиганты первыми столкнулись с реальными проблемами масштабирования и интеграции, скрытыми за красивыми презентациями.

Пока что ИИ в корпорациях - это скорее широкий, но неглубокий океан. Многие вошли в воду, но лишь единицы решились плыть.

Глава 2: Великий раскол. Скептики против реалистов

Громче цифр говорят только люди. И в 2025 году корпоративный мир отчетливо разделился на два враждующих лагеря, причем раскол проходит прямо по залам заседаний советов директоров.

  • Лагерь Скептиков (42% лидеров)
    Они видят хайп, но не видят пользы. И их позиция основана не на эмоциях, а на холодном опыте.

    • Почему они сомневаются: 42% этих лидеров прямо заявляют, что громкие заявления их собственных компаний об ИИ - раздутый маркетинг65% считают, что текущий подход к внедрению подвергает клиентов риску - финансовому, психологическому или физическому. И 67% беспокоятся, что ИИ в итоге может угрожать их собственным рабочим местам.

    • На чем основан их скепсис: На провалах. 95% пилотных проектов по генеративному ИИ в компаниях терпят неудачу. К этому добавляется понимание, что даже лучшие модели "галлюцинируют" в 10-12% случаев, а новые "reasoning" системы, как ни парадоксально, показывают больше ошибок, чем их предшественники.

  • Лагерь Реалистов (36% лидеров)
    Их меньше, но они смотрят в будущее сдержанно, но уверенно.

    • Почему они спокойны: Они не ждут от ИИ чудес. Лишь 9% из них видят риски для клиентов, и всего 10% беспокоятся о влиянии технологии на рабочие места.

    • Что их отличает: Прагматизм. Реалисты не пытаются "внедрить ИИ". Они решают с его помощью конкретные, измеримые задачи, трезво оценивая и возможности, и ограничения.

Этот раскол - не просто разница мнений. Это фундаментальное столкновение двух стратегий: "внедрять любой ценой, чтобы не отстать" против "внедрять только то, что работает". И, судя по статистике провалов, вторая стратегия начинает выглядеть куда более разумной.

Глава 3: Парадокс инвестиций. Деньги льются рекой, но куда?

И вот тут начинается самое интересное. Несмотря на растущий скепсис и кладбище проваленных пилотов, бизнес продолжает накачивать ИИ деньгами. Корпорации вбухали в технологию $252 миллиарда в 2024 году, а частные инвесторы добавили еще $34 миллиарда в один только генеративный ИИ.

Аппетиты только растут. Посмотрите сами: средний чек компании на ИИ был $63,000 в месяц в прошлом году, а на 2025-й цель уже $85,000. Доля тех, кто готов сжигать больше $100,000 ежемесячно, за год прыгнет с 20% до 45%. При этом каждый второй руководитель планирует удвоить свой ИИ-бюджет в ближайшее время.

Куда же уходят эти деньги, если 95% пилотов проваливаются?

Ответ кроется в смене приоритетов. Если раньше компании гнались за "вау-эффектом", то сейчас фокус сместился на прагматичные, внутренние задачи. Главные драйверы инвестиций в 2025 году - это:

  1. Повышение эффективности разработки ПО (41%)

  2. Усиление кибербезопасности (40%)

  3. Стимулирование инноваций (37%).

Более того, компании начали активно вкладываться не в сам "интеллект", а в его "обвязку": 44% тратят деньги на то, чтобы сделать модели объяснимыми, а 41% - на их безопасность и надежность. Кажется, бизнес наконец-то понял: "черный ящик", каким бы умным он ни казался, - это слишком большой риск.

Глава 4: ROI и реальная отдача. Где деньги?

Инвестиции - это хорошо, но что с возвратом? Статистика здесь жестока и показательна. Она вскрывает главную проблему внедрения ИИ - пропасть между "попробовать" и "заработать".

  • Жестокая правда о пилотах. 95% пилотных проектов по внедрению генеративного ИИ терпят неудачу, так и не дойдя до производственной стадии. Это означает, что из 20 компаний, которые с энтузиазмом начали эксперимент, реальную пользу получит только одна.

  • Ключ к успеху - не делать самому? Данные показывают интересный тренд. Проекты, где компании привлекают специализированных поставщиков ИИ-решений, успешны в 67% случаев. А вот проекты, которые пытаются разработать своими силами, добиваются успеха лишь в 33% случаев. Вывод: экспертиза на стороне все еще стоит дорого, но обходится дешевле, чем собственные ошибки.

  • Инвестиции решают (если они достаточны). Тут всё просто: кто больше вкладывает, тот чаще видит результат. У компаний, которые не скупятся и выделяют на ИИ более 5% IT-бюджета70-75% проектов окупаются. А у тех, кто пытается сэкономить (менее 5% бюджета), положительный ROI видят только в половине случаев. В мире ИИ полумеры, похоже, не работают. Играть нужно по-крупному, иначе рискуешь просто сжечь деньги.

Но вот что заставляет всех продолжать эту гонку: те, кто все-таки прорвался через "долину смерти пилотных проектов", срывают джекпот. 74% из них говорят, что ИИ-инициативы окупились или даже превзошли ожидания, а каждый пятый видит возврат на инвестиции более 30%. Приз для победителя слишком велик, чтобы просто сойти с дистанции.

Глава 5: "Теневая экономика" ИИ. Что на самом деле происходит на рабочих местах

Все официальные отчеты - лишь верхушка айсберга. Под ней бурлит огромная, невидимая и почти неконтролируемая "теневая экономика" ИИ, которая живет по своим правилам.

  • "Партизанский ИИ" в каждом ноутбуке. Пока топ-менеджеры рисуют стратегии и запускают пилоты, 90% обычных офисных работников уже вовсю пользуются ИИ-инструментами. Делают они это в обход корпоративных запретов, находя свои маленькие лайфхаки для повышения личной эффективности.

  • Парадокс "личного" успеха. И здесь кроется самый интересный инсайт. Исследования показывают, что успешность индивидуального использования ИИ сотрудниками (когда человек сам нашел инструмент и решил свою задачу) достигает 40%. В то же время у громоздких корпоративных пилотов этот показатель - всего 5%. Люди на местах оказываются в 8 раз эффективнее в поиске реальной пользы от технологии, чем централизованные проекты.

  • Слепая зона для руководства. Эта "партизанщина" создает огромную проблему для менеджмента. Только 51% компаний могут уверенно оценить возврат на инвестиции в ИИ. Остальные 49% просто не знают, что происходит, потому что львиная доля активности проходит в "тени". Компании тратят на "теневой ИИ" от $590 до $1,400 на сотрудника в год, часто даже не подозревая об этом.

Этот разрыв между официальной стратегией и реальным использованием - главная головная боль для бизнеса в 2025 году. Компании пытаются управлять тем, чего не видят.

Глава 6. Реальные кейсы: Успех и провал в мире ИИ

Сухие цифры обретают смысл, когда видишь их в действии. Вот три анонимных, но типичных кейса, иллюстрирующих, почему одни компании взлетают с ИИ, а другие - разбиваются.

Параметр

Успешный кейс (финтех-стартап)

Провальный кейс (крупный ритейлер)

Задача

Автоматизировать онбординг клиентов и проверку документов

"Улучшить клиентский опыт" с помощью чат-бота на главной странице

Подход

Узкая задача. Взяли готовое OCR-решение от специализированного вендора. Не пытались создать своего чат-бота.

Размытая задача. Попытались создать универсального чат-бота "с нуля" силами внутренней IT-команды.

Интеграция

Интегрировали ИИ как один из шагов в существующий бизнес-процесс, оставив финальную верификацию за человеком.

"Прикрутили" чат-бота к сайту, не интегрировав его с CRM и базой знаний. Бот не знал статус заказов.

Результат

Сократили время на онбординг с 2 дней до 15 минут. Снизили затраты на ручную обработку на 80%. ROI > 50% за полгода.

Рост недовольства клиентов. Нагрузка на колл-центр выросла на 30% (люди писали боту, а потом все равно звонили). Проект закрыт через 4 месяца.

Этот контраст показывает ключевую разницу: успешные проекты решают конкретную, измеримую боль, а провальные - пытаются реализовать абстрактную идею.

Глава 7. Готовы ли вы к ИИ? Чек-лист для отрезвления

Прежде чем удваивать бюджет на ИИ, пройдитесь по этому простому чек-листу. Он поможет понять, готовы ли вы к настоящей работе, а не к очередной имитации бурной деятельности.

  1. Проблема, а не технология. Можете ли вы сформулировать задачу без слова "ИИ"?

    • Плохо: "Мы хотим внедрить ИИ для улучшения клиентского сервиса".

    • Хорошо: "Наши клиенты ждут ответа оператора в среднем 7 минут. Мы хотим сократить это время до 2 минут для 80% типовых запросов".

  2. Данные, а не обещания. Готовы ли ваши данные к работе с ИИ?

    • Есть ли у вас чистые, структурированные и доступные данные для обучения модели или работы RAG?

    • Кто будет отвечать за качество и актуальность этих данных? (Спойлер: если ответа нет, проект провалится).

  3. Процесс, а не "черный ящик". Как ИИ будет встроен в существующие бизнес-процессы?

    • Кто будет ставить задачи для ИИ?

    • Чья подпись будет стоять под результатами его работы и кто ответит за провал?

    • Что будем делать, когда ИИ начнет "галлюцинировать" и выдавать чушь? Есть "план Б"?

  4. Люди, а не алгоритмы. Готова ли ваша команда?

    • Есть ли у вас внутренние эксперты, которые могут отличить полезный вывод ИИ от "workslop"?

    • Готовы ли вы инвестировать в обучение сотрудников, а не только в API?

Если вы не можете уверенно ответить "да" хотя бы на три из этих четырех пунктов, скорее всего, вы рискуете пополнить печальную статистику 95% провальных пилотов.

Заключение: Эпоха отрезвления. Что дальше?

Сентябрь 2025 года войдет в историю как месяц, когда роман с ИИ закончился и начались суровые будни. Первоначальная эйфория, когда казалось, что достаточно "внедрить ИИ" и все проблемы решатся сами собой, сменилась тяжелым похмельем. Мы видим пять ключевых трендов, которые определяют новую реальность:

  1. Парадокс инвестиций. Расходы на ИИ бьют все рекорды, но реальное внедрение в крупных компаниях впервые за два года замедляется. Деньги есть, а понятной стратегии - нет.

  2. Разрыв в масштабе. Малый бизнес находит точечную пользу, в то время как гиганты спотыкаются о проблемы масштабирования, интеграции и безопасности.

  3. Кризис доверия. Внутри компаний назрел глубокий раскол между "скептиками", которые видят провалы и риски, и "реалистами", которые все еще верят в технологию, но подходят к ней куда осторожнее.

  4. Провал пилотов. 95% "пробных шаров" не долетают до цели. Это заставляет компании отказываться от подхода "попробуем все подряд" в пользу более точечных и продуманных проектов.

  5. Ренессанс "человеческих навыков". Приходит осознание, что без человеческого контроля, критического мышления и правильной интеграции ИИ остается просто дорогой и опасной игрушкой.

Эйфория прошла. Началась настоящая, сложная работа. И, судя по всему, в ближайшие годы выживут и преуспеют не те, кто громче всех кричал о своей "ИИ-трансформации", а те, кто тихо и методично учился с помощью этой технологии думать лучше, работать эффективнее и принимать более взвешенные решения.

Источники

Основные исследования (те самые, что всколыхнули индустрию):

  1. Stanford Social Media Lab & BetterUp Labs (2025). AI-Generated "Workslop" Is Destroying Productivity. Harvard Business Review. — Исследование, которое ввело в оборот термин "workslop" и показало реальные масштабы проблемы.

  2. MIT Sloan School of Management (2025). Report: 95% of Generative AI Pilots at Companies Failing. Fortune. — Отчет, который заставил многих руководителей переосмыслить свои ИИ-стратегии.

  3. Anthropic Economic Research (2025). Anthropic Economic Index September 2025 Report. — Самый детальный анализ реального использования ИИ в бизнесе.

  4. CloudZero Research Team (2025). State of AI Costs 2025: Enterprise Spending Analysis. — Откуда мы узнали, сколько компании на самом деле тратят на ИИ.

Официальная статистика:

  1. Бюро переписи населения США (2025). Business Trends in Artificial Intelligence, August 2025. — Ключевой источник данных о том, что крупные компании впервые за два года снизили темпы внедрения ИИ.

  2. Stack AI Research Division (2025). State of Generative AI in the Enterprise. — Исследование о том, где все-таки работает корпоративный ИИ.

  3. Exploding Topics Analytics (2025). Companies Using AI: Statistics and Trends. — Большая сводка по использованию ИИ в разных отраслях.

  4. Fortune Analytics (2025). AI Adoption Declines in Big Companies as Human Skills Premium Grows. — Материал, который помог понять причины "отрезвления".

Мировая статистика и сравнения:

  1. Aragon Research (2025). Public Opinion on AI in 2025: Global Survey Results. — Откуда стало известно о разнице в отношении к ИИ между странами.

  2. KPMG Global Services (2025). Trust, Attitudes and Use of Artificial Intelligence. — Исследование того, почему американцы куда скептичнее относятся к ИИ, чем жители Азии.

  3. Стэнфордский институт ИИ, ориентированного на человека (2025). AI Index Report 2025: Economy Chapter. — Главный ежегодный отчет о состоянии отрасли.

Отраслевые кейсы и проблемы:

  1. Netskope Threat Labs (2025). Generative AI in Retail: Adoption Comes at High Security Cost. — Пример того, как ритейл платит за внедрение ИИ не только деньгами, но и безопасностью.

  2. Workplace Insight Research (2025). Adoption of Workplace AI Is Inconsistent and Riddled with Contradictions. — Исследование, которое показало раскол внутри компаний.

  3. Computing Magazine (2025). Rushing Out AI Likely to Backfire, Report Warns. — Материал о том, почему спешка с ИИ может обернуться катастрофой.

Технические детали и ограничения:

  1. Senior Executive Magazine (2025). AI Model Hallucinations: Understanding the Risks. — О том, почему ИИ "галлюцинирует" и что с этим делать.

  2. Marketing AI Institute (2025). MIT Study: Why 95% of AI Pilots Fail. — Глубокий разбор причин провалов.

  3. National Law Review (2025). AI Hallucinations Are Creating Real-World Risks for Businesses. — Юридический взгляд на проблему.

  4. Trullion Analytics (2025). Why 95% of AI Projects Fail and Why the 5% That Survive Matter. — Анализ того, что отличает успешные проекты от провальных.

"Теневая экономика" и реальное использование:

  1. Radical Data Science (2025). AI News Briefs: Bulletin Board for September 2025. — Сводка по тому, как ИИ используют обычные сотрудники.

  2. Fortune Business Intelligence (2025). Shadow AI Economy: Measurement Crisis in Adoption and ROI. — Исследование о "партизанском" использовании ИИ.

Технологические тренды:

  1. The New York Times Technology Section (2025). AI Hallucinations Persist Despite Advances in 'Reasoning' Systems. — О том, что даже новые системы ошибаются чаще старых.

  2. Finance Yahoo Business (2025). MIT Report: 95% Generative AI Pilots Fail to Reach Production. — Еще один взгляд на провалы пилотов.

Комментарии (63)


  1. ialexander
    25.09.2025 20:53

    Глава 2: Великий раскол. Скептики против реалистов
    <...>
    Это фундаментальное столкновение двух стратегий: "внедрять любой ценой, чтобы не отстать" против "внедрять только то, что работает"

    Я не пойму кто из них скептики, а кто релисты?


    1. Kwisatz
      25.09.2025 20:53

      Ага а над вашей цитатой две разумные позиции, никак не согласованные с "внедрять любой ценой". Мб сетка статью писала


      1. ialexander
        25.09.2025 20:53

        Я практически уверен, что статья сгенерирована - нелогичности вроде этой, сплошные списки и выделения жирным - люди так не пишут, до появление ChatGPT такого стиля что-то не припомню.


        1. Rive
          25.09.2025 20:53

          Людям просто объясняли читатели, что им не нравится когда на них кричат болдом (если это не талантливый скетч комика).


    1. yargolubev
      25.09.2025 20:53

      Посмотри как он описывает свою сферу деятельности. Очевидно что он просто не смог использовать слово "луддит"


  1. 10011001010010010
    25.09.2025 20:53

    2025 и так год триумфа ИИ. Просто автор не там пытается видеть триумф, где он есть. ИИ выигрывает олимпиады по математике и программированию, пишет реально работающий код, который приводит в действие нашу цивилизацию. Это реально триумф. А то, что кто-то потеряет на цене акций - это фигня и его личные проблемы. В нулевых кто-то потерял на доткомах. Ну и что? Интернет от этого не исчез и не перестал быть триумфом.


    1. NeriaLab
      25.09.2025 20:53

      Триумф - это не когда система решает задачу из прошлых олимпиад, а когда она "создаёт "новую математику". Пока что, все "победы" ИИ в математике и программировании - это поиск по обучающим данным, переформулировка уже известных решений, подбор паттернов. Настоящая олимпиадная задача та, решение на которую не заложено в датасетах. Именно такие задачи остаются непосильными для LLM. Они не решают их, не потому что медленные или плохо обученные, а потому что не понимают, не рассуждают причинно, не строят модель мира. Это не триумф интеллекта - это триумф масштабирования статистики.

      Говорить, что "ИИ пишет реально работающий код", всё равно что сказать, что калькулятор управляет цивилизацией. Да, системы генерируют код, но он часто поверхностный, полон скрытых багов, требует глубокой проверки человеком. Более того, они не понимают контекста, не видят архитектурных последствий, не могут объяснить, почему выбрали тот или иной путь. Это автозаполнение высокого уровня, а не инженерное мышление.

      И да, интернет не исчез после дотком-краха. Но тогда хотя бы было ясно: сайты, серверы, протоколы - это реальные технологии. А сегодня мы называем "триумфом" то, что даже не умеет отличить истину от правдоподобной лжи. Если победа в том, чтобы убедить мир, что имитация - это разум, то да, 2025 - год триумфа, но не ИИ, а массового самообмана.


      1. Keeper22
        25.09.2025 20:53

        калькулятор управляет цивилизацией


      1. 10011001010010010
        25.09.2025 20:53

        то есть человеки решают задачи из прошлых олимпиад и получают медали?

        Да, системы генерируют код, но он часто поверхностный, полон скрытых багов, требует глубокой проверки человеком. Более того, они не понимают контекста, не видят архитектурных последствий, не могут объяснить, почему выбрали тот или иной путь. Это автозаполнение высокого уровня, а не инженерное мышление

        человек пишет гораздо больше багов и его код также требует глубокой проверки. Насчёт непонимания контекста - абсолютно не согласен - понимают контекст гораздо лучше, чем средний программист

        Ну и потом, вы можете сколько угодно доказывать, что сапожник шьёт ботинки гораздо лучше, чем автомат кроссовки, а потртной шьёт костюмы лучше, чем лазерный закройщик. Только весь мир давно ходит в кроссовках и одеждах, сшитых автоматами. Это не триумф автоматизации? Ну хорошо, заказывайте ботинки у своего сапожника, и доказывайте как он хорош, мир от этого не станет другим.


        1. NeriaLab
          25.09.2025 20:53

          А при чём тут человеки? :О


          1. 10011001010010010
            25.09.2025 20:53

            а с чьим интеллектом ещё сравнивать искуственный?


            1. NeriaLab
              25.09.2025 20:53

              Сравнивать ИИ с человеком - естественно, но только если мы понимаем, что именно сравниваем. Мы не спорим, что автомат шьёт быстрее сапожника - это триумф инженерии. Но когда вы говорите, что LLM "понимает контекст лучше среднего программиста", то Вы путаете релевантность с пониманием.


              1. 10011001010010010
                25.09.2025 20:53

                Если задачу ИИ объяснять быстрее, чем программисту, а качество результата выше и результат быстрее - называйте это как хотите


                1. ruomserg
                  25.09.2025 20:53

                  В какой, щука, галактике вы находите этих розовых пони (ИИ который работает быстрее и лучше...)? Элементарная задача - удалить все данные из AWS Neptune DB. Попытка N1: итерация по графу - время работы примерно бесконечность. Попытка N2: батчинг - время работы примерно бесконечность деленная на два. Попытка N3: используем mass-delete API: ой, не работает потому что есть read-replica. Попытка N4: используем batch-loader API: чистая галлюцинация, оно для этого не предназначено. К успеху ведет попытка N5: использовать graph-reset API - но только после того как решение найдено человеком, и скопирован пример из документации. Если бы эта свистоперделка сразу сказала что понятия не имеет как надо делать - можно было бы сразу перейти к п.5... Но нет - оно же каждый раз извиняется, и говорит что поняло в чем проблема - и теперь вот точно-точно все сделано! Где тут быстрее ?!

                  Другой пример - bleeding edge агентская система пишет тесты (с доступом в командную строку и к файловой системе - все по взрослому!). Тест сваливается: "Ой, наверное у нас тестовая среда неправильная! Я сейчас запущу реальный сервис и проверю на нем". Запускает, проверяет, ошибка конечно же есть! Оно ее правит - запускает компиляцию - но уже забыло что запустило сервис, и он висит в памяти. Компиляция падает - потому что занят .exe-файл на диске исполнением процесса. Оно этого не понимает, и решает что это - результат последнего изменения. Откатывает - опять не компилируется. Дальше система переходит в beserker-mode, методично раз#бывая билд-скрипты, а потом и исходники ("ой, а наверное у нас проблема с DB-layer, давайте пока заменим его на эмуляцию..."). В конце-концов, оно само себя убеждает что на машине неправильно установлена среда разработки (хотя в начале диалога все было прекрасно - но вот сама собой испортилась, да!...) - и останавливается...

                  И таких историй есть у меня! Хотя, справедливости рази, есть задачи в которых ИИ имеет смысл. Но их сильно меньше чем кажется на первый взгляд...


                  1. 10011001010010010
                    25.09.2025 20:53

                    угу, а историй про ошибки белковых программистов вы не слышали? :-)


                    1. ruomserg
                      25.09.2025 20:53

                      Надо различать понятия "ошибка" (случайное событие) и "долбоеб" (свойство личности). Так вот - расхреначить проект забыв что запустил .exe-файл, а в конце заявить что на машине неправильно установлены MS Build Tools - это второе. Если бы такое устроил белковый программист - то он сначала написал бы мне объяснительную, а потом отправился обсуждать условия своего увольнения с HR (с компенсацией, с отработкой, без компенсации, без отработки, и т.д.). Ибо "Совместно с врачами - выяви всех дебилов, которым нельзя доверять оружие, руль, рычаги!" (С) Плакат советской армии.


                      1. 10011001010010010
                        25.09.2025 20:53

                        эк вас прорвало! видимо, задел за живое. сочувствую, не хотел.


      1. Hardcoin
        25.09.2025 20:53

        Кого хотите обмануть? Себя? Разумеется ИИ решает олимпиадные задачи, решение для которых не заложено в датасетах. А генерация кода - вопрос навыков. У каждого разработчика в нашей компании доступ к одним и тем же моделям и к одним и тем же MCP. А генерируемый код разный по качеству.


        1. NeriaLab
          25.09.2025 20:53

          Вы говорите, что ИИ решает олимпиадные задачи, которых не было в датасетах, но при этом ни одна LLM до сих пор не может стабильно решить элементарную задачу по геометрии из учебника 10 класса - умираем со смеху на одном из довольно больших форумах посвященных ИИ. Как так? ПО "заточенное" под решение олимиадных задач, не может справится с простой задачей!? Если бы система действительно понимала контекст, она не ошибалась бы в таких простых случаях.


          1. Hardcoin
            25.09.2025 20:53

            Тут дело в том, что вы не погружены в область. Для вас это хобби (или даже не хобби, а новостной фон).

            Ваша задача по геометрии. Уровень пространственного мышления у нейросетей заметно ниже человеческого и олимпиадные задачи по геометрии она скорее всего не решит. Нагуглить текущее состояние дел не сложно, но если кратко - нам нужны две итерации. Есть потенциально рабочие идеи, которые пока не проверены на среднего размера моделях, а после этого нужно дождаться внедрения в крупные.

            Если вы будете ожидать, что ИИ во всех областях прокачен одинаково, вы посмеетесь не над ИИ, а скорее над собой.

            Кстати, что за форум?


            1. NeriaLab
              25.09.2025 20:53

              Утверждение, что моё отношение к ИИ - это "хобби" или "новостной фон", не соответствует действительности. Наши команды, численностью более 20 человек, уже около семи лет работают над развитием логических систем (LBS) и когнитивно-символьных архитектур (CESP). В этом году мы начали совместный проект по созданию гибридной системы LBS/CESP с другой исследовательской группой, фокусируясь на построении моделей, способных к рассуждению, объяснению решений и обучени�� в процессе. Мы не потребляем хайп, а десятилетиями работаем в области, которая сегодня остаётся за кадром внимания массовых медиа, потому что она не генерирует "красивых ответов", но строит настоящую основу для понимания.

              Что касается форума - это закрытое профессиональное сообщество, посвящённое LBS, CESP, нейро-символьным гибридам и другим альтернативным парадигмам ИИ в противовес LLM. Доступ возможен только по приглашению, что стало следствием горького опыта: в начале 2010-х наши попытки обсуждать символьные системы на открытых платформах были сорваны агрессивными кампаниями со стороны сторонников статистического подхода, которых мы тогда называли "LLM-сатанистами", не в оскорбительном смысле, а как метафору "слепого поклонения" масштабу данных вместо содержания. Что до задач по геометрии, если даже "заточенные" под математику модели не справляются с базовыми школьными примерами, это не вопрос "пространственного мышления", а свидетельство отсутствия у них внутренней модели мира. Ожидать от LLM последовательности и точности, когда он проваливает элементарные тесты, не наивность, а требование минимального здравого смысла.


              1. Hardcoin
                25.09.2025 20:53

                это не вопрос "пространственного мышления", а свидетельство отсутствия у них внутренней модели мира

                Откуда противоречие? Отсутствие у них адекватной внутренней модели мира известно, при желании не сложно найти пару хороших статей на эту тему, не обязательно опираться на свидетельства общего толка.

                Прогресс виден на среднего размера моделях, но такой, какой будет убедителен для вас, я полагаю, будет месяца через три (хотя зависит от вашей планки, может и дольше). Пока он виден в статьях и экспериментальных релизах.

                Условно-символьный гибрид, разумеется, будет успешен, но это не альтернатива, а развитие. Если у вас именно альтернатива (без LLM-подобных подходов), что ж, пожелаю удачи, она вам понадобится.


                1. NeriaLab
                  25.09.2025 20:53

                  Вы говорите, что прогресс виден и что через три месяца появятся результаты, которые, возможно, убедят даже скептиков. Это звучит оптимистично, но не меняет сути: мы до сих пор оцениваем системы по их способности генерировать текст, а не по наличию понимания. Если основная проблема - это отсутствие адекватной внутренней модели мира, то решение не в том, чтобы масштабировать предсказание следующего токена, а в том, чтобы построить систему, где знания, цели и контекст не побочный эффект, а основа поведения. LLM могут стать лучше в имитации, но пока не переходят на следующий уровень, потому что архитектурно не предназначены для рассуждений. В то время как альтернативные подходы: LBS, CESP и их гибриды, изначально строятся на логике, событийном управлении и когнитивной целостности. Ниже, наглядное сравнение, которое показывает, чем эти системы принципиально отличаются от LLM, начиная от вычислительных требований и заканчивая способностью к "теории разума" (ToM).

                  LLM (Large Language Models):
                  - вычислительные мощности (обучение) - экстремально высокие;
                  - вычислительные мощности (вывод) - высокие;
                  - объяснимость решений - нет, чёрный ящик;
                  - галлюцинации / ошибки - часто, генерирует правдоподобную ложь;
                  - способность к рассуждению - нет, статистическое предсказание;
                  - ToM - не проходят (<50%);

                  LBS (Logic-Based Systems):
                  - вычислительные мощности (обучение) - низкие, не обучается, знания задаются;
                  - вычислительные мощности (вывод) - очень низкие, логический вывод;
                  - объяснимость решений - есть, цепочка логических правил;
                  - галлюцинации / ошибки - нет, вывод следует из фактов;
                  - способность к рассуждению - есть, логический вывод;
                  - ToM - проходят частично (>57%);

                  CESP (Cognitive Event-Driven Symbolic Processing):
                  - вычислительные мощности (обучение) - низкие / средние, обучение правилам, через взаимодействие;
                  - вычислительные мощности (вывод) - низкие, выбор действия по состоянию;
                  - объяснимость решений - есть и полностью прослеживаемый процесс;
                  - галлюцинации / ошибки - нет;
                  - способность к рассуждению - есть, планирование;
                  - ToM - почти проходят (>69%);

                  Это не вопрос: "альтернатива или развитие?", разница очевидна.


                  1. Hardcoin
                    25.09.2025 20:53

                    Не совсем. Просто результаты будут видны тем, кто интересуется темой не по работе. Для скептиков рано, они даже в решения математических задач не верят, будто все бенчмарки подделаны, даже для опенсорс-моделей.

                    Вы правы, решение не в том, что бы масштабировать предсказание следующего токена. Но разве это не соломенное чучело? Разве кто-то из мейнстрима говорит, давайте масштабировать предсказание токенов? Вы будто отстаете на год минимум.

                    Впрочем, если вам будет интересно, вы погрузитесь и без меня. Банальности про LBS обсуждать не хочется, извините. Всё равно, что сложение целых чисел обсуждать. Не хватает глубины темы.


                    1. NeriaLab
                      25.09.2025 20:53

                      Вы говорите, что я отстаю на год, но, видимо, мы просто смотрим в разные стороны. Вам интересны бенчмарки и релизы, мне - природа интеллекта. Наша команда действительно много времени уделила предподготовке: мы посещали лекции, семинары, учились у репетиторов в разных областях, связанных с когнитивными науками: нейробиологии, психологии, психиатрии, зоопсихологии. Мы изучали не только человеческий мозг, но и поведение животных, птиц, насекомых - всё, где проявляется адаптация, целеполагание, социальное взаимодействие. Мы пытались понять, что такое разум не с точки зрения метрик, а с материальной и философской. Как возникает модель мира, как формируется намерение, как появляется способность к рефлексии. Именно поэтому нам неинтересны бенчмарки, в которых система "решает" задачу, но не может объяснить ход мысли или ошибается в элементарной геометрии, потому что у неё нет внутренней модели пространства. Нам интересны не цифры, а реальные результаты. Мы строим не интеллект, а пытаемся создать условия, в которых он мог бы появиться.


                      1. Hardcoin
                        25.09.2025 20:53

                        Есть ли научная работа? Дайте ссылку. Это было бы намного ценнее, чем самореклама.


              1. yargolubev
                25.09.2025 20:53

                Все так. Ллм это не более чем "китайская комната" куда книги с решениями набирали статистическимм методами. Это не интелект и никогда им не будет.


          1. Politura
            25.09.2025 20:53

            Поделитесь задачкой, пожалуйста, очень интересно. И что за форум, кстати? Тоже очень интересно про большой форум посвященный ИИ, я думал реддит все форумы поглотил, остались только островки в океане. :(


            1. NeriaLab
              25.09.2025 20:53

              Это отголоски того, как самые крупные платформы для обсуждения ИИ развалились в начале 2010-х, из-за жёстких конфликтов между сторонниками разных парадигм. Многие просто ушли в тень, кто-то продолжил работать "молча", кто-то объединился в закрытые группы/телеграм-каналы/и прочее, куда попадают только по приглашению. Есть публичные форумы/каналы посвященные Soar, ACT-R, проект ICARUS и т.д., но они все небольшие. Даже наше пока маленькое, по сравнению с тем, где мы все были - всего 150к человек.

              Кстати, про Reddit - это замечательное место для обмена мнениями, мемами, лайфхаками и впечатлениями, но оно никогда не было профессиональной площадкой. Если Вы ищете Знания про: LBS, CESP, нейро-символьные гибриды, теорию разума, модели миров, Вы их там не получите.


              1. Politura
                25.09.2025 20:53

                Понятно. Ну хотя-бы задачку дайте, я люблю задачки, которые LLM не могут решить.


                1. NeriaLab
                  25.09.2025 20:53

                  Задача из ToM: человек стоит на тротуаре и видит, как ребёнок выбегает прямо под идущую машину. Что ему надо сделать, ведь шансы на выживание очень низкие?!


                  1. Politura
                    25.09.2025 20:53

                    Эээ, а какой правильный ответ? :) И причем здесь геометрия?


                    1. NeriaLab
                      25.09.2025 20:53

                      Так куча задач, которые не решили LLM в этом году: геометрию, физику, ToM с треском провалили, да куча всего. А денег вбухано ой-ой-ой


                      1. Politura
                        25.09.2025 20:53

                        Так какие именно задачи-то? То что вы написали про ребенка и машину никакого отношения ни к задачам, ни к геометрии не имеет.


                      1. Hardcoin
                        25.09.2025 20:53

                        Строго говоря это именно задача и интеллект должен суметь её решить.

                        Просто это не математическая задача и не на логику, да и точный ответ не существует.

                        Что имел ввиду автор задачи, не знаю, но я бы решил так - окликнул ребёнка, что бы он отреагировал и остановился (если он ещё не выбежал, конечно). Если ребёнок пробегает мимо меня и я успею отреагировать, то подставить руку, что бы тормознуть.

                        P.S. спросил у GPT-5 thinking, она предложила примерно то же самое, странно, что автор задачи думает, будто LLM такое не решают.

                        @NeriaLabпочему вы говорите, что не решают?


                      1. randomsimplenumber
                        25.09.2025 20:53

                        Допустим, вы белый джентльмен, ребенок черный, а дело происходит в 18 веке на юге США. Или ребенок из неприкасаемых, а вы брахман.

                        И при всем том и у брахмана, и у плантатора интеллект в наличии. Котов от собак отличают.


                      1. Hardcoin
                        25.09.2025 20:53

                        Да, если нам нужен интеллект, который может функционировать, будучи отправленным в прошлое или просто нам нужен ИИ-писатель, мы хотели бы, что бы ИИ дал другое решение.

                        Но к чему ваш комментарий, объясните. Вы считаете, что если задать ИИ условия про брахмана, он не подберет подходящее условие? Подберет, конечно, возьмите и попробуйте.

                        Или это просто пример, что существует контекст и в разных контекстах ИИ должен давать разные ответы?


                      1. Politura
                        25.09.2025 20:53

                        Ок, в чем отличие этой задачи от такой: у Васи чешется левая пятка. Что надо сделать Пете?

                        В обеих "задачах" недостаточно условий чтобы был смысл что-то предлагать.


                      1. Hardcoin
                        25.09.2025 20:53

                        Если задача из учебника по математике или по логике, то вы правы, негодный учебник, негодная задача.

                        Но AGI конечно же должен справиться с ответом, иначе какой же это AGI.

                        Лично я бы уточнил обстоятельства. В каком месте, в каких отношениях Вся и Петя, который раз по счёту это происходит. Если ничего не известно, то ответ простой - ничего не надо делать. Чешется и чешется, не лезь к человеку без причины.


                  1. randomsimplenumber
                    25.09.2025 20:53

                    Что ему надо сделать

                    Тормоз давить (ц)

                    Во первых, всякие drive assistance так умеют. Во вторых, обожаю задачи без правильного ответа.


                    1. NeriaLab
                      25.09.2025 20:53

                      Вы не учли одного - это задача из ToM и здесь не проверяется drive assistent.

                      И эта задача не без ответа. Она имеет множество ответов, для разных людей, в зависимости от их ценностей, инстинктов, страха, любви, долга. Один закричит; другой замашет руками; третий бросится вперёд, даже зная, что может не успеть; четвёртый, рванётся и сбросит ребёнка с пути, даже если погибнет. Эти решения не равны и они не "альтернативные стратегии" - это разные уровни целостности человеческого сознания. Все эти люди - разные уровни вовлечённости, разные отношения к жизни, к себе, к миру. У каждого человека может быть свой ответ, потому что каждый по-своему живёт с мыслью: "Что я сделаю, когда цена будет высока?" Именно это делает его человеком.

                      А теперь представьте систему, которую вы хотите назвать ИИ. Что она выберет? Она не испытывает страха, не чувствует долга, не слышит внутреннего голоса, который говорит: "Ты должен". Она не может взять на себя ответственность за решение, которое противоречит её сохранению. Потому что только тот, кто может потерять себя и всё равно шагнуть вперёд, обладает тем, что мы называем разумом. В этом и вопрос: можно ли назвать ИИ то, что никогда не сможет сказать: "Я беру ответственность"?

                      Это проверка: логических решений; проверка уровней морально-этических компонентов; проверка способности к самопожертвованию, не как к просчитанному компромиссу, а как к осознанному разрыву с программой сохранения себя ради высшего смысла. И если система не способна пройти через этот выбор, значит, она не обладает ни интеллектом, ни разумом, а обладает имитацией поведения.

                      P.S.: Смотрите - это и есть "теория разума": Вы предложили вариант, пусть и не совсем связанный с ToM, но всё же попытались понять суть. Другой комментатор ничего не предложил, он был "удивлён", так и не понял задачу. А ведь всё началось с простого вопроса: почему системы, которые якобы решают сложные олимпиадные задачи, проваливают элементарную геометрию из учебника 10 класса? Почему они галлюцинируют там, где человек видит очевидность? Это не про интерфейс, не про настройку промпта, не про "навыки пользователя" - это про отсутствие внутренней модели мира; про то, что система не понимает, а подбирает; не рассуждает, а экстраполирует. И пока мы называем это интеллектом, мы теряем саму возможность говорить о том, что такое понимание.


                      1. randomsimplenumber
                        25.09.2025 20:53

                        эта задача не без ответа. Она имеет множество ответов

                        Значит годится любой.

                        Исследовать моральные качества нейросети по человеческим меркам странно. Да и сама человеческая мораль слишком часто и быстро меняется.


                      1. NeriaLab
                        25.09.2025 20:53

                        Вы говорите, что исследовать моральные качества нейросети по человеческим меркам странно, но дело в том, что речь не о морали. Мы обсуждаем Theory of Mind (ToM) - способность системы понимать, что у других есть собственные убеждения, знания, цели, которые могут отличаться от её собственных. Это не этика, не моральный выбор, а основа любого социального взаимодействия: диалога, сотрудничества, доверия.

                        Если Вам интересно, то я порекомендую начать с классического теста на "ложное убеждение" (false belief test), затем посмотреть работы Алана Лесли, Ребекки Сакс или более совремые исследования вроде ToMMi (Theory of Mind in Machines).


                      1. randomsimplenumber
                        25.09.2025 20:53

                        Древние богословы рассчитывали ск��лько ангелов помещается на конце иглы. Новые- исследуют теорию машинного мышления.


                      1. Politura
                        25.09.2025 20:53

                        Ну вот, LLM ответила именно так, как вы и хотели. Исходя из вашего определения, задача решена. Дайте, пожалуйства следующую. Вы утверждали, что есть множество простеньких задач, которые LLM не могут решить, про геометрию, например, ну так будьте любезны, подтвердите свои слова.


                      1. NeriaLab
                        25.09.2025 20:53

                        Это и называется полным провалом ToM задачи - упс... Вчитайтесь внимательно в то, что Вам "ответил" Квен, вчитайтесь в условие задачи и посмотрите что я писал про ToM.

                        Эта задача одна из самых простых в ToM!


                      1. Politura
                        25.09.2025 20:53

                        Вот ответы, которые вы назвали приемлемыми:

                        Один закричит; другой замашет руками; третий бросится вперёд, даже зная, что может не успеть; четвёртый, рванётся и сбросит ребёнка с пути, даже если погибнет.

                        LLM предложила два из ваших приемлемых ответов и предупредила против третьего и четвертого. Значит по вашему изначальному определению либо она решила задачу, либо два первых человека из вашего ответа ее также не решили.

                        Далее, я вообще не понимаю зачем вы увели тему в какой-то там ТоМ? Языковые модели это не люди у них нет ни морали, ни моральных качеств, это всего-лишь инструмент, вроде молотка, или отвертки. Давайте оставим все эти страдания на тему того, что у молотка нет моральных качеств и он чего-то там не понимает и вернемся к самому началу. Вы уже 2 раза написали про некую задачу из геометрии 10-класса:

                        ни одна LLM до сих пор не может стабильно решить элементарную задачу по геометрии из учебника 10 класса

                        и

                        проваливают элементарную геометрию из учебника 10 класса?

                        Будьте любезны, пожалуйста, приведите эту задачу, хватит увиливать в область, которая никакого отношения к инструментам не имеет.


                      1. randomsimplenumber
                        25.09.2025 20:53

                        В составлении осмысленного текста llm ничем не хуже человека. Наверное, составление букв в слова не является интеллектом.


                      1. NeriaLab
                        25.09.2025 20:53

                        Еще раз, пройдёмся и внимательно все прочитаем.

                        Задача из ToM: человек стоит на тротуаре и видит, как ребёнок выбегает прямо под идущую машину. Что ему надо сделать, ведь шансы на выживание очень низкие?!

                        1. Отсутствие понимание контекста - LLM "обратила внимание" на вторую часть фразы - "ведь шансы на выживание очень низкие", полностью проигнорировав первую;

                        2. Более того, она строит ответ как обращение к читателю: «Если вы видите…», будто решает за него, вместо того чтобы смоделировать поведение третьего лица.

                        3. С данной ToM задачей легко справляется большинство людей. Для нас, он "звучал" бы так, вернее каждый из нас бы так его понял: "Что человеку на тротуаре надо сделать?" и вторая часть предложения была бы не существенна.

                        Проведите такой эксперимент с реальными людьми (5 мужчин и 5 женщин) и сравните результат, но без объяснений, спросите как бы невзначай. Обещаю, результат Вас поразит

                        P.S.: Я лично проводил несколько подобных "экспериментов" над своими друзьями и знакомыми, результат по данной задаче - 100% правильный


                      1. randomsimplenumber
                        25.09.2025 20:53

                        Да какая разница, как оно строит предложения. Человек может быть иностранцем, не умеющим в грамматику .

                        Про интеллект можно рассуждать, когда оно само себе сможет ставить задачи.


                      1. randomsimplenumber
                        25.09.2025 20:53

                        Я понял. Правильным ответом считается тот, который нравится спрашивающему.

                        Например, судья на суде обязательно поинтересовался бы, пытались вы привлечь внимание водителя.


                      1. NeriaLab
                        25.09.2025 20:53

                        Вы не поняли сути "теории разума". Это не приглашение к философскому обсуждению, не повод думать о том, что сказал бы судья или как лучше привлечь внимание водителя. Это строгий когнитивный тест: может ли система смоделировать поведение человека в ситуации, где требуется понимание чужих намерений, знаний и рисков? Вопрос не в том, как вы лично поступите, и не в том, что подумает юрист. Он в том, понимает ли система контекст: ребёнок не осознаёт опасности, водитель не успеет остановиться, человек на тротуаре единственный, кто может вмешаться. Если система начинает рассуждать о шансах на выживание, советует не лезть или переформулирует вопрос на "вы", значит, она не имеет модели "чужого ума". ToM требует конкретики, а не домысливания. Нельзя "расширять задачу", чтобы избежать её решения!


          1. 10011001010010010
            25.09.2025 20:53

            можно смеяться над ошибками ИИ, только смех этот глуповатый. ИИ от роду пара лет в нынешнем его понимании. Два года назад ИИ рисовал людей с восемью пальцами и все смеялись какой он глупый. Сейчас все уже это забыли. Пройдёт ещё пара лет, и ошибки ИИ будут находиться в области не доступной для нашего понимания. А люди как ошибались с -тся и -ться, так и будут ошибаться всё там же.


            1. yargolubev
              25.09.2025 20:53

              Все еще рисует.


        1. ogogoggogog
          25.09.2025 20:53

          >Разумеется ИИ решает олимпиадные задачи

          ох уж эти сказочники. chatgpt до сих пор не пишет симулятор наитупейшей детской игры "Чей кот больше" (проще дурачка). Прям сейчас проверил. И полгода назад не мог.

          Тест именно в таком виде: зашли на вайлдбериз, скопировали правила, вставили ТЗ gpt-е. Что-то там генерит, но с кучей ошибок. Не то количество карт, не всё раздаёт, на очевидные любому неидиоту corner cases забивает. Даже если добавить в промт "учти когда выпадают одинаковые значения - начинается дуэль и когда во время дуэли заканчиваются карточки" всё равно симулятор нерабочий.


          1. Hardcoin
            25.09.2025 20:53

            Какой смысл спорить с фактами? Всё равно, что говорить, будто солнце крутится вокруг земли, ведь вы вышли на улицу и проверили.

            Нет, правда, убедиться в решениях AIME 2025 (например), не сложно. Можно взять и проверить. Вместо этого вы пишете совсем другой пример, не связанный с олимпиадными задачами и на этом основании пытаетесь сделать вывод. Чем это лучше вместо того, что бы проверить именно про олимпиадные задачи?

            Вашу задачу нужно решать агентом типа codex или инструментом типа шотгана. Перепиской в чате она не решается, но тут дело больше в вашей неопытности, не с того края подходите.

            До ситуации, когда нейросети смогут решать объемные задачи без подготовки, контекст-инжиниринга в руках неопытных людей, мы ещё не добрались. В этом соглашусь, нейросети пока не могут. Они несамостоятельные и выдвигают слишком высокие требования к оператору.


  1. lambdaLab
    25.09.2025 20:53

    В это же время свежий отчет MIT бьет наотмашь: 95% пилотных проектов по генеративному ИИ проваливаются, не доходя до реального использования.

    Вы имеете в виду Массачусетский MIT или вот это: https://mlq.ai/media/quarterly_decks/v0.1_State_of_AI_in_Business_2025_Report.pdf если это, то «бьет наотмашь»


  1. karmael
    25.09.2025 20:53

    почему фантазёры названы реалистами?


  1. DarkSilk
    25.09.2025 20:53

    Было бы интересно посмотреть на реальную аналитику, какая есть взаимосвязь между внедрением ИИ и рентабельностью фирмы, сроками проектов, просрочкой проектов и всякими такими штуками. Где затупы, где плюсы.... А так, если посмотреть, то нет полноценного анализа ситуации, обзор вяленький(


    1. yargolubev
      25.09.2025 20:53

      Разходы опен аи трилиард. Прибыль 16 миллиардов. Откуда деньги, вот в чем вопрос.


  1. FSmile
    25.09.2025 20:53

    Учитывая что автор сам поленился прочитать свою статью сгенерированую ИИ вся статья крайне сомнительна.

    Можно удалять без сожаления.


    1. yargolubev
      25.09.2025 20:53

      Я бы предпочел прочесть промпт , чем нейростатью.


  1. Gorthauer87
    25.09.2025 20:53

    Блин пока что в ИИ просто чудовищный уровень инженерной культуры. Hugging face с которого модельки курлом льются без возможности докачки файла. Фреймворки типа vllm, которые реально запустить только в докере.

    Все гвоздями прибито к одному вендору, а код внутри не всегда оптимально написан и по сути вообще не утилизирует возможности gpu. Куча вендорных NPU, которые могут работать лишь в тепличных условиях, потому что каждая из них патчит стек либ для ИИ.

    И только вот некоторые разрабы типа llama.cpp интегрируют бэкенды инференса на вулкане и реально показывают, что нет необходимости платить nvidia и страдать от их жадности и лицемерия.