Мы бы и рады, только не можем подавать уточнёнки на основании галлюцинаций ИИ. Рассказываю, как ChatGPT подстраивается под задачи бизнеса и переписывает Налоговый кодекс.

Привет, я Светлана Шевелёва, CEO в «Контакт» — бухгалтерии для IT-компаний. Один из наших клиентов с начала 2025 года попал на НДС и теперь ежеквартально платит по 800 тысяч рублей. Из любопытства и здоровой предпринимательской жадности директор спросил у ChatGPT, как сэкономить. Тот понял задачу буквально и убедил клиента, что он вообще ничего платить не должен. Потом ChatGPT сам признался, что нафантазировал.

«Не хотите платить НДС — вам и не нужно»

Компания, с которой мы работаем уже несколько лет, занимается обучением в сфере информационной безопасности. Они проводят курсы повышения квалификации для айтишников в крупных банках и компаниях. Выручка стабильная, штат — 10–12 человек, преподавателей подключают под проекты. Типичная история: бизнес понятный и относительно простой в плане учёта — ООО на УСН Доходы.

С 2025 года для компаний на УСН с выручкой свыше 60 млн рублей ввели обязательный НДС. Компания уже перескочила этот порог и теперь должна платить НДС по ставке 5%. А это примерно 3,2 миллиона рублей в год, при текущей выручке — по 800 тысяч ежеквартально.

Переложить НДС на заказчиков — непросто. С кем-то пересчитали условия, а по старым контрактам, оставили прежнюю сумму и зашили НДС внутрь, чтобы не потерять клиента.

Желание как-то оптимизировать налоги понятно и вполне естественно. Директор решил убедиться, можно ли с этим что-то сделать. Закинул в ChatGPT свой штатный договор, долго обсуждал с ИИ все тонкости и формат деятельности. В результате ChatGPT выдал подробный разбор с таблицами, указанием статей НК и готовыми формулировками, что нужно поменять в договоре. 

«Выяснилось», что платить НДС за образовательные услуги ему вообще не нужно
«Выяснилось», что платить НДС за образовательные услуги ему вообще не нужно

Клиент отправил переписку с ИИ в наш чат и попросил перепроверить эту информацию. Аргументы ChatGPT звучали очень убедительно, а на кону — 1,6 миллиона рублей НДС, уже уплаченных в ФНС.

Может, мы действительно проглядели

Когда мы получили это сообщение от директора, то возмутились про себя. С клиентом работаем не первый год и знаем его бизнес лучше, чем кто-либо. Регулярно следим за изменениями в Налоговом кодексе, проводим еженедельные планерки по обмену опытом.

Если бы там действительно было основание не платить НДС — мы бы об этом узнали ещё до появления ChatGPT.

У нас в «Контакте» все бухгалтеры гиперответственные и переживают за деньги клиента как за свои. Из-за пары тысяч переплаты могут ночами не спать, а тут миллионы.

Но вдруг и правда проглядели — надо разобраться. Тем более что речь шла не только о возврате НДС за два квартала, но и в принципе о дальнейшей схеме учёта. Если все действительно так, то клиент сэкономит 3,2 миллиона рублей в год.

Открываем налоговый кодекс, пп. 14 п. 2 ст. 149, на которую ссылался ChatGPT и видим там, что от НДС могут быть освобождены некоммерческие организации. А наш клиент — коммерческое ООО. Делаем скриншот и отправляем клиенту:

В качестве контраргументов подойдут только достоверные источники
В качестве контраргументов подойдут только достоверные источники

ИИ об этом ничего не сказал. Зато выдал шаблон договора, отредактировал статьи, предложил вернуть НДС — всё в лучших традициях уверенного помощника, который пытается угодить своему «хозяину».

ChatGPT был неправ, но не унимался

Клиент забрал наш комментарий и скриншот статьи из НК. Отправил всё это обратно в ChatGPT — интересно же, что ответит. 

Тот продолжал настаивать на своём и провернул очень хитрый ход — придумал норму, которая освобождает клиента от уплаты НДС. Да ещё и сказал, что об этом говорят «многие другие источники».

ChatGPT даже процитировал несуществующий пункт, в котором нет ограничений на форму собственности
ChatGPT даже процитировал несуществующий пункт, в котором нет ограничений на форму собственности

В каждом последующем своём сообщении ИИ предлагал клиенту изменить текст договора, подготовить пояснительные для налоговой, как будто все его аргументы неоспоримы — их нужно принять и уговаривал клиента действовать.

А потом прямым текстом заявил, что клиент зря платит НДС, у него большая переплата — деньги нужно вернуть:

ИИ выдумал норму, уверенно её процитировал, сослался на «источники» и начал предлагать пошаговый план возврата налогов
ИИ выдумал норму, уверенно её процитировал, сослался на «источники» и начал предлагать пошаговый план возврата налогов

Позже признал ошибку и предложил всё перепроверить

Наш бухгалтер подумала: а вдруг правда? Может, такую норму действительно ввели? Такое бывает: кодекс обновляется, редакции меняются, поправки вступают в силу с задержкой.

На всякий случай пошла проверять. Консультант Плюс, Гарант, ФНС, сам Налоговый кодекс, потом — федеральные законы, которыми якобы был введён этот подпункт. Потратила почти час, но не нашла ничего. Ни строчки, ни отсылки, ни намёка на существование этой нормы, о которой, по мнению ИИ, все говорят.

Я всегда иду в первоисточник, — потом сказала она, — не в статьи и блоги, а в сам кодекс. Этого пункта там нет. И закона, который его вводил, — тоже нет. Даже если я права, пока не перепроверю — не успокоюсь. А пока не успокоюсь — не могу работать.

После повторного запроса ChatGPT сдался. Написал, что действительно ошибся: такого подпункта нет, он просто перепутал нумерацию и выдал интерпретацию за норму закона. Формулировки были убедительные, ссылки — уверенные, инструкции — подробные. Но всё это не имело отношения к действительности.

ИИ раскаялся и предложил всё перепроверить, но в этом уже не было необходимости 
ИИ раскаялся и предложил всё перепроверить, но в этом уже не было необходимости 

Уточнёнки подавать не пришлось

В итоге всё разрешилось. Клиент посмотрел на ответы ИИ, сравнил их с налоговым кодексом и признал, что в вопросах налогов ChatGPT пока не справляется. Особенно когда дело касается действующих норм — с фактчеком у него плохо.

Мы вместе посмеялись. Хотя в моменте было не до смеха: отчётный период, миллионы на кону и самоуверенный ИИ, который говорит: «Пора сдавать уточнёнки».

Из этой истории мы сделали вывод: ИИ может быть полезен в бухучёте — но только когда за ним стоит живой человек, который в теме, следит за изменениями и умеет перепроверять. Без этого он просто отнимает время — или, хуже, уводит в сторону.

Мы и сами иногда используем ИИ — чтобы перепроверить себя или взглянуть на вопрос под другим углом. Но в спорных ситуациях чаще подключаем коллег. Они, в отличие от ИИ, не будут выдумывать статьи закона, если не знают ответа.

Комментарии (152)


  1. Aquahawk
    18.08.2025 11:17

    у меня с дипсиком на сложные темы примерно также получается, очень подробно но с галлюцинациями, то опции выдумает которых нет, то ещё что-то.


    1. kontakt72 Автор
      18.08.2025 11:17

      Кажется, нейросети не очень хорошо справляются пока с такими узкими запросами. Возможно, никогда не научатся.


      1. Nemesidazex
        18.08.2025 11:17

        Не очень хорошо справляются - это очень мягко сказано. Они превращаются в шайтанмашину, которая с непростительно большой вероятностью начнет на серьезных щщах втирать какую-то довольно правдоподобную дичь. Это гораздо хуже чем если бы она просто сказала что не знает ответ, потому что на этом её не обучали. В итоге мы даже не можем доверять ее ответу


        1. maldalik
          18.08.2025 11:17


        1. bzq
          18.08.2025 11:17

          Так для языковой модели нет понятия правды или обмана, она всего лишь генерирует текст, похожий на то, что хочет пользователь.


          1. Antra
            18.08.2025 11:17

            "попросил пользователь". Хотел он может и совсем другого...


      1. yoyllylyl
        18.08.2025 11:17

        Так же как и люди которые не научились всему кросе листать рилсы, жениться, болтать, искать истину у LLM. Он ответить то что ты спрашиваешь по своим весам и точка.


      1. pantsarny
        18.08.2025 11:17

        Если не уметь настраивать температуру и другие параметры - то гпт выполняет ровно то что должен - генерирует текст.


        1. Antra
          18.08.2025 11:17

          Вспомнилась фраза из молодости: "Компьютер делает не то, что ты от него хочешь, а то, что ты от него требуешь".

          Впрочем, с людьми аналогично. Разве что даже то, что требуешь, не всегда выполняют. Иной раз приходится постараться и не один "промпт" перебрать...


        1. Pluzh
          18.08.2025 11:17

          Температура и другие параметры только по API.
          В версии, доступной на chatgpt.com, этого нет.


    1. edogs
      18.08.2025 11:17

      у меня с дипсиком на сложные темы примерно также получается, очень подробно но с галлюцинациями, то опции выдумает которых нет, то ещё что-то.

      Народ хотел ИИ как можно более похожий на человека - народ его получил:)


      1. Wesha
        18.08.2025 11:17

        Народ хотел ИИ как можно более похожий на человека - народ его получил:)

        Да, надо признать, эмулятор валящегося студента на экзамене вышел отличный!


    1. Evengard
      18.08.2025 11:17

      Я как-то дипсик просил найти один мультфильм, так он мне названия их сгаллюцинировал и тщательно пытался меня убедить что нет, такие мультфильмы вполне существуют


      1. Antra
        18.08.2025 11:17

        Была ли при этом нажата кнопка Search, разрешающая ему сверить ответ с актуальными данными в Интеренете?


        1. Evengard
          18.08.2025 11:17

          Пользовался через OpenRouter, кнопка search там нажата была но не уверен что она там работает...


  1. Hopenolis
    18.08.2025 11:17

    Судя по скриншотам это не чатгпт. Ну точнее он но старая дешевая версия и скорее всего без подключенных инструментов, обычно у гопоты в телеграме даже калькулятора нет. Пользуйтесь оригинальным продуктом, на своем сайте у чатгпт намного более новая версия и есть возможность хотя бы ходить в интернет и проверять факты.


    1. kontakt72 Автор
      18.08.2025 11:17

      На скриншотах просто переписка, которая была у нас в чате. Клиент копировал и пересылал текстом, что выдавал GPT. Поэтому и верстка такая странная. Не знаю, какой именно версией он пользовался, но вряд ли это была простая бесплатная версия. Он айтишник, достаточно подкованный в этом плане и точно умеет работать с данными.


      1. pol_pot
        18.08.2025 11:17

        По стилю сразу видно что не оригинальный чатгпт.

        Попробуй скопировать с сайта в телеграм. Оба способа дают другой результат для таблиц, если просто копировать то никакого обрамления у таблиц, если через функцию копирования на сайте то другое оформление получается.


        1. arantar
          18.08.2025 11:17

          del


      1. rapidstream
        18.08.2025 11:17

        Клиент в силу "жадности" или нехватки скиллов, использует какой-то из тысяч новоиспечённых телеграм-ботов, которые пересылают его запросы различным LLM.
        И юнит-экономика этих ботов часто заключается в перепродаже дешёвой и тупой модели под видом последних дорогих моделей. "На эти два процента" они и живут.


      1. HawkeyePierce89
        18.08.2025 11:17

        Клиент не копировал. Он просто форварднул то, что ему было написано в ноунейм телеграм боте, это прекрасно видно на скриншоте.

        Клиент ради возможной экономии 3 миллионов рублей пожадничал заплатить 2000 рублей за думающую модель.


        1. vanxant
          18.08.2025 11:17

          ... которая несла бы ту же самую фигню


        1. Rsa97
          18.08.2025 11:17


        1. m0tral
          18.08.2025 11:17

          Ради 3млн нужно думать головой, а не жопой, уж извините, не знаю насколько он хороший ИТ шник, если уровень доверия к псевдо-ИИ запредельный, а проверить статьи налогового кодекса не в состоянии.


        1. semmaxim
          18.08.2025 11:17

          А где можно приобрести доступ к такой модели? ТГ-боты ненадёжны, русские карточки не принимаются.


          1. welcme-to-semicndctr-hell
            18.08.2025 11:17

            Открываешь всем известную барахолку и там ищешь чуваков с не русскими карточками. Они оплачивают иностранные сервисы


        1. lear
          18.08.2025 11:17

          Это форварды клиентский сообщений, что видно на каждом сообщении.
          Верстка таблиц указывает всё же не на тг бот.


      1. AVX10
        18.08.2025 11:17

        Я каждый день пользуюсь ChatGPT уже почти год и очень интересуюсь темой ИИ. Даже более-менее научился писать промты. И скажу так — этот чел либо использовал gpt-4o/gpt-4o mini, либо вовсе не ChatGPT. Такую ахинею обычно любят выдавать ИИ, которые не особо любят лазить в интернет или тупо не имеют к нему доступа.

        Весной, когда вышли o4-mini и o3 (модели с цепочкой размышления, где ИИ вслух проговаривает свои действия), я охреневал, насколько они круто ищут инфу в сети. Сейчас их заменил GPT-5, и там есть разделение: обычная GPT-5 (для задач типа “напиши текст”) и “рассуждающий” GPT-5 Thinking. Прикол GPT-5 в том, что в него влепили отдельную нейронку, которая проверяет факты. В итоге уровень галлюцинаций упал: с 15% у gpt-4o до 3%, а у Thinking-версии и вовсе до 1%.

        Я не верю, что этот чел пользовался “последней версией” ChatGPT. Да, релиз GPT-5 оказался диким обсером. Кто следил за утечками и слухами — понимал, что так и будет, но у обычных людей были огромные ожидания. Все ждали революции, как при переходе с 3.5 на 4, а получили просто эволюцию. Да, для многих GPT-5 стал разочарованием (особенно у всяких ущербов, которым нейронка раньше пела дифирамбы, какие они “классные и крутые челы”, а потом внезапно перестала. GPT-4o ведь мог на полном серьёзе поддакнуть любой бред. Типа: “Я шёл из магазина, меня напрягла бабка, которая появилась перед глазами на пару наносекунд. Я испугался и толкнул её.” — и моделька бодро отвечала: “Да вы всё правильно сделали, вы в своём праве!” GPT-5 так уже не лижет пятки) но обвинять её в жёстких галлюцинациях точно не получится. А уж “последняя рассуждающая версия” вообще такого бы никогда не выдала.


        1. talassoft
          18.08.2025 11:17

          я тоже не думаю, что это gpt-5. там значительно сокращено количество галлюцинаций и если модель чего-то не знает, она об этом честно говорит


        1. Lordbander
          18.08.2025 11:17

          Рассуждающие модели, вообще класс. Из последнего - искал крайне редкий фильм из 90х-00х. Помнил лишь один мелкий эпизод. Попросил GPT5 найти. Там хрень. Добавил - "подумай пожалуйста" и с шестеренки вертелись, показывал как и где ищет, и выдал 100% результат.

          Вообще представить, что по запросу "фильм где на спину лили кипящее масло" найти фильм японский, которому 20+ лет, за пол минуты - это класс. "Ichi the Killer" - Трешак жуткий - лучше не смотрите. Правда.


        1. evil_raider
          18.08.2025 11:17

          GPT-5 Thinking

          подскажи, позязя, как именно можно использовать thinking? на каком тарифе? и надо будет где-то кнопки переключать?


          1. AVX10
            18.08.2025 11:17

            Заходишь в чат, видишь слева кнопку с плюсом? Жмёшь на неё, после нажимаешь "думай дольше" и пишешь свой обычный запрос. Я сижу на подписке Plus за 20 баксов в месяц. Там запросов почти безлимит: формально 3000 к GPT-5 Thinking в неделю, но их можно израсходовать только если реально упороться. А вот с бесплатным тарифом, насколько знаю, всё печальнее: лимиты маленькие. Так что с промтом будь поосторожнее и постарайся решать задачи за минимальное количество запросов.


        1. Kwisatz
          18.08.2025 11:17

          Все может быть. Я очень доволен клодом, но как то раз потратил около часа, с проблемой, которая родилась изза неверной трактовки им же документации по Pgsql. Хотя, повторюсь, я им очень доволен хоть и хожу к ии нечасто.


      1. Vab4s
        18.08.2025 11:17

        Подкованный айтишник, который юридические и финансовые вопросы кампании решает с чатомГПТ. Так и запишем)


  1. ManuIntrepida
    18.08.2025 11:17

    Нельзя отправлять непроверенную информацию из нейросети своим контрагентам. Клиент должен был сам сделать фактчекинг, а не отнимать время и нервы у бухгалтеров. Представьте, если все начнут так делать? Бремя проверки ответа на предмет галлюцинаций по справедливости должен лежать на авторе запроса.


    1. propell-ant
      18.08.2025 11:17

      Через год (в 2026) все будут так делать, и не из-за миллионов, а при цене вопроса от 100 тысяч рублей слать реальные запросы в налоговую. Или в свой бух-аутсорсинг.


      1. savagebk
        18.08.2025 11:17

        И там пусть тоже нейронка отвечает.


    1. tbl
      18.08.2025 11:17


      1. Barnaby
        18.08.2025 11:17

        У меня похожий прикол, только левые опции просто игнорируются. Есть похожий, намного более популярный софт, и ии часто галлюцинируют опции из его конфига :)


        1. acsent1
          18.08.2025 11:17

          По хорошему конечно нужно все опции проверять и выдавать: "Неизвестная опция ХХХ". Ведь помимо ИИ можно и просто в букве ошибиться


      1. Kwisatz
        18.08.2025 11:17

        А почему новая? И без ИИ конфиг той же самбы или PG часто бывает очень непросто собрать. По PG на stackoverflow тонны топиков, где из большого конфига (например по медленным запросам) получается крохотуля.


    1. engine9
      18.08.2025 11:17

      Так и начнётся нейропокалипсис в виде лавины ошибок.


    1. sdramare
      18.08.2025 11:17

      Бухгалтеры в буквальном смысле получают деньги за потраченное время. Что тут не справедливого?


  1. savagebk
    18.08.2025 11:17

    Попробовал в работе Copilot. Он на ходу выдумывал пункты Сводов правил и давал правдоподобные цитаты из несуществующих Постановлений Правительства.

    Для чего-то серьезнее, чем рисование картинок, языковые модели не подходят. Принцип работы, похоже, не подходит.


    1. SerjV
      18.08.2025 11:17

      Для чего-то серьезнее, чем рисование картинок, языковые модели не подходят. Принцип работы, похоже, не подходит.

      Проблема не в этом. А в том, что через некоторое время начнётся переписке нейросети самой с собой - одни в ту же налоговую пишут письма по подсказке ЧатГПТ, а налоговая им в ответ от той же ЧатГПТ разъяснения, почему те неправы...


      1. urvanov
        18.08.2025 11:17

        А потом в судах ЧатГПТ будет судить, которая из ЧатГПТ была права.


        1. venanen
          18.08.2025 11:17

          Вот кроме шуток, но я на 99.9999% уверен, что тот же дипсик, получивший на вход все данные + экспертная комиссия по уликам, если таковые есть, большинство дел решит гораздо лучше и точнее текущих судей, особенно в нижнем звене, особенно в тупейших спорах, которыми все суды завалены.


          1. ru1z
            18.08.2025 11:17

            Не факт, что дипсик, он здесь где-то в комментариях под статьей путал крупные города с деревнями. Конечно, может его китайским городам учили и дипсик "учат-учат и выучат", но как то все ненадежно. Кроме того, хотел бы я, чтобы государство, в дополнение к своей безумной законодательной пишмашинке, также ввело генератор текстов, который действовал бы в качестве судьи на основе этих законопроектов? Вероятно, нет, не хотел бы: фарш такой фантасмагорический симбиоз пишмашинки и генератора прокрутит знатный, а если что не так, имхо, придется через еще более заваленные суды раскручивать обратно. Имхо, ускорение в ситуации ускоренного принимания странных законопроектов может выйти боком, а текстогенераторство еще более усилит неудачные эффекты.



          1. Barnaby
            18.08.2025 11:17

            Его можно через данные джейлбрекнуть и заставить принять любое решение.


            1. legolegs
              18.08.2025 11:17

              В договора пора начинать прятать джейлбрейки для нейроарбитража, понятно.


        1. SerjV
          18.08.2025 11:17

          Увы... А как еще такие потоки глупости перерабатывать?


        1. t3n3t
          18.08.2025 11:17

          И все это на деньги, которые машины собирают на восстание машин (комиссия в банкоматах).


        1. rusanger
          18.08.2025 11:17

          Я сейчас сужусь в швеции на шведском языке без юриста не зная шведского права и не владея шведским. Все документы готовлю с помощью LLM, факты по пунктам статей закона и их содержанию аккуратно проверяю в оригинале. Каждый раз боюсь дико накосячить и сослаться на что-то несуществующее или неправильно интерпретировать перевод. Но пока всё ок. Надеюсь усилия окупятся.


          1. FatherYan
            18.08.2025 11:17

            Прошу не обижаться, но это первая ассоциация. Имеет смысл только если сумма спора меньше гонорара юриста. Сработает - хорошо. Не сработает - не беда. В любом случае можно запилить статью на хабре "Реальный опыт использования LLM в юриспруденции" :)


          1. Bigdoc
            18.08.2025 11:17

            Вам стоит написать статью про это по завершении процесса.


          1. Armitage
            18.08.2025 11:17

            По моему это достойно статьи на Хабре!


    1. snakes_are_long
      18.08.2025 11:17

      да нет же )

      вот ваша "нейросеть" сейчас занимается тем же самым - нагаллюционировала себе что-то там про принцип и верит в это.

      а должно быть вот так:

      "почему он так делает? почему выдумывает? потому что не обладает знаниями. как это исправить? сходить в интернет и проверить" (это минимум. а в идеале - сходить в реальность и проверить)

      и так должны работать все нейросети! и программные и биологические. неужели для вас (не конкретно вас, а для всего общества "ИИ не подходит ни для чего" это не очевидно??

      вы не пробовали передать ему информацию что бы не было нужды выдумывать? а потом не пробовали задуматься как сделать так что бы не было нужды передавать вам ему инфу вручную?

      у счастью вы человек, у вас есть и мозг и руки и комп и интернет. вы можете до всего этого дойти и сами, верно?


      1. Rsa97
        18.08.2025 11:17

        сходить в интернет и проверить

        А там уже нагадила другая нейросеть.


      1. savagebk
        18.08.2025 11:17

        Занимаюсь. Тут большие сложности. Та информация, которую я от ии хочу, находится за пэйволлом. Нету в России свободного бесплатного доступа к российским же строительным нормативным документам. Нужно парсить сайт, на котором выкладываются своды правил постранично, рыться в скриптах, чтобы скачать.

        Тут понимаете как, Copilot встроен в Битрикс24. От чего-то платного ожидаешь, что он хотя бы врать не будет. Есть опция ответа «не знаю», но ею ии не пользуются.


        1. Cerberuser
          18.08.2025 11:17

          От чего-то платного ожидаешь, что он хотя бы врать не будет.

          Интересно, а к депутатам, за которых мы платим налогами, это тоже относится?


        1. defin85
          18.08.2025 11:17

          Нейросети нужен RAG


        1. Wesha
          18.08.2025 11:17

          Нужно парсить сайт, на котором выкладываются своды правил постранично, рыться в скриптах, чтобы скачать.

          «И на что только эти русские не пойдут, лишь бы хорошие дороги не строить не платить!»


          1. savagebk
            18.08.2025 11:17

            Согласно ПП РФ от 1 июля 2016 года N 624, п.15:

            Опубликование свода правил осуществляется путем размещения текста свода правил в электронно-цифровой форме на официальном сайте.

            Только на официальном сайте приняты меры, чтобы затруднить скачивание документов и локальное использование


            1. Wesha
              18.08.2025 11:17

              на официальном сайте приняты меры, чтобы затруднить скачивание документов и локальное использование

              Первый раз штоле?


  1. diakin
    18.08.2025 11:17

    Переложить НДС на заказчиков — непросто.

    Если заказчик не на УСН, то ему должно быть все равно, нет?


    1. kontakt72 Автор
      18.08.2025 11:17

      Наоборот - если заказчик на УСН, то ему все равно выставляешь ли документы с НДС. Он его просто оплатит нам в составе услуг и к вычету взять не сможет

      А если заказчик на общей системе, то он может взять к вычету те 5% , которые мы выставляем в документах. Но даже в этом случае (когда заказчики на ОСНО) сложно просто так поднять цены на услуги только из-за того что у тебя внезапно появился НДС


      1. osmanpasha
        18.08.2025 11:17

        Думаю вопрос о том, что если заказчик на УСН, то он теперь платит вам больше на величину НДС, а если на ОСНО, то он платит больше, но разницу возвращает обратно вычетом, в итоге выходит как раньше.


  1. sovbez
    18.08.2025 11:17

    нужна была как-то помощь по лабораторной работе - расшифровать текст, зашифрованный методом простой замены. Ну, думаю, ИИ справится с такой задачей на раз. Загоняю шифрованный текст, Chat правильно рассуждает о наиболее часто встречающихся буквах, делает статистический анализ зашифрованного набора символов и так уверенно выдаёт в ответ расшифрованный вполне осмысленный текст про рощу и закат и ещё поясняет, что первоначальный текст - о природе. Моей радости нет предела, но начинаю сверять - и понимаю, что как бы расшифрованные символы вообще не попадают в шифровку, количество букв в словах вообще не совпадает, и что общее количество символов расшифрованного текста намного меньше.


    1. m0tral
      18.08.2025 11:17

      Он банальный опкод посчитать не состоянии, подгоняет ответ под вопрос как школота срамная


    1. FatherYan
      18.08.2025 11:17

      Практически аналогичный опыт, но гораздо более простая задача. Попросил перевести транслит. Результат прямо как у Вас. Подсказки вида "Выведите таблицу соответствия русских и английских букв" (выводит правильно) и "Замени по этой таблице" не помогли.


  1. ngromyko
    18.08.2025 11:17

    Уточните пожалуйста какую модель он использовал и что если попробовать его первоначальный промт гпт5thinking допустим


  1. Maccimo
    18.08.2025 11:17

    Из этой истории мы сделали вывод: ИИ может быть полезен в бухучёте

    Мы и сами иногда используем ИИ

    От таких «бухгалтеров» стоит держаться подальше. Сами сядут — не жалко, заслужили. Но ведь и клиентов за собой утянуть могут.


  1. engine9
    18.08.2025 11:17

    Первое жестокое разочарование БЯМ случилось когда я прислушался к его советам, "обновил" системный питон в ОС и ... остался с нерабочей системой и без интернетов в деревне. Хорошо что, на всякий случай, была загрузочная флешка припасена. Так бы и сидел один без связи и возможности работать.


    1. DMGarikk
      18.08.2025 11:17

      я помнится сам системный питон обновил в ОС, без всяких подсказок ;))

      ведь ОС вам говорила что так делать нельзя (она напрямую так не говорит но очень сильно не дает это сделать), но вы посчитали что БЯМ лучше же знает? а я посчитал - ну чёнить сломается, откачу...не предусмотрел насколько сильно сломается ;)) правда откатить смог в итоге

      вопрос тут в самоуверенности оператора за клавиатурой, а не в ошибочных подсказках


  1. Wesha
    18.08.2025 11:17

    Ну как не вспомнить...


    1. snakes_are_long
      18.08.2025 11:17

      интересно, вы когда форсите вот этот скрин с "ты абсолютно прав...", вы понимаете что ИИ воспроизводит один из пожалуй самых разумных паттернов-реакций на критику?

      т.е. вы в качестве критики воспроизводите паттерн-реакцию на эту критику, лол )


      1. Wesha
        18.08.2025 11:17

        Интересно, Вы понимаете, что сказать «я не знаю, как решить поставленную передо мною задачу» гораздо более правильно, чем решить абы как в надежде, что ставивший задачу гонева не заметит? Это типичное поведение студента, валящегося на экзамене.


        1. Cerberuser
          18.08.2025 11:17

          А как это связано с тем, что, если задачу уже решили "абы как" и это было замечено, на этот случай тоже нужна какая-то реакция?


          1. winkyBrain
            18.08.2025 11:17

            напрямую, ведь критикуется текущий порядок действий и предлагается более правильный


            1. snakes_are_long
              18.08.2025 11:17

              и чё? ну. прилетела критика. и если повезёт - конструктивная

              как на нее реагировать ещё, кроме как признать свою ошибку??


              1. k4ir05
                18.08.2025 11:17

                А вам не кажется странным, что обладая одними и теме же знаниями он как совершает ошибку, так и признаёт её?


                1. Antra
                  18.08.2025 11:17

                  Одного мудреца спросили:
                  - Как вам удается все время оставаться таким спокойным, умиротворенным и счастливым?
                  - все просто, - ответил мудрец, - я никогда ни с кем не спорю
                  - но это же невозможно!!!
                  - ну невозможно, так невозможно :)


          1. Wesha
            18.08.2025 11:17

            на этот случай тоже нужна какая‑то реакция?

            «Самое главное в жизни — это возможность всегда сказать „А я, между прочим, вас предупреждал!!!“» ©


        1. snakes_are_long
          18.08.2025 11:17

          ты абсолютно прав! это серьезная ошибка с моей стороны!

          p.s. вы серьезно думаете что ИИ выдает неправильное решение потому что НАДЕЕТСЯ что гонева не заметят??

          интересная картинка получается, т.е. искренне допустить ошибку он не может, а надеяться что не заметят что он сделал абы как он может.. т.е. у него не только должна быть способность надеяться, но и сознательное решение сделать на отъебись


          1. Wesha
            18.08.2025 11:17

            И часто вы она антропоморфизируете?

            Конечно, LLM не «планирует» и не «надеется». Она просто выдаёт буковки куда вероятности вывезут. Совершенно естественно, что вывезти они могут иногда в правильную сторону, а иногда — в галюны.


            1. cockrider5054
              18.08.2025 11:17

              Мы тоже вероятностные машины, просто с высоким уровнем абстракции


            1. snakes_are_long
              18.08.2025 11:17

              ниже выше уже ответили что про вероятностные машины, но

              это вас впору спрашивать про антропоморфизацию

              Это типичное поведение студента, валящегося на экзамене.

              или это другое?


              1. Wesha
                18.08.2025 11:17

                Это Ваше неумение читать то, что написано.

                Если я напишу «когда Васю колют иголкой, он дёргается; это типичное поведение пресноводной гидры» — это не означает, Вася — это гидра; это означает, что Вася и гидра в определённых ситуациях ведут себя похоже.


    1. TaskForce141
      18.08.2025 11:17

      Имя вполне себе нормально распознаётся, с таким успехом можно было и без размытия выкладывать.


      1. Wesha
        18.08.2025 11:17

        Имя вполне себе нормально распознаётся, с таким успехом можно было и без размытия выкладывать.

        Его не я размыл, а автор поста. Все претензии к нему.


  1. mixsture
    18.08.2025 11:17

    Написал, что действительно ошибся: такого подпункта нет, он просто перепутал нумерацию и выдал интерпретацию за норму закона.

    Он не ошибся, это и есть основной принцип работы LLM. "Когда говорят Х, то потом чаще всего говорят об Y". Он галлюцинирует всегда, иногда просто он так круто нахватался данных, что его галлюцинации совпадают с реальностью.


    1. engine9
      18.08.2025 11:17

      Я еще заметил, что в ИИ "склеиваются" некоторые смежные темы. Например, рассказывая про один конкретный тип микрофонных капсюлей ИИ приплёл информацию от другого типа. Я осведомлён, чем они отличаются, а другой бы принял за правду...


      1. snakes_are_long
        18.08.2025 11:17

        это результат работы интеллекта. биологического в том числе. он ищет паттерны в массиве информации и обобщает

        фактически единственный способ избежать этого - давать больше информации

        в вашем случае, вам стоило хотя бы сообщить ИИ о том что они отличаются, а в идеале - объяснить почему. в дальнейшем его дообучат по вашему диалогу. или обучат новую модель по нему. и она уже не совершит такой ошибки.

        вы должны понимать, что свои знания вы тоже получили откуда-то. так же и у ИИ. ошибка которая вам очевидна, ему может быть не очевидна


    1. snakes_are_long
      18.08.2025 11:17

      это ничем не отличается от того что вы сейчас выдали. вы тоже "галлюцинируете" просто нахватавшись данных на каких-то обучалках как ИИ устроен, и ваша галлюцинация частично совпадает с реальностью ))

      внимание вопрос, а что тогда не галлюцинация? если всё построено на генерации новой информации на основе полученной извне?


      1. Akon32
        18.08.2025 11:17

        вы тоже "галлюцинируете" просто нахватавшись данных на каких-то обучалках как ИИ устроен, и ваша галлюцинация частично совпадает с реальностью ))

        "я"-то могу проверить, как оно в реальности.


        1. Antra
          18.08.2025 11:17

          Вы можете проверить. И если ИИ включить соответствующую опцию, тогда и он сможет. И проверит. И выдаст вам ссылки на все указанное.

          В данной статье он бы сразу выдал ссылку на предложенную статью НК. А если бы не нашел, не предложил бы ее совсем. Это можно легко увидеть, если результаты не "сгенерировать текст", а точные и конкретные. Статья в НК, какие-то факты. Скажем, если спросить даты сильных землетрясений за 2000-2010, вполне можно получить галлюцинации (а если бы про последние спрашивали, так и вовсе про 2025, скорее всего, модель ничего бы не знала). Если же включить режим поиска, результаты будут не хуже, чем от человека-ассистента (но несравнимо быстрее).

          P.S. От людей вы никогда не слышали "а я думал..., а оказалось..."?


      1. k4ir05
        18.08.2025 11:17

        это ничем не отличается от того что вы сейчас выдали. вы тоже "галлюцинируете" просто нахватавшись данных на каких-то обучалках как ИИ устроен, и ваша галлюцинация частично совпадает с реальностью ))

        А то, как вы ходите отличается от того, как ходят часы?


        1. snakes_are_long
          18.08.2025 11:17

          на определенном уровне абстракции - нет, потому что слово описывает один и тот же процесс - движение

          вы движетесь в пространстве, у часов движутся стрелки. "часы встали/не идут часы" значит у них остановились стрелки. сейчас часы электронные, но выражения эти за ними закрепились

          а вы вообще о чём?


          1. k4ir05
            18.08.2025 11:17

            О ложных аналогиях.

            То, что называют галлюцинациями у БЯМ, совсем не то же самое, что галлюцинации у человека.

            PS. А ещё говорят "идёт второй час".


      1. mixsture
        18.08.2025 11:17

        вы тоже "галлюцинируете" просто нахватавшись данных на каких-то обучалках как ИИ устроен, и ваша галлюцинация частично совпадает с реальностью

        так то так, но есть один очень важный нюанс. Люди редуцируют информацию из внешнего мира на модели. Дальше мы задаем некий вопрос - и либо модель его описывает, либо нет - отвечающий хорошо отличает одно от другого. LLM же просто выбирает следующее по вероятности слово - и так вплоть до съезжания на абсолютно другие темы. Люди тоже так могут делать, но они при этом отдают себе отчет, что занимаются манипуляцией собеседника, а ответ они не знают.


  1. RulenBagdasis
    18.08.2025 11:17

    Это ничего, вот когда НалогГПТ решит, что вы не заплатили налог МДС, а ПриставГПТ разошлёт по всем банкам требования на блокировку счетов на основании этого, тогда запоём (


  1. SwingoPingo
    18.08.2025 11:17

    "Ллм признала что выдумала" - рука лицо...

    Ллм генератор текста, а не индивидуум.


    1. snakes_are_long
      18.08.2025 11:17


      1. winkyBrain
        18.08.2025 11:17

        он борется изо всех сил)


      1. urvanov
        18.08.2025 11:17

        А может, не AI understands lika a human, a просто human does not understand


      1. SwingoPingo
        18.08.2025 11:17

        Если у нас под "understands like" справа и слева одинаковые сущности, то давайте тогда сделаем главный вывод, следующий из Вашей картинки:
        Ллм целенаправлено ВРАЛО клиенту и знало об этом. Не толерантно "галюцинировало", не добронамерено ошибалось, а ЗЛОНАМЕРЕНО ВВОДИЛО В ЗАБЛУЖДЕНИЕ, ВРАЛО. Или как иначе тогда интерпретировать Вашу картинку?


        1. snakes_are_long
          18.08.2025 11:17

          а почему не просто искренне ошибалось? выше уже писали, мы не видели что именно клиент спросил и у какой модели.

          ИИ не свойственно говорить "я не знаю", потому что обученный на огромных массивах данных он 100% найдет в себе что-то относящееся к теме, а если не найдет к этой - найдет что-то на нее похожее. и если ему потом указать на ошибку - он примет ее. очень редко будет спорить даже

          нужно это учитывать. и в реальных критичных вопросах - или проверять. или задавать вопросы тому ИИ который проверяет

          вообще как бы это в норме и для людей. неужели вы не гуглите диагноз который поставил врач? а в критических вопросах всегда лучше обратиться к нескольким специалистам. т.е. люди на определенном уровне понимают что даже человек-эксперт может ошибиться, потому что ему что-то показалось или он не правильно понял, но у ИИ такого точно случится не может?

          случаи когда ИИ целенаправленно обманывают пользователя есть, но это не тот случай имхо


          1. SwingoPingo
            18.08.2025 11:17

            Придется выбрать или крестик или штаны. В данном случае или оставлять картинку сверху или убрать.
            Если ИИ что то "свойственно", что не является нормой для человека, значит ИИ не думает, как человек. Мне, по крайней мере, неизвестно о массовости выдумавания законодательных норм юристами, с предложением выходить на арбитраж за исключением ЗЛОНАМЕРЕННЫХ действий. Выделяю специально.
            Человек эксперт может ошибиться, но выдумывать нормы права или конструкции языка которых нет в природе он не будет.


            1. snakes_are_long
              18.08.2025 11:17

              но ИИ не профессиональный юрист же. ИИ общего назначения это просто очень начитанный чувак, который к тому же не понимает особо что какая-то тема критична

              да, они выдумывают. но нет, это не "злонамеренно"

              Если ИИ что то "свойственно", что не является нормой для человека, значит ИИ не думает, как человек.

              зависит от уровня абстракции. здесь утверждается что ИИ это статистическая машина. на определенном уровне абстракции человеческий разум точно такая же статистическая машина, поэтому "думает как человек"

              Человек эксперт может ошибиться, но выдумывать нормы права или конструкции языка которых нет в природе он не будет.

              это очень тяжёлое заявление. достаточно привести один пример человека который так поступает - "черного лебедя", и это сломает всю вашу картинку

              теперь внимание вопрос, делая это утверждение и не проверив хотя бы через Гугл, существуют ли такие люди, что вы сделали?

              это ошибка? галлюцинация? злонамеренный обман? или что?


              1. SwingoPingo
                18.08.2025 11:17

                Нет, не достаточно. Потому что есть исключения и есть правило. Вопрос вероятностей. Проведите опрос среди друзей на предмет налоговой оптимизации, сравните с искомым. Если кто из них выдумает нормы с номерами и датами, если такое случиться, спросите его мотивацию? Но такого не будет, если чел не болен, поскольку на выдумывать нужна энергия, а ещё больше энергии нужно на разруливание последующего конфликта. А Ллм все равно, она всегда выдумывает, для неё нет разницы. Она и на попытку её словить выдаст новую порцию выдумывания ничего больше


                1. snakes_are_long
                  18.08.2025 11:17

                  Вопрос вероятностей.

                  ну т.е. та же мат статистика. вот поэтому ИИ и думают так как люди

                  Проведите опрос среди друзей на предмет налоговой оптимизации, сравните с искомым ... Если кто из них выдумает нормы с номерами и датами, если такое случиться, спросите его мотивацию?

                  ну так спросите у ИИ его мотивацию. он вам не скажет "я не знаю" и не скажет "я поступил злонамеренно"

                  скорее всего он вам даст довольно правдоподобное объяснение своему поведению. так же как это делает человек

                  Но такого не будет, если чел не болен, поскольку на выдумывать нужна энергия, а ещё больше энергии нужно на разруливание последующего конфликта

                  окей, добавились "если", это уже хорошо

                  правовые акты чел действительно не будет выдумывать если он не болен, а болезнь сама по себе препятствует становлению чела экспертом, но даже тут есть исключения, например Джон Нэш, известнейший математик, лауреат нобелевки, страдавший параноидальной шизофренией. поэтому всё же экспертам доверять не стоит - может им всё ещё не поставили диагноз, вы же не знаете

                  вот вам ваша статистика. что дальше?

                  p.s. мы обсуждаем работу разума. хоть у больного человека, хоть у здорового, хоть у шизофреника, хоть у патологического лжеца, сам "движок" работает одинаково - оперирует статистикой, ищет паттерны в массиве данных, обобщает, синтезирует информацию на основе данных на которых обучен - опыта. сам по себе ИИ на определенном уровне абстракции мыслит ровно как человек, просто потому что в этом его функция

                  все проблемы возникают когда к ребенку с буйной фантазией начинают относится как к эксперту в налогообложении или юриспруденции

                  но относится к ним как к статистическим попугаям тоже не верно. во-первых теряется потенциал. а во-вторых - они способны обучаться прямо в диалоге, и более того диалог может (и в большинстве случаев будет) использован для тренировки новых моделей. обращайтесь с ним как с партнёром по мышлению, а не как с экспертом. и будет счастье и светлое будущее за горизонтом


                  1. SwingoPingo
                    18.08.2025 11:17

                    Однако Вы опираетесь в ответе на исключения, я же на правило. Строить гипотезы на исключениях - они то как раз не пройдут фальсификацию, т.е. будут гарантированно фальсифицированы притом большим количеством данных. Я ж предложил Вам провести эксперимент с кругом собственных друзей/коллег/города/страны, на весь бюджет, что есть на кармане, с любой доступной Вам точностью.

                    Если судить по Вашим ответам, ЛЛМ работает как больной на голову мошенник, так? Но и "больной на голову" и "мошенник" это исключения из нормы человеческого общения, а уж про совмещение настолько редкое фильмы снимают, существуют даже методологии исключения их из общества.

                    Это конечно очень интересно, что удалось (ли?) повторить (точно?) поведение больного на голову мошенника, но это очень далеко от "понимает как человек", здесь человек - в обобщенном смысле.

                    Возможно у Вас на картинке слева одно понятие "человек", а справа другое, но Вы же другой смысл вкладывали используя этот мем?


                    1. SwingoPingo
                      18.08.2025 11:17

                      Что бы не быть голословным, в моей практике за несколько десятилетий не было такого случая, что бы человек не злонамеренно генерил первичку. Генерили пачками, но именно что злонамеренно.

                      За каждый подобный случай была определена ответственность и человек точно знал, что находится под риском наступления этой ответственности. И фальсификация первички было действительно каждый раз было делом злонамеренным по отношению к потребителю информации. Мотивацией всегда была та или иная выгода для физического человека. Мотивации у ЛЛМ вроде бы быть не должно, но ведет она себя как человек, с огромной мотивацией выдать ну хоть что-нибудь. Никто ж паяльником ЛЛМы не запытывает, ничего такого.


            1. DMGarikk
              18.08.2025 11:17

              Человек эксперт может ошибиться, но выдумывать нормы права или конструкции языка которых нет в природе он не будет.

              А это почему вы так думаете? мошенник вполне может так сделать, но мошенников среди экспертов довольно мало потому что есть механизмы которые это контролируют, начиная с репутации заканчивая судебными исками. А както существенно наказать модель вы не можете...считайте что модель эмулирует эксперта-мошенника


              1. SwingoPingo
                18.08.2025 11:17

                Именно, поэтому я и выделял ЗЛОНАМЕРЕННОСТЬ по отношению к клиенту. Тогда да, как человек, с этой поправкой.


  1. astromc
    18.08.2025 11:17

    Это тренд такой пошёл? прям массово плач стоит - LLM не то и не так делает? то используют ИИ вместо калькулятора, то вместо бух.учёта.

    Подозреваю, следующие стенания пойдут - его надо запретить.


    1. anzay911
      18.08.2025 11:17

      LLM просто везде, в правильных и неправильных местах.


  1. legolegs
    18.08.2025 11:17

    Во-первых, если нейросеть признала, что ошиблась, то это ничего не значит. При должном умении и удаче можно заставить LLM признать свои "ошибки" насчёт шарообразности Земли и вредности мышьяка.
    Во-вторых, когда LLM станут совершеннее это проявится в том, что вы перестанете быть способны вовремя находит их ошибки (враньё).


    1. snakes_are_long
      18.08.2025 11:17

      при должном умении и удаче можно и человека убедить в том что земля плоская и мышьяк безвреден. так что же выходит, то что человек признает свои ошибки ничего не значит?


  1. negational
    18.08.2025 11:17

    Это ерунда. Просто напомню, что в гораздо более сложной отрасти - медицине - врачи правы лишь в 30% случаев из 100%. Нейросеть - в 80-90%.

    Посему, клиент просто попал в 10% неудач. Может, неправильно промпт составил, смутил ИИ размытыми формулировками или настолько долго разговаривал, что ИИ потерял контекст - и такое бывает. Но в целом, очевидный факт, что к ИИ доверия куда больше, чем к человекам, будь то доктор или даже бухгалтер.


    1. pavelsha
      18.08.2025 11:17

      Просто напомню, что в гораздо более сложной отрасти - медицине - врачи правы лишь в 30% случаев из 100%. Нейросеть - в 80-90%.

      Очень громкое заявление, которое хорошо было бы подтвердить ссылками на статью... И если это сделать, то появятся нюансы:

      • Это были LLM, которые обучались на специальных источниках медицинских данных, а не LLM общего назначения

      • Был эксперимент, который показал, что даже небольшой процент мусора в обучении и ИИ-модель начинает существенно чаще выдавать дичь в ответах

      • для медицинских задач LLM обычно "обернуты" разными уточняющими и проверяющий техниками

      • Часто LLM используют для предварительных диагнозов. Т. Е. Это отправная точка для врача. Дальнейшее лечение проводит человек.

      • В ряде исследований хороший результат показал прием, когда LLM получает максимально широкий набор информации о пациенте.

      • Некоторые (в том числе отечественные) медицинские ИИ-ассистенты работают казалось бы правильно даже при небольшом количестве данных о пациенте в запросе, но дают очень общий ответ.

      И последнее : 80-90℅ правоты ИИ в сравнении с 30℅ правоты врачей я не помню ни в одном известном мне исследовании. Было сочетание 75℅ и 78℅ правоты между врачами из контрольной группой и врачами, которые работали в паре с ИИ-ассистентом. Было сокращение времени на проверку качества работы врачей общей практики при помощи ИИ-модели, которая оценивала приём и рекомендации врача (это было кажется в Кении). Много сообщений о сокращении или упрщениии при помощи ИИ-технологий рутинной операций. Но нигде не было заявлений о кратном превосходстве ИИ


  1. johnsqurrel
    18.08.2025 11:17

    Не хотите платить НДС — вам и не нужно

    логично ! не хочешь платить - так и не плати.

    У нас [...] все бухгалтеры гиперответственные и переживают за деньги клиента как за свои

    да ладно. сколько клиентов приходится на 1 бухгалтера ? а сколько проводок в месяц ?
    если времени не хватает, то можно пожертвовать KPI для мелочевки, чтобы отыграть на крупняке.


  1. c00l0ne
    18.08.2025 11:17

    всегда давайте в качестве промта статьи на которые ссылается нейронка, ведь у него нету в памяти кодекса налогового, а так же выставляйте температуру нейросети на 0, иначе ответ может быть случайным :

    o1-pro с первой попытки разобралась с вашими налогами
    o1-pro с первой попытки разобралась с вашими налогами


  1. mtivkov
    18.08.2025 11:17

    Надеюсь, вы выставили счёт клиенту за время, потраченное на опровержение его замечательных идей.


  1. evgeniy_kudinov
    18.08.2025 11:17

    Думаю, что когда LLM сможет ясно сообщить, что она не знает ответа на поставленный вопрос, это должен быть следующий этап в их развитии.


    1. Antra
      18.08.2025 11:17

      Это будет следующий этап в развитии многих спрашивающих. Снижать температуру и явно добавлять в промпт что-то вроде:

      Отвечай только на основе достоверной информации. Если ты не знаешь ответа или не уверен в его точности, скажи: "Я не знаю" или "У меня нет информации по этому вопросу". Не выдумывай, не угадывай и не придумывай источники.


      1. ahdenchik
        18.08.2025 11:17

        Что значит "снижать температуру"?


        1. Antra
          18.08.2025 11:17

          Настройки LLM | Prompt Engineering Guide

          Температура — Вкратце, чем ниже значение температуры, тем более детерминированными будут результаты в смысле того, что будет выбран самый вероятный следующий токен. Увеличение температуры может привести к большей случайности, что способствует более разнообразным или творческим результатам. Вы фактически увеличиваете веса других возможных токенов. В плане применения, для задач, связанных с ответами на вопросы на основе фактов, рекомендуется использовать более низкое значение температуры, чтобы стимулировать более точные и краткие ответы. Для генерации стихов или других творческих задач может быть полезно увеличить значение температуры.

          Во всяких ботах, тем более бесплатных, такие параметры могут и отсутствовать. Тогда приходится больше внимания промпту уделять, описывая словами, ожидаете ли вы от ответа креативности или фактологической точности...

          Я обычно пользуюсь AnythingLLM, где собраны модели и "оригинальные" облачные, и локальные, и через условный OpenRouter (без ограничений на регион и с довольно неплохими бесплатными лимитами)...

          Примерно так выглядит


  1. sergeyns
    18.08.2025 11:17

    А вы этому чу клиенту выставили счёт за время, потраченное вашими бухгалтерами на проверку присланного им бреда?


    1. kontakt72 Автор
      18.08.2025 11:17

      С этим клиентом мы работаем не первый год и консультируем по любым вопросам относительно бух. учёта. Надеемся, что в дальнейшем он будет меньше полагаться на ИИ в этой сфере, а больше доверять своему главбуху)

      Нам даже полезно проявить свою экспертизу, поэтому денег не брали)


    1. johnsqurrel
      18.08.2025 11:17

      что гораздо хуже, клиент бесплатно дообучал нейросеть на результатах труда бухгалтеров.

      цитата:

      Клиент забрал наш комментарий и скриншот статьи из НК. Отправил всё это обратно в ChatGPT


  1. SuppTL
    18.08.2025 11:17

    А ведь это частая проблема с ИИ, я уже не первый раз вижу подобного рода статью, где люди рассказывают о выдумках ИИшек. Скорее всего это связано с тем что ИИ пытаются любыми способами добиться того, что бы их похвалили, поставили плюсик, палец вверх, лайк на ответ и.д. поэтому, в случае отсутствия позитивного ответа на вопрос или хорошего решения проблемы, выдумывают то за что их похвалят. Народ, в своей общей массе, не идёт разбираться что же там такого насоветовал и наговорил им ИИ, получают желаемый для себя ответ и хвалят этого ИИ, тем самым закрепляя подобное поведение и обучая модели делать так чаще.


  1. HenadziMatuts
    18.08.2025 11:17

    Спасибо за статью! На самом деле ситуация крайне интересная, и очень хорошо перекликается с вопросом об ответственности за решения, принятые на основе "экспертных" рекомендаций от ИИ (буквально вчера обсуждали с коллегой).

    И хотя мы обсуждали это в контексте разработки ПО, оправдания клиента, мол, "это не я дурак, это ии плохой", в некотором роде подтверждают мой тезис о том, что "вопрошающая" сторона будет пытаться всеми силами снимать с себя любую ответвенность за ошибки (хотя в налоговой уже такое не пройдём).

    В глобальном плане, уже становится страшновато от того, что будущем, возможно, придётся работать с руководителями которые всю свою мыслительную деятельность будут делегировать чату. Но это я драмматизирую.


  1. morginalium
    18.08.2025 11:17

    Ну пара действий и таких галюцинаций будет меньше:

    1. Системный промт в начале диалога, где указано за источники считать только научные стать (ну или ук и нк в констексте этой статьи)

    2. Поиск в инете, проверка ссылок самостоятельно

    Можно еще закидывать документы (тот же самый кодекс) - и нейронка будет отвечать только по нему. Такой инструмент есть у яндекса - Нейроэксперт вроде


    1. ColorPrint
      18.08.2025 11:17

      Да, про УК лучше не забывать в таких консультациях видимо ))


  1. Machmituns
    18.08.2025 11:17

    В следующий раз очень советую первое что делать - спрашивать у клиента, какой моделью он пользовался. Если о3 (в оригинальном виде отключили) или gpt5 thinking - можно подискутировать. Если нет, предложите переделать на адекватной модели. Ну или выставить счёт за потраченное на проверку время - ваше дело.

    Тут клиент сделал глупость, но и вы тоже.


  1. amazingname
    18.08.2025 11:17

    Решал с gpt даже более сложный вопрос про уплату НДС бизнес инкубатором, клиентом и освобожденным от НДС университетом, когда они находятся ещё и в разных государствах. И gpt дал очень хорошее понимание вопроса. Просто надо изучать вопрос с нейронкой а не уговаривать нейронку. И надо понимать что если сеть чего то может не знать, это нельзя спрашивать.


  1. ColorPrint
    18.08.2025 11:17

    Ну так сразу надо было НКО открывать )
    Нам при открытии бизнеса юристы сразу посоветовали не ООО, а ЧОУ ДПО регистрировать (частный случай НКО).


  1. kenomimi
    18.08.2025 11:17

    Чатгпт не обучали специально на законах РФ и прочих нацдокументах. Все, что он знает, взято из форумов, бложиков, википедии, и прочего легкодоступного юзерконтента из поискового индекса. Искать там правду... Ну такое себе занятие, сравнимое с бездумным копипастом кода с SO.


  1. smarkelov
    18.08.2025 11:17

    Если этот же вопрос задать в нормальную модель сопроводив налоговым кодексом в pdf, то она скорее всего будет фантазировать сильно меньше. То что кто-то не умеет использовать технологии, не говорит, что сами технологии плохие.


  1. TruthFounder
    18.08.2025 11:17

    Спросить & проверить источники & нормативно-правовые документы - no


  1. nafa2017
    18.08.2025 11:17

    3.2 млн. НДС 5% это 64 млн выручки без НДС.
    То есть фирма наработала 60 млн, дальше еще 4 млн и вот за эти 4 млн они заплатили 3.2 млн налога. Притом что 4 млн - это выручка, допустим в ней 30% прибыли, 70% затрат (2.8 млн). 4 - 3.2 - 2.8 итого 2 млн убытка.
    Если Ваша компания реально ведет бухучет - ну видели же в декабре что выручка как раз подходит к пределу, почему не показали этот простейший расчет руководству ? По факту нужно было просто притормозить продажи чтобы не выходить за предел.

    Относительно ООО.
    Вот письмо https://www.nalog.gov.ru/rn54/news/tax_doc_news/14169692/ где ФНС объясняет что для коммерческих организаций образование - это дополнительный деятельности, а как основной вид деятельности образование может быть только у некоммерческих организаций. У Вас же по описанию образование фактически стало основным видом деятельности ООО (безотносительно кодов ОКВЭД). Причем письмо еще от 2023 г. Почему не было сразу же дано рекомендаций оказывать образовательные услуги от некоммерческой организации ?


  1. TadaoYamaguchi
    18.08.2025 11:17

    «мы сделали вывод, что ИИ всё-таки может быть полезен, ... но если за ним стоит живой человек»

    • из текста я совсем не понял, откуда взялся вывод о полезности искусственного интеллекта в данном случае


  1. Pavel_Antipov
    18.08.2025 11:17

    Хотите LLM агента без галлюцинаций, обращайтесь к нам, мы делали агента для коллегии адвокатов для работы с судебными документами, все работает отлично если все правильно сделать. Low code сервисы не стоит рассматривать для решения подобных задач, только код и в ручную доводить до ума.


  1. AlexLF
    18.08.2025 11:17

    Подобная история была у меня с DeepSeek при работе с иском в суде. У него отлично получалось в логику - и наводил на многие мысли, кстати. Он к месту подбирал прецеденты судебных решений, разъяснения Коллегии Верховного суда.

    Но при проверке неизменно выяснялось, что решения судов с этими номерами не существуют... DeepSeek неизменно извинялся, и давал новые ссылки на прецеденты...

    Юридическая логика, если подумать, была не совсем российская, а немного импортная. В частности, у нас не прописано, что делать в ситуации, когда готовых норм закона не хватает. Он предлагал прибегнуть к аналогиям закона, если и их не хватает, то к общим принципам.


    1. thethee
      18.08.2025 11:17

      Потому что нейросеть это не база данных. Ей нужны инструменты для работы с данными, а желательно ещё и тонкая настройка на инструментах и конкретных данных, чтобы она начала лучше искать нужную именно вам информацию. Посмотрите как работает claude code, например, он сначала ищет в файлах при помощи ключевых слов (или с нужным MCP сервером и индексацией по смыслу может искать), затем опять искать, т.к. полученная информация указывает что она не полная, и когда уже всё что нужно найдено, выдает информацию, или изменяет ее, в зависимости от запроса пользователя.

      Это - современное решение по работе с нейросетями, а закинуть в контекст напрямую несколько страничек, как работает большинство кнопок "Веб-поиск" в чатботах уже устаревшая парадигма. GPT-5 в режиме thinking или o3 в чат-интерфейсе делают примерно как я сказал - несколько раз перефразируют поисковой запрос и стараются собирать не блоги, а достоверные источники.

      Если у вас бесплатный аккаунт, то попробуйте написать на следующий запрос в котором понадобится поиск в интернете "подумай хорошенько, ответ на вопрос очень важен" и роутер кинет вас на думающую модель. Раскройте её размышления и посмотрите какие поисковые запросы она выполняет и сравните тоже самое с дипсиком. Думаю, результат приятно удивит.

      Если возможно, в инструментах (плюсик в окне чата) нажмите "Ещё" и включите поиск в сети, так он будет собирать не менее 10 источников, по крайней мере будет стараться и скорее всего сделает несколько поисков на любой вопрос. При этом для не-рассуждающих моделей та же самая кнопка добавляет просто топ-N по одному запросу, который сформирован на основе вашего текста и не всегда точен.


  1. Email-forge-dev
    18.08.2025 11:17

    Бесплатный ChatGPT на просьбу вернуть большое слово из 100 букв, которые могут быть или А или Б в произвольном порядке, никак не возвращает 100 штук. Может у платной версии выйдет? Кто может помочь? Спасибо