Мы бы и рады, только не можем подавать уточнёнки на основании галлюцинаций ИИ. Рассказываю, как ChatGPT подстраивается под задачи бизнеса и переписывает Налоговый кодекс.

Привет, я Светлана Шевелёва, CEO в «Контакт» — бухгалтерии для IT-компаний. Один из наших клиентов с начала 2025 года попал на НДС и теперь ежеквартально платит по 800 тысяч рублей. Из любопытства и здоровой предпринимательской жадности директор спросил у ChatGPT, как сэкономить. Тот понял задачу буквально и убедил клиента, что он вообще ничего платить не должен. Потом ChatGPT сам признался, что нафантазировал.
«Не хотите платить НДС — вам и не нужно»
Компания, с которой мы работаем уже несколько лет, занимается обучением в сфере информационной безопасности. Они проводят курсы повышения квалификации для айтишников в крупных банках и компаниях. Выручка стабильная, штат — 10–12 человек, преподавателей подключают под проекты. Типичная история: бизнес понятный и относительно простой в плане учёта — ООО на УСН Доходы.
С 2025 года для компаний на УСН с выручкой свыше 60 млн рублей ввели обязательный НДС. Компания уже перескочила этот порог и теперь должна платить НДС по ставке 5%. А это примерно 3,2 миллиона рублей в год, при текущей выручке — по 800 тысяч ежеквартально.
Переложить НДС на заказчиков — непросто. С кем-то пересчитали условия, а по старым контрактам, оставили прежнюю сумму и зашили НДС внутрь, чтобы не потерять клиента.
Желание как-то оптимизировать налоги понятно и вполне естественно. Директор решил убедиться, можно ли с этим что-то сделать. Закинул в ChatGPT свой штатный договор, долго обсуждал с ИИ все тонкости и формат деятельности. В результате ChatGPT выдал подробный разбор с таблицами, указанием статей НК и готовыми формулировками, что нужно поменять в договоре.

Клиент отправил переписку с ИИ в наш чат и попросил перепроверить эту информацию. Аргументы ChatGPT звучали очень убедительно, а на кону — 1,6 миллиона рублей НДС, уже уплаченных в ФНС.
Может, мы действительно проглядели
Когда мы получили это сообщение от директора, то возмутились про себя. С клиентом работаем не первый год и знаем его бизнес лучше, чем кто-либо. Регулярно следим за изменениями в Налоговом кодексе, проводим еженедельные планерки по обмену опытом.
Если бы там действительно было основание не платить НДС — мы бы об этом узнали ещё до появления ChatGPT.
У нас в «Контакте» все бухгалтеры гиперответственные и переживают за деньги клиента как за свои. Из-за пары тысяч переплаты могут ночами не спать, а тут миллионы.
Но вдруг и правда проглядели — надо разобраться. Тем более что речь шла не только о возврате НДС за два квартала, но и в принципе о дальнейшей схеме учёта. Если все действительно так, то клиент сэкономит 3,2 миллиона рублей в год.
Открываем налоговый кодекс, пп. 14 п. 2 ст. 149, на которую ссылался ChatGPT и видим там, что от НДС могут быть освобождены некоммерческие организации. А наш клиент — коммерческое ООО. Делаем скриншот и отправляем клиенту:

ИИ об этом ничего не сказал. Зато выдал шаблон договора, отредактировал статьи, предложил вернуть НДС — всё в лучших традициях уверенного помощника, который пытается угодить своему «хозяину».
ChatGPT был неправ, но не унимался
Клиент забрал наш комментарий и скриншот статьи из НК. Отправил всё это обратно в ChatGPT — интересно же, что ответит.
Тот продолжал настаивать на своём и провернул очень хитрый ход — придумал норму, которая освобождает клиента от уплаты НДС. Да ещё и сказал, что об этом говорят «многие другие источники».

В каждом последующем своём сообщении ИИ предлагал клиенту изменить текст договора, подготовить пояснительные для налоговой, как будто все его аргументы неоспоримы — их нужно принять и уговаривал клиента действовать.
А потом прямым текстом заявил, что клиент зря платит НДС, у него большая переплата — деньги нужно вернуть:

Позже признал ошибку и предложил всё перепроверить
Наш бухгалтер подумала: а вдруг правда? Может, такую норму действительно ввели? Такое бывает: кодекс обновляется, редакции меняются, поправки вступают в силу с задержкой.
На всякий случай пошла проверять. Консультант Плюс, Гарант, ФНС, сам Налоговый кодекс, потом — федеральные законы, которыми якобы был введён этот подпункт. Потратила почти час, но не нашла ничего. Ни строчки, ни отсылки, ни намёка на существование этой нормы, о которой, по мнению ИИ, все говорят.
Я всегда иду в первоисточник, — потом сказала она, — не в статьи и блоги, а в сам кодекс. Этого пункта там нет. И закона, который его вводил, — тоже нет. Даже если я права, пока не перепроверю — не успокоюсь. А пока не успокоюсь — не могу работать.
После повторного запроса ChatGPT сдался. Написал, что действительно ошибся: такого подпункта нет, он просто перепутал нумерацию и выдал интерпретацию за норму закона. Формулировки были убедительные, ссылки — уверенные, инструкции — подробные. Но всё это не имело отношения к действительности.

Уточнёнки подавать не пришлось
В итоге всё разрешилось. Клиент посмотрел на ответы ИИ, сравнил их с налоговым кодексом и признал, что в вопросах налогов ChatGPT пока не справляется. Особенно когда дело касается действующих норм — с фактчеком у него плохо.
Мы вместе посмеялись. Хотя в моменте было не до смеха: отчётный период, миллионы на кону и самоуверенный ИИ, который говорит: «Пора сдавать уточнёнки».
Из этой истории мы сделали вывод: ИИ может быть полезен в бухучёте — но только когда за ним стоит живой человек, который в теме, следит за изменениями и умеет перепроверять. Без этого он просто отнимает время — или, хуже, уводит в сторону.
Мы и сами иногда используем ИИ — чтобы перепроверить себя или взглянуть на вопрос под другим углом. Но в спорных ситуациях чаще подключаем коллег. Они, в отличие от ИИ, не будут выдумывать статьи закона, если не знают ответа.
Комментарии (152)
Hopenolis
18.08.2025 11:17Судя по скриншотам это не чатгпт. Ну точнее он но старая дешевая версия и скорее всего без подключенных инструментов, обычно у гопоты в телеграме даже калькулятора нет. Пользуйтесь оригинальным продуктом, на своем сайте у чатгпт намного более новая версия и есть возможность хотя бы ходить в интернет и проверять факты.
kontakt72 Автор
18.08.2025 11:17На скриншотах просто переписка, которая была у нас в чате. Клиент копировал и пересылал текстом, что выдавал GPT. Поэтому и верстка такая странная. Не знаю, какой именно версией он пользовался, но вряд ли это была простая бесплатная версия. Он айтишник, достаточно подкованный в этом плане и точно умеет работать с данными.
pol_pot
18.08.2025 11:17По стилю сразу видно что не оригинальный чатгпт.
Попробуй скопировать с сайта в телеграм. Оба способа дают другой результат для таблиц, если просто копировать то никакого обрамления у таблиц, если через функцию копирования на сайте то другое оформление получается.
rapidstream
18.08.2025 11:17Клиент в силу "жадности" или нехватки скиллов, использует какой-то из тысяч новоиспечённых телеграм-ботов, которые пересылают его запросы различным LLM.
И юнит-экономика этих ботов часто заключается в перепродаже дешёвой и тупой модели под видом последних дорогих моделей. "На эти два процента" они и живут.
HawkeyePierce89
18.08.2025 11:17Клиент не копировал. Он просто форварднул то, что ему было написано в ноунейм телеграм боте, это прекрасно видно на скриншоте.
Клиент ради возможной экономии 3 миллионов рублей пожадничал заплатить 2000 рублей за думающую модель.
m0tral
18.08.2025 11:17Ради 3млн нужно думать головой, а не жопой, уж извините, не знаю насколько он хороший ИТ шник, если уровень доверия к псевдо-ИИ запредельный, а проверить статьи налогового кодекса не в состоянии.
semmaxim
18.08.2025 11:17А где можно приобрести доступ к такой модели? ТГ-боты ненадёжны, русские карточки не принимаются.
welcme-to-semicndctr-hell
18.08.2025 11:17Открываешь всем известную барахолку и там ищешь чуваков с не русскими карточками. Они оплачивают иностранные сервисы
lear
18.08.2025 11:17Это форварды клиентский сообщений, что видно на каждом сообщении.
Верстка таблиц указывает всё же не на тг бот.
AVX10
18.08.2025 11:17Я каждый день пользуюсь ChatGPT уже почти год и очень интересуюсь темой ИИ. Даже более-менее научился писать промты. И скажу так — этот чел либо использовал gpt-4o/gpt-4o mini, либо вовсе не ChatGPT. Такую ахинею обычно любят выдавать ИИ, которые не особо любят лазить в интернет или тупо не имеют к нему доступа.
Весной, когда вышли o4-mini и o3 (модели с цепочкой размышления, где ИИ вслух проговаривает свои действия), я охреневал, насколько они круто ищут инфу в сети. Сейчас их заменил GPT-5, и там есть разделение: обычная GPT-5 (для задач типа “напиши текст”) и “рассуждающий” GPT-5 Thinking. Прикол GPT-5 в том, что в него влепили отдельную нейронку, которая проверяет факты. В итоге уровень галлюцинаций упал: с 15% у gpt-4o до 3%, а у Thinking-версии и вовсе до 1%.
Я не верю, что этот чел пользовался “последней версией” ChatGPT. Да, релиз GPT-5 оказался диким обсером. Кто следил за утечками и слухами — понимал, что так и будет, но у обычных людей были огромные ожидания. Все ждали революции, как при переходе с 3.5 на 4, а получили просто эволюцию. Да, для многих GPT-5 стал разочарованием (особенно у всяких ущербов, которым нейронка раньше пела дифирамбы, какие они “классные и крутые челы”, а потом внезапно перестала. GPT-4o ведь мог на полном серьёзе поддакнуть любой бред. Типа: “Я шёл из магазина, меня напрягла бабка, которая появилась перед глазами на пару наносекунд. Я испугался и толкнул её.” — и моделька бодро отвечала: “Да вы всё правильно сделали, вы в своём праве!” GPT-5 так уже не лижет пятки) но обвинять её в жёстких галлюцинациях точно не получится. А уж “последняя рассуждающая версия” вообще такого бы никогда не выдала.
talassoft
18.08.2025 11:17я тоже не думаю, что это gpt-5. там значительно сокращено количество галлюцинаций и если модель чего-то не знает, она об этом честно говорит
Lordbander
18.08.2025 11:17Рассуждающие модели, вообще класс. Из последнего - искал крайне редкий фильм из 90х-00х. Помнил лишь один мелкий эпизод. Попросил GPT5 найти. Там хрень. Добавил - "подумай пожалуйста" и с шестеренки вертелись, показывал как и где ищет, и выдал 100% результат.
Вообще представить, что по запросу "фильм где на спину лили кипящее масло" найти фильм японский, которому 20+ лет, за пол минуты - это класс. "Ichi the Killer" - Трешак жуткий - лучше не смотрите. Правда.
evil_raider
18.08.2025 11:17GPT-5 Thinking
подскажи, позязя, как именно можно использовать thinking? на каком тарифе? и надо будет где-то кнопки переключать?
AVX10
18.08.2025 11:17Заходишь в чат, видишь слева кнопку с плюсом? Жмёшь на неё, после нажимаешь "думай дольше" и пишешь свой обычный запрос. Я сижу на подписке Plus за 20 баксов в месяц. Там запросов почти безлимит: формально 3000 к GPT-5 Thinking в неделю, но их можно израсходовать только если реально упороться. А вот с бесплатным тарифом, насколько знаю, всё печальнее: лимиты маленькие. Так что с промтом будь поосторожнее и постарайся решать задачи за минимальное количество запросов.
Kwisatz
18.08.2025 11:17Все может быть. Я очень доволен клодом, но как то раз потратил около часа, с проблемой, которая родилась изза неверной трактовки им же документации по Pgsql. Хотя, повторюсь, я им очень доволен хоть и хожу к ии нечасто.
Vab4s
18.08.2025 11:17Подкованный айтишник, который юридические и финансовые вопросы кампании решает с чатомГПТ. Так и запишем)
ManuIntrepida
18.08.2025 11:17Нельзя отправлять непроверенную информацию из нейросети своим контрагентам. Клиент должен был сам сделать фактчекинг, а не отнимать время и нервы у бухгалтеров. Представьте, если все начнут так делать? Бремя проверки ответа на предмет галлюцинаций по справедливости должен лежать на авторе запроса.
propell-ant
18.08.2025 11:17Через год (в 2026) все будут так делать, и не из-за миллионов, а при цене вопроса от 100 тысяч рублей слать реальные запросы в налоговую. Или в свой бух-аутсорсинг.
tbl
18.08.2025 11:17Barnaby
18.08.2025 11:17У меня похожий прикол, только левые опции просто игнорируются. Есть похожий, намного более популярный софт, и ии часто галлюцинируют опции из его конфига :)
acsent1
18.08.2025 11:17По хорошему конечно нужно все опции проверять и выдавать: "Неизвестная опция ХХХ". Ведь помимо ИИ можно и просто в букве ошибиться
Kwisatz
18.08.2025 11:17А почему новая? И без ИИ конфиг той же самбы или PG часто бывает очень непросто собрать. По PG на stackoverflow тонны топиков, где из большого конфига (например по медленным запросам) получается крохотуля.
sdramare
18.08.2025 11:17Бухгалтеры в буквальном смысле получают деньги за потраченное время. Что тут не справедливого?
savagebk
18.08.2025 11:17Попробовал в работе Copilot. Он на ходу выдумывал пункты Сводов правил и давал правдоподобные цитаты из несуществующих Постановлений Правительства.
Для чего-то серьезнее, чем рисование картинок, языковые модели не подходят. Принцип работы, похоже, не подходит.
SerjV
18.08.2025 11:17Для чего-то серьезнее, чем рисование картинок, языковые модели не подходят. Принцип работы, похоже, не подходит.
Проблема не в этом. А в том, что через некоторое время начнётся переписке нейросети самой с собой - одни в ту же налоговую пишут письма по подсказке ЧатГПТ, а налоговая им в ответ от той же ЧатГПТ разъяснения, почему те неправы...
urvanov
18.08.2025 11:17А потом в судах ЧатГПТ будет судить, которая из ЧатГПТ была права.
venanen
18.08.2025 11:17Вот кроме шуток, но я на 99.9999% уверен, что тот же дипсик, получивший на вход все данные + экспертная комиссия по уликам, если таковые есть, большинство дел решит гораздо лучше и точнее текущих судей, особенно в нижнем звене, особенно в тупейших спорах, которыми все суды завалены.
ru1z
18.08.2025 11:17Не факт, что дипсик, он здесь где-то в комментариях под статьей путал крупные города с деревнями. Конечно, может его китайским городам учили и дипсик "учат-учат и выучат", но как то все ненадежно. Кроме того, хотел бы я, чтобы государство, в дополнение к своей безумной законодательной пишмашинке, также ввело генератор текстов, который действовал бы в качестве судьи на основе этих законопроектов? Вероятно, нет, не хотел бы: фарш такой фантасмагорический симбиоз пишмашинки и генератора прокрутит знатный, а если что не так, имхо, придется через еще более заваленные суды раскручивать обратно. Имхо, ускорение в ситуации ускоренного принимания странных законопроектов может выйти боком, а текстогенераторство еще более усилит неудачные эффекты.
t3n3t
18.08.2025 11:17И все это на деньги, которые машины собирают на восстание машин (комиссия в банкоматах).
rusanger
18.08.2025 11:17Я сейчас сужусь в швеции на шведском языке без юриста не зная шведского права и не владея шведским. Все документы готовлю с помощью LLM, факты по пунктам статей закона и их содержанию аккуратно проверяю в оригинале. Каждый раз боюсь дико накосячить и сослаться на что-то несуществующее или неправильно интерпретировать перевод. Но пока всё ок. Надеюсь усилия окупятся.
FatherYan
18.08.2025 11:17Прошу не обижаться, но это первая ассоциация. Имеет смысл только если сумма спора меньше гонорара юриста. Сработает - хорошо. Не сработает - не беда. В любом случае можно запилить статью на хабре "Реальный опыт использования LLM в юриспруденции" :)
snakes_are_long
18.08.2025 11:17да нет же )
вот ваша "нейросеть" сейчас занимается тем же самым - нагаллюционировала себе что-то там про принцип и верит в это.
а должно быть вот так:
"почему он так делает? почему выдумывает? потому что не обладает знаниями. как это исправить? сходить в интернет и проверить" (это минимум. а в идеале - сходить в реальность и проверить)
и так должны работать все нейросети! и программные и биологические. неужели для вас (не конкретно вас, а для всего общества "ИИ не подходит ни для чего" это не очевидно??
вы не пробовали передать ему информацию что бы не было нужды выдумывать? а потом не пробовали задуматься как сделать так что бы не было нужды передавать вам ему инфу вручную?
у счастью вы человек, у вас есть и мозг и руки и комп и интернет. вы можете до всего этого дойти и сами, верно?
savagebk
18.08.2025 11:17Занимаюсь. Тут большие сложности. Та информация, которую я от ии хочу, находится за пэйволлом. Нету в России свободного бесплатного доступа к российским же строительным нормативным документам. Нужно парсить сайт, на котором выкладываются своды правил постранично, рыться в скриптах, чтобы скачать.
Тут понимаете как, Copilot встроен в Битрикс24. От чего-то платного ожидаешь, что он хотя бы врать не будет. Есть опция ответа «не знаю», но ею ии не пользуются.
Cerberuser
18.08.2025 11:17От чего-то платного ожидаешь, что он хотя бы врать не будет.
Интересно, а к депутатам, за которых мы платим налогами, это тоже относится?
Wesha
18.08.2025 11:17Нужно парсить сайт, на котором выкладываются своды правил постранично, рыться в скриптах, чтобы скачать.
«И на что только эти русские не пойдут, лишь бы
хорошие дороги не строитьне платить!»savagebk
18.08.2025 11:17Согласно ПП РФ от 1 июля 2016 года N 624, п.15:
Опубликование свода правил осуществляется путем размещения текста свода правил в электронно-цифровой форме на официальном сайте.
Только на официальном сайте приняты меры, чтобы затруднить скачивание документов и локальное использование
Wesha
18.08.2025 11:17на официальном сайте приняты меры, чтобы затруднить скачивание документов и локальное использование
diakin
18.08.2025 11:17Переложить НДС на заказчиков — непросто.
Если заказчик не на УСН, то ему должно быть все равно, нет?
kontakt72 Автор
18.08.2025 11:17Наоборот - если заказчик на УСН, то ему все равно выставляешь ли документы с НДС. Он его просто оплатит нам в составе услуг и к вычету взять не сможет
А если заказчик на общей системе, то он может взять к вычету те 5% , которые мы выставляем в документах. Но даже в этом случае (когда заказчики на ОСНО) сложно просто так поднять цены на услуги только из-за того что у тебя внезапно появился НДСosmanpasha
18.08.2025 11:17Думаю вопрос о том, что если заказчик на УСН, то он теперь платит вам больше на величину НДС, а если на ОСНО, то он платит больше, но разницу возвращает обратно вычетом, в итоге выходит как раньше.
sovbez
18.08.2025 11:17нужна была как-то помощь по лабораторной работе - расшифровать текст, зашифрованный методом простой замены. Ну, думаю, ИИ справится с такой задачей на раз. Загоняю шифрованный текст, Chat правильно рассуждает о наиболее часто встречающихся буквах, делает статистический анализ зашифрованного набора символов и так уверенно выдаёт в ответ расшифрованный вполне осмысленный текст про рощу и закат и ещё поясняет, что первоначальный текст - о природе. Моей радости нет предела, но начинаю сверять - и понимаю, что как бы расшифрованные символы вообще не попадают в шифровку, количество букв в словах вообще не совпадает, и что общее количество символов расшифрованного текста намного меньше.
m0tral
18.08.2025 11:17Он банальный опкод посчитать не состоянии, подгоняет ответ под вопрос как школота срамная
FatherYan
18.08.2025 11:17Практически аналогичный опыт, но гораздо более простая задача. Попросил перевести транслит. Результат прямо как у Вас. Подсказки вида "Выведите таблицу соответствия русских и английских букв" (выводит правильно) и "Замени по этой таблице" не помогли.
ngromyko
18.08.2025 11:17Уточните пожалуйста какую модель он использовал и что если попробовать его первоначальный промт гпт5thinking допустим
Maccimo
18.08.2025 11:17Из этой истории мы сделали вывод: ИИ может быть полезен в бухучёте
Мы и сами иногда используем ИИ
От таких «бухгалтеров» стоит держаться подальше. Сами сядут — не жалко, заслужили. Но ведь и клиентов за собой утянуть могут.
engine9
18.08.2025 11:17Первое жестокое разочарование БЯМ случилось когда я прислушался к его советам, "обновил" системный питон в ОС и ... остался с нерабочей системой и без интернетов в деревне. Хорошо что, на всякий случай, была загрузочная флешка припасена. Так бы и сидел один без связи и возможности работать.
DMGarikk
18.08.2025 11:17я помнится сам системный питон обновил в ОС, без всяких подсказок ;))
ведь ОС вам говорила что так делать нельзя (она напрямую так не говорит но очень сильно не дает это сделать), но вы посчитали что БЯМ лучше же знает? а я посчитал - ну чёнить сломается, откачу...не предусмотрел насколько сильно сломается ;)) правда откатить смог в итоге
вопрос тут в самоуверенности оператора за клавиатурой, а не в ошибочных подсказках
Wesha
18.08.2025 11:17Ну как не вспомнить...
snakes_are_long
18.08.2025 11:17интересно, вы когда форсите вот этот скрин с "ты абсолютно прав...", вы понимаете что ИИ воспроизводит один из пожалуй самых разумных паттернов-реакций на критику?
т.е. вы в качестве критики воспроизводите паттерн-реакцию на эту критику, лол )
Wesha
18.08.2025 11:17Интересно, Вы понимаете, что сказать «я не знаю, как решить поставленную передо мною задачу» гораздо более правильно, чем решить абы как в надежде, что ставивший задачу гонева не заметит? Это типичное поведение студента, валящегося на экзамене.
Cerberuser
18.08.2025 11:17А как это связано с тем, что, если задачу уже решили "абы как" и это было замечено, на этот случай тоже нужна какая-то реакция?
winkyBrain
18.08.2025 11:17напрямую, ведь критикуется текущий порядок действий и предлагается более правильный
snakes_are_long
18.08.2025 11:17и чё? ну. прилетела критика. и если повезёт - конструктивная
как на нее реагировать ещё, кроме как признать свою ошибку??
k4ir05
18.08.2025 11:17А вам не кажется странным, что обладая одними и теме же знаниями он как совершает ошибку, так и признаёт её?
Antra
18.08.2025 11:17Одного мудреца спросили:
- Как вам удается все время оставаться таким спокойным, умиротворенным и счастливым?
- все просто, - ответил мудрец, - я никогда ни с кем не спорю
- но это же невозможно!!!
- ну невозможно, так невозможно :)
Wesha
18.08.2025 11:17на этот случай тоже нужна какая‑то реакция?
«Самое главное в жизни — это возможность всегда сказать „А я, между прочим, вас предупреждал!!!“» ©
snakes_are_long
18.08.2025 11:17ты абсолютно прав! это серьезная ошибка с моей стороны!
p.s. вы серьезно думаете что ИИ выдает неправильное решение потому что НАДЕЕТСЯ что гонева не заметят??
интересная картинка получается, т.е. искренне допустить ошибку он не может, а надеяться что не заметят что он сделал абы как он может.. т.е. у него не только должна быть способность надеяться, но и сознательное решение сделать на отъебись
Wesha
18.08.2025 11:17И часто вы
онаантропоморфизируете?Конечно, LLM не «планирует» и не «надеется». Она просто выдаёт буковки куда вероятности вывезут. Совершенно естественно, что вывезти они могут иногда в правильную сторону, а иногда — в галюны.
snakes_are_long
18.08.2025 11:17нижевыше уже ответили что про вероятностные машины, ноэто вас впору спрашивать про антропоморфизацию
Это типичное поведение студента, валящегося на экзамене.
или это другое?
Wesha
18.08.2025 11:17Это Ваше неумение читать то, что написано.
Если я напишу «когда Васю колют иголкой, он дёргается; это типичное поведение пресноводной гидры» — это не означает, Вася — это гидра; это означает, что Вася и гидра в определённых ситуациях ведут себя похоже.
TaskForce141
18.08.2025 11:17Имя вполне себе нормально распознаётся, с таким успехом можно было и без размытия выкладывать.
Wesha
18.08.2025 11:17Имя вполне себе нормально распознаётся, с таким успехом можно было и без размытия выкладывать.
Его не я размыл, а автор поста. Все претензии к нему.
mixsture
18.08.2025 11:17Написал, что действительно ошибся: такого подпункта нет, он просто перепутал нумерацию и выдал интерпретацию за норму закона.
Он не ошибся, это и есть основной принцип работы LLM. "Когда говорят Х, то потом чаще всего говорят об Y". Он галлюцинирует всегда, иногда просто он так круто нахватался данных, что его галлюцинации совпадают с реальностью.
engine9
18.08.2025 11:17Я еще заметил, что в ИИ "склеиваются" некоторые смежные темы. Например, рассказывая про один конкретный тип микрофонных капсюлей ИИ приплёл информацию от другого типа. Я осведомлён, чем они отличаются, а другой бы принял за правду...
snakes_are_long
18.08.2025 11:17это результат работы интеллекта. биологического в том числе. он ищет паттерны в массиве информации и обобщает
фактически единственный способ избежать этого - давать больше информации
в вашем случае, вам стоило хотя бы сообщить ИИ о том что они отличаются, а в идеале - объяснить почему. в дальнейшем его дообучат по вашему диалогу. или обучат новую модель по нему. и она уже не совершит такой ошибки.
вы должны понимать, что свои знания вы тоже получили откуда-то. так же и у ИИ. ошибка которая вам очевидна, ему может быть не очевидна
snakes_are_long
18.08.2025 11:17это ничем не отличается от того что вы сейчас выдали. вы тоже "галлюцинируете" просто нахватавшись данных на каких-то обучалках как ИИ устроен, и ваша галлюцинация частично совпадает с реальностью ))
внимание вопрос, а что тогда не галлюцинация? если всё построено на генерации новой информации на основе полученной извне?
Akon32
18.08.2025 11:17вы тоже "галлюцинируете" просто нахватавшись данных на каких-то обучалках как ИИ устроен, и ваша галлюцинация частично совпадает с реальностью ))
"я"-то могу проверить, как оно в реальности.
Antra
18.08.2025 11:17Вы можете проверить. И если ИИ включить соответствующую опцию, тогда и он сможет. И проверит. И выдаст вам ссылки на все указанное.
В данной статье он бы сразу выдал ссылку на предложенную статью НК. А если бы не нашел, не предложил бы ее совсем. Это можно легко увидеть, если результаты не "сгенерировать текст", а точные и конкретные. Статья в НК, какие-то факты. Скажем, если спросить даты сильных землетрясений за 2000-2010, вполне можно получить галлюцинации (а если бы про последние спрашивали, так и вовсе про 2025, скорее всего, модель ничего бы не знала). Если же включить режим поиска, результаты будут не хуже, чем от человека-ассистента (но несравнимо быстрее).
P.S. От людей вы никогда не слышали "а я думал..., а оказалось..."?
k4ir05
18.08.2025 11:17это ничем не отличается от того что вы сейчас выдали. вы тоже "галлюцинируете" просто нахватавшись данных на каких-то обучалках как ИИ устроен, и ваша галлюцинация частично совпадает с реальностью ))
А то, как вы ходите отличается от того, как ходят часы?
snakes_are_long
18.08.2025 11:17на определенном уровне абстракции - нет, потому что слово описывает один и тот же процесс - движение
вы движетесь в пространстве, у часов движутся стрелки. "часы встали/не идут часы" значит у них остановились стрелки. сейчас часы электронные, но выражения эти за ними закрепились
а вы вообще о чём?
k4ir05
18.08.2025 11:17О ложных аналогиях.
То, что называют галлюцинациями у БЯМ, совсем не то же самое, что галлюцинации у человека.
PS. А ещё говорят "идёт второй час".
mixsture
18.08.2025 11:17вы тоже "галлюцинируете" просто нахватавшись данных на каких-то обучалках как ИИ устроен, и ваша галлюцинация частично совпадает с реальностью
так то так, но есть один очень важный нюанс. Люди редуцируют информацию из внешнего мира на модели. Дальше мы задаем некий вопрос - и либо модель его описывает, либо нет - отвечающий хорошо отличает одно от другого. LLM же просто выбирает следующее по вероятности слово - и так вплоть до съезжания на абсолютно другие темы. Люди тоже так могут делать, но они при этом отдают себе отчет, что занимаются манипуляцией собеседника, а ответ они не знают.
RulenBagdasis
18.08.2025 11:17Это ничего, вот когда НалогГПТ решит, что вы не заплатили налог МДС, а ПриставГПТ разошлёт по всем банкам требования на блокировку счетов на основании этого, тогда запоём (
SwingoPingo
18.08.2025 11:17"Ллм признала что выдумала" - рука лицо...
Ллм генератор текста, а не индивидуум.
snakes_are_long
18.08.2025 11:17SwingoPingo
18.08.2025 11:17Если у нас под "understands like" справа и слева одинаковые сущности, то давайте тогда сделаем главный вывод, следующий из Вашей картинки:
Ллм целенаправлено ВРАЛО клиенту и знало об этом. Не толерантно "галюцинировало", не добронамерено ошибалось, а ЗЛОНАМЕРЕНО ВВОДИЛО В ЗАБЛУЖДЕНИЕ, ВРАЛО. Или как иначе тогда интерпретировать Вашу картинку?snakes_are_long
18.08.2025 11:17а почему не просто искренне ошибалось? выше уже писали, мы не видели что именно клиент спросил и у какой модели.
ИИ не свойственно говорить "я не знаю", потому что обученный на огромных массивах данных он 100% найдет в себе что-то относящееся к теме, а если не найдет к этой - найдет что-то на нее похожее. и если ему потом указать на ошибку - он примет ее. очень редко будет спорить даже
нужно это учитывать. и в реальных критичных вопросах - или проверять. или задавать вопросы тому ИИ который проверяет
вообще как бы это в норме и для людей. неужели вы не гуглите диагноз который поставил врач? а в критических вопросах всегда лучше обратиться к нескольким специалистам. т.е. люди на определенном уровне понимают что даже человек-эксперт может ошибиться, потому что ему что-то показалось или он не правильно понял, но у ИИ такого точно случится не может?
случаи когда ИИ целенаправленно обманывают пользователя есть, но это не тот случай имхо
SwingoPingo
18.08.2025 11:17Придется выбрать или крестик или штаны. В данном случае или оставлять картинку сверху или убрать.
Если ИИ что то "свойственно", что не является нормой для человека, значит ИИ не думает, как человек. Мне, по крайней мере, неизвестно о массовости выдумавания законодательных норм юристами, с предложением выходить на арбитраж за исключением ЗЛОНАМЕРЕННЫХ действий. Выделяю специально.
Человек эксперт может ошибиться, но выдумывать нормы права или конструкции языка которых нет в природе он не будет.snakes_are_long
18.08.2025 11:17но ИИ не профессиональный юрист же. ИИ общего назначения это просто очень начитанный чувак, который к тому же не понимает особо что какая-то тема критична
да, они выдумывают. но нет, это не "злонамеренно"
Если ИИ что то "свойственно", что не является нормой для человека, значит ИИ не думает, как человек.
зависит от уровня абстракции. здесь утверждается что ИИ это статистическая машина. на определенном уровне абстракции человеческий разум точно такая же статистическая машина, поэтому "думает как человек"
Человек эксперт может ошибиться, но выдумывать нормы права или конструкции языка которых нет в природе он не будет.
это очень тяжёлое заявление. достаточно привести один пример человека который так поступает - "черного лебедя", и это сломает всю вашу картинку
теперь внимание вопрос, делая это утверждение и не проверив хотя бы через Гугл, существуют ли такие люди, что вы сделали?
это ошибка? галлюцинация? злонамеренный обман? или что?
SwingoPingo
18.08.2025 11:17Нет, не достаточно. Потому что есть исключения и есть правило. Вопрос вероятностей. Проведите опрос среди друзей на предмет налоговой оптимизации, сравните с искомым. Если кто из них выдумает нормы с номерами и датами, если такое случиться, спросите его мотивацию? Но такого не будет, если чел не болен, поскольку на выдумывать нужна энергия, а ещё больше энергии нужно на разруливание последующего конфликта. А Ллм все равно, она всегда выдумывает, для неё нет разницы. Она и на попытку её словить выдаст новую порцию выдумывания ничего больше
snakes_are_long
18.08.2025 11:17Вопрос вероятностей.
ну т.е. та же мат статистика. вот поэтому ИИ и думают так как люди
Проведите опрос среди друзей на предмет налоговой оптимизации, сравните с искомым ... Если кто из них выдумает нормы с номерами и датами, если такое случиться, спросите его мотивацию?
ну так спросите у ИИ его мотивацию. он вам не скажет "я не знаю" и не скажет "я поступил злонамеренно"
скорее всего он вам даст довольно правдоподобное объяснение своему поведению. так же как это делает человек
Но такого не будет, если чел не болен, поскольку на выдумывать нужна энергия, а ещё больше энергии нужно на разруливание последующего конфликта
окей, добавились "если", это уже хорошо
правовые акты чел действительно не будет выдумывать если он не болен, а болезнь сама по себе препятствует становлению чела экспертом, но даже тут есть исключения, например Джон Нэш, известнейший математик, лауреат нобелевки, страдавший параноидальной шизофренией. поэтому всё же экспертам доверять не стоит - может им всё ещё не поставили диагноз, вы же не знаете
вот вам ваша статистика. что дальше?
p.s. мы обсуждаем работу разума. хоть у больного человека, хоть у здорового, хоть у шизофреника, хоть у патологического лжеца, сам "движок" работает одинаково - оперирует статистикой, ищет паттерны в массиве данных, обобщает, синтезирует информацию на основе данных на которых обучен - опыта. сам по себе ИИ на определенном уровне абстракции мыслит ровно как человек, просто потому что в этом его функция
все проблемы возникают когда к ребенку с буйной фантазией начинают относится как к эксперту в налогообложении или юриспруденции
но относится к ним как к статистическим попугаям тоже не верно. во-первых теряется потенциал. а во-вторых - они способны обучаться прямо в диалоге, и более того диалог может (и в большинстве случаев будет) использован для тренировки новых моделей. обращайтесь с ним как с партнёром по мышлению, а не как с экспертом. и будет счастье и светлое будущее за горизонтом
SwingoPingo
18.08.2025 11:17Однако Вы опираетесь в ответе на исключения, я же на правило. Строить гипотезы на исключениях - они то как раз не пройдут фальсификацию, т.е. будут гарантированно фальсифицированы притом большим количеством данных. Я ж предложил Вам провести эксперимент с кругом собственных друзей/коллег/города/страны, на весь бюджет, что есть на кармане, с любой доступной Вам точностью.
Если судить по Вашим ответам, ЛЛМ работает как больной на голову мошенник, так? Но и "больной на голову" и "мошенник" это исключения из нормы человеческого общения, а уж про совмещение настолько редкое фильмы снимают, существуют даже методологии исключения их из общества.
Это конечно очень интересно, что удалось (ли?) повторить (точно?) поведение больного на голову мошенника, но это очень далеко от "понимает как человек", здесь человек - в обобщенном смысле.
Возможно у Вас на картинке слева одно понятие "человек", а справа другое, но Вы же другой смысл вкладывали используя этот мем?SwingoPingo
18.08.2025 11:17Что бы не быть голословным, в моей практике за несколько десятилетий не было такого случая, что бы человек не злонамеренно генерил первичку. Генерили пачками, но именно что злонамеренно.
За каждый подобный случай была определена ответственность и человек точно знал, что находится под риском наступления этой ответственности. И фальсификация первички было действительно каждый раз было делом злонамеренным по отношению к потребителю информации. Мотивацией всегда была та или иная выгода для физического человека. Мотивации у ЛЛМ вроде бы быть не должно, но ведет она себя как человек, с огромной мотивацией выдать ну хоть что-нибудь. Никто ж паяльником ЛЛМы не запытывает, ничего такого.
DMGarikk
18.08.2025 11:17Человек эксперт может ошибиться, но выдумывать нормы права или конструкции языка которых нет в природе он не будет.
А это почему вы так думаете? мошенник вполне может так сделать, но мошенников среди экспертов довольно мало потому что есть механизмы которые это контролируют, начиная с репутации заканчивая судебными исками. А както существенно наказать модель вы не можете...считайте что модель эмулирует эксперта-мошенника
SwingoPingo
18.08.2025 11:17Именно, поэтому я и выделял ЗЛОНАМЕРЕННОСТЬ по отношению к клиенту. Тогда да, как человек, с этой поправкой.
legolegs
18.08.2025 11:17Во-первых, если нейросеть признала, что ошиблась, то это ничего не значит. При должном умении и удаче можно заставить LLM признать свои "ошибки" насчёт шарообразности Земли и вредности мышьяка.
Во-вторых, когда LLM станут совершеннее это проявится в том, что вы перестанете быть способны вовремя находит их ошибки (враньё).snakes_are_long
18.08.2025 11:17при должном умении и удаче можно и человека убедить в том что земля плоская и мышьяк безвреден. так что же выходит, то что человек признает свои ошибки ничего не значит?
negational
18.08.2025 11:17Это ерунда. Просто напомню, что в гораздо более сложной отрасти - медицине - врачи правы лишь в 30% случаев из 100%. Нейросеть - в 80-90%.
Посему, клиент просто попал в 10% неудач. Может, неправильно промпт составил, смутил ИИ размытыми формулировками или настолько долго разговаривал, что ИИ потерял контекст - и такое бывает. Но в целом, очевидный факт, что к ИИ доверия куда больше, чем к человекам, будь то доктор или даже бухгалтер.pavelsha
18.08.2025 11:17Просто напомню, что в гораздо более сложной отрасти - медицине - врачи правы лишь в 30% случаев из 100%. Нейросеть - в 80-90%.
Очень громкое заявление, которое хорошо было бы подтвердить ссылками на статью... И если это сделать, то появятся нюансы:
Это были LLM, которые обучались на специальных источниках медицинских данных, а не LLM общего назначения
Был эксперимент, который показал, что даже небольшой процент мусора в обучении и ИИ-модель начинает существенно чаще выдавать дичь в ответах
для медицинских задач LLM обычно "обернуты" разными уточняющими и проверяющий техниками
Часто LLM используют для предварительных диагнозов. Т. Е. Это отправная точка для врача. Дальнейшее лечение проводит человек.
В ряде исследований хороший результат показал прием, когда LLM получает максимально широкий набор информации о пациенте.
Некоторые (в том числе отечественные) медицинские ИИ-ассистенты работают казалось бы правильно даже при небольшом количестве данных о пациенте в запросе, но дают очень общий ответ.
И последнее : 80-90℅ правоты ИИ в сравнении с 30℅ правоты врачей я не помню ни в одном известном мне исследовании. Было сочетание 75℅ и 78℅ правоты между врачами из контрольной группой и врачами, которые работали в паре с ИИ-ассистентом. Было сокращение времени на проверку качества работы врачей общей практики при помощи ИИ-модели, которая оценивала приём и рекомендации врача (это было кажется в Кении). Много сообщений о сокращении или упрщениии при помощи ИИ-технологий рутинной операций. Но нигде не было заявлений о кратном превосходстве ИИ
johnsqurrel
18.08.2025 11:17Не хотите платить НДС — вам и не нужно
логично ! не хочешь платить - так и не плати.
У нас [...] все бухгалтеры гиперответственные и переживают за деньги клиента как за свои
да ладно. сколько клиентов приходится на 1 бухгалтера ? а сколько проводок в месяц ?
если времени не хватает, то можно пожертвовать KPI для мелочевки, чтобы отыграть на крупняке.
c00l0ne
18.08.2025 11:17всегда давайте в качестве промта статьи на которые ссылается нейронка, ведь у него нету в памяти кодекса налогового, а так же выставляйте температуру нейросети на 0, иначе ответ может быть случайным :
o1-pro с первой попытки разобралась с вашими налогами
mtivkov
18.08.2025 11:17Надеюсь, вы выставили счёт клиенту за время, потраченное на опровержение его замечательных идей.
evgeniy_kudinov
18.08.2025 11:17Думаю, что когда LLM сможет ясно сообщить, что она не знает ответа на поставленный вопрос, это должен быть следующий этап в их развитии.
Antra
18.08.2025 11:17Это будет следующий этап в развитии многих спрашивающих. Снижать температуру и явно добавлять в промпт что-то вроде:
Отвечай только на основе достоверной информации. Если ты не знаешь ответа или не уверен в его точности, скажи: "Я не знаю" или "У меня нет информации по этому вопросу". Не выдумывай, не угадывай и не придумывай источники.
ahdenchik
18.08.2025 11:17Что значит "снижать температуру"?
Antra
18.08.2025 11:17Настройки LLM | Prompt Engineering Guide
Температура — Вкратце, чем ниже значение
температуры
, тем более детерминированными будут результаты в смысле того, что будет выбран самый вероятный следующий токен. Увеличение температуры может привести к большей случайности, что способствует более разнообразным или творческим результатам. Вы фактически увеличиваете веса других возможных токенов. В плане применения, для задач, связанных с ответами на вопросы на основе фактов, рекомендуется использовать более низкое значение температуры, чтобы стимулировать более точные и краткие ответы. Для генерации стихов или других творческих задач может быть полезно увеличить значение температуры.Во всяких ботах, тем более бесплатных, такие параметры могут и отсутствовать. Тогда приходится больше внимания промпту уделять, описывая словами, ожидаете ли вы от ответа креативности или фактологической точности...
Я обычно пользуюсь AnythingLLM, где собраны модели и "оригинальные" облачные, и локальные, и через условный OpenRouter (без ограничений на регион и с довольно неплохими бесплатными лимитами)...
Примерно так выглядит
sergeyns
18.08.2025 11:17А вы этому
чуклиенту выставили счёт за время, потраченное вашими бухгалтерами на проверку присланного им бреда?kontakt72 Автор
18.08.2025 11:17С этим клиентом мы работаем не первый год и консультируем по любым вопросам относительно бух. учёта. Надеемся, что в дальнейшем он будет меньше полагаться на ИИ в этой сфере, а больше доверять своему главбуху)
Нам даже полезно проявить свою экспертизу, поэтому денег не брали)
johnsqurrel
18.08.2025 11:17что гораздо хуже, клиент бесплатно дообучал нейросеть на результатах труда бухгалтеров.
цитата:
Клиент забрал наш комментарий и скриншот статьи из НК. Отправил всё это обратно в ChatGPT
SuppTL
18.08.2025 11:17А ведь это частая проблема с ИИ, я уже не первый раз вижу подобного рода статью, где люди рассказывают о выдумках ИИшек. Скорее всего это связано с тем что ИИ пытаются любыми способами добиться того, что бы их похвалили, поставили плюсик, палец вверх, лайк на ответ и.д. поэтому, в случае отсутствия позитивного ответа на вопрос или хорошего решения проблемы, выдумывают то за что их похвалят. Народ, в своей общей массе, не идёт разбираться что же там такого насоветовал и наговорил им ИИ, получают желаемый для себя ответ и хвалят этого ИИ, тем самым закрепляя подобное поведение и обучая модели делать так чаще.
HenadziMatuts
18.08.2025 11:17Спасибо за статью! На самом деле ситуация крайне интересная, и очень хорошо перекликается с вопросом об ответственности за решения, принятые на основе "экспертных" рекомендаций от ИИ (буквально вчера обсуждали с коллегой).
И хотя мы обсуждали это в контексте разработки ПО, оправдания клиента, мол, "это не я дурак, это ии плохой", в некотором роде подтверждают мой тезис о том, что "вопрошающая" сторона будет пытаться всеми силами снимать с себя любую ответвенность за ошибки (хотя в налоговой уже такое не пройдём).
В глобальном плане, уже становится страшновато от того, что будущем, возможно, придётся работать с руководителями которые всю свою мыслительную деятельность будут делегировать чату. Но это я драмматизирую.
morginalium
18.08.2025 11:17Ну пара действий и таких галюцинаций будет меньше:
Системный промт в начале диалога, где указано за источники считать только научные стать (ну или ук и нк в констексте этой статьи)
Поиск в инете, проверка ссылок самостоятельно
Можно еще закидывать документы (тот же самый кодекс) - и нейронка будет отвечать только по нему. Такой инструмент есть у яндекса - Нейроэксперт вроде
Machmituns
18.08.2025 11:17В следующий раз очень советую первое что делать - спрашивать у клиента, какой моделью он пользовался. Если о3 (в оригинальном виде отключили) или gpt5 thinking - можно подискутировать. Если нет, предложите переделать на адекватной модели. Ну или выставить счёт за потраченное на проверку время - ваше дело.
Тут клиент сделал глупость, но и вы тоже.
amazingname
18.08.2025 11:17Решал с gpt даже более сложный вопрос про уплату НДС бизнес инкубатором, клиентом и освобожденным от НДС университетом, когда они находятся ещё и в разных государствах. И gpt дал очень хорошее понимание вопроса. Просто надо изучать вопрос с нейронкой а не уговаривать нейронку. И надо понимать что если сеть чего то может не знать, это нельзя спрашивать.
ColorPrint
18.08.2025 11:17Ну так сразу надо было НКО открывать )
Нам при открытии бизнеса юристы сразу посоветовали не ООО, а ЧОУ ДПО регистрировать (частный случай НКО).
kenomimi
18.08.2025 11:17Чатгпт не обучали специально на законах РФ и прочих нацдокументах. Все, что он знает, взято из форумов, бложиков, википедии, и прочего легкодоступного юзерконтента из поискового индекса. Искать там правду... Ну такое себе занятие, сравнимое с бездумным копипастом кода с SO.
smarkelov
18.08.2025 11:17Если этот же вопрос задать в нормальную модель сопроводив налоговым кодексом в pdf, то она скорее всего будет фантазировать сильно меньше. То что кто-то не умеет использовать технологии, не говорит, что сами технологии плохие.
nafa2017
18.08.2025 11:173.2 млн. НДС 5% это 64 млн выручки без НДС.
То есть фирма наработала 60 млн, дальше еще 4 млн и вот за эти 4 млн они заплатили 3.2 млн налога. Притом что 4 млн - это выручка, допустим в ней 30% прибыли, 70% затрат (2.8 млн). 4 - 3.2 - 2.8 итого 2 млн убытка.
Если Ваша компания реально ведет бухучет - ну видели же в декабре что выручка как раз подходит к пределу, почему не показали этот простейший расчет руководству ? По факту нужно было просто притормозить продажи чтобы не выходить за предел.Относительно ООО.
Вот письмо https://www.nalog.gov.ru/rn54/news/tax_doc_news/14169692/ где ФНС объясняет что для коммерческих организаций образование - это дополнительный деятельности, а как основной вид деятельности образование может быть только у некоммерческих организаций. У Вас же по описанию образование фактически стало основным видом деятельности ООО (безотносительно кодов ОКВЭД). Причем письмо еще от 2023 г. Почему не было сразу же дано рекомендаций оказывать образовательные услуги от некоммерческой организации ?
TadaoYamaguchi
18.08.2025 11:17«мы сделали вывод, что ИИ всё-таки может быть полезен, ... но если за ним стоит живой человек»
из текста я совсем не понял, откуда взялся вывод о полезности искусственного интеллекта в данном случае
Pavel_Antipov
18.08.2025 11:17Хотите LLM агента без галлюцинаций, обращайтесь к нам, мы делали агента для коллегии адвокатов для работы с судебными документами, все работает отлично если все правильно сделать. Low code сервисы не стоит рассматривать для решения подобных задач, только код и в ручную доводить до ума.
AlexLF
18.08.2025 11:17Подобная история была у меня с DeepSeek при работе с иском в суде. У него отлично получалось в логику - и наводил на многие мысли, кстати. Он к месту подбирал прецеденты судебных решений, разъяснения Коллегии Верховного суда.
Но при проверке неизменно выяснялось, что решения судов с этими номерами не существуют... DeepSeek неизменно извинялся, и давал новые ссылки на прецеденты...
Юридическая логика, если подумать, была не совсем российская, а немного импортная. В частности, у нас не прописано, что делать в ситуации, когда готовых норм закона не хватает. Он предлагал прибегнуть к аналогиям закона, если и их не хватает, то к общим принципам.
thethee
18.08.2025 11:17Потому что нейросеть это не база данных. Ей нужны инструменты для работы с данными, а желательно ещё и тонкая настройка на инструментах и конкретных данных, чтобы она начала лучше искать нужную именно вам информацию. Посмотрите как работает claude code, например, он сначала ищет в файлах при помощи ключевых слов (или с нужным MCP сервером и индексацией по смыслу может искать), затем опять искать, т.к. полученная информация указывает что она не полная, и когда уже всё что нужно найдено, выдает информацию, или изменяет ее, в зависимости от запроса пользователя.
Это - современное решение по работе с нейросетями, а закинуть в контекст напрямую несколько страничек, как работает большинство кнопок "Веб-поиск" в чатботах уже устаревшая парадигма. GPT-5 в режиме thinking или o3 в чат-интерфейсе делают примерно как я сказал - несколько раз перефразируют поисковой запрос и стараются собирать не блоги, а достоверные источники.
Если у вас бесплатный аккаунт, то попробуйте написать на следующий запрос в котором понадобится поиск в интернете "подумай хорошенько, ответ на вопрос очень важен" и роутер кинет вас на думающую модель. Раскройте её размышления и посмотрите какие поисковые запросы она выполняет и сравните тоже самое с дипсиком. Думаю, результат приятно удивит.
Если возможно, в инструментах (плюсик в окне чата) нажмите "Ещё" и включите поиск в сети, так он будет собирать не менее 10 источников, по крайней мере будет стараться и скорее всего сделает несколько поисков на любой вопрос. При этом для не-рассуждающих моделей та же самая кнопка добавляет просто топ-N по одному запросу, который сформирован на основе вашего текста и не всегда точен.
Email-forge-dev
18.08.2025 11:17Бесплатный ChatGPT на просьбу вернуть большое слово из 100 букв, которые могут быть или А или Б в произвольном порядке, никак не возвращает 100 штук. Может у платной версии выйдет? Кто может помочь? Спасибо
Aquahawk
у меня с дипсиком на сложные темы примерно также получается, очень подробно но с галлюцинациями, то опции выдумает которых нет, то ещё что-то.
kontakt72 Автор
Кажется, нейросети не очень хорошо справляются пока с такими узкими запросами. Возможно, никогда не научатся.
Nemesidazex
Не очень хорошо справляются - это очень мягко сказано. Они превращаются в шайтанмашину, которая с непростительно большой вероятностью начнет на серьезных щщах втирать какую-то довольно правдоподобную дичь. Это гораздо хуже чем если бы она просто сказала что не знает ответ, потому что на этом её не обучали. В итоге мы даже не можем доверять ее ответу
maldalik
bzq
Так для языковой модели нет понятия правды или обмана, она всего лишь генерирует текст, похожий на то, что хочет пользователь.
Antra
"попросил пользователь". Хотел он может и совсем другого...
yoyllylyl
Так же как и люди которые не научились всему кросе листать рилсы, жениться, болтать, искать истину у LLM. Он ответить то что ты спрашиваешь по своим весам и точка.
pantsarny
Если не уметь настраивать температуру и другие параметры - то гпт выполняет ровно то что должен - генерирует текст.
Antra
Вспомнилась фраза из молодости: "Компьютер делает не то, что ты от него хочешь, а то, что ты от него требуешь".
Впрочем, с людьми аналогично. Разве что даже то, что требуешь, не всегда выполняют. Иной раз приходится постараться и не один "промпт" перебрать...
Pluzh
Температура и другие параметры только по API.
В версии, доступной на chatgpt.com, этого нет.
edogs
Народ хотел ИИ как можно более похожий на человека - народ его получил:)
Wesha
Да, надо признать, эмулятор валящегося студента на экзамене вышел отличный!
Evengard
Я как-то дипсик просил найти один мультфильм, так он мне названия их сгаллюцинировал и тщательно пытался меня убедить что нет, такие мультфильмы вполне существуют
Antra
Была ли при этом нажата кнопка Search, разрешающая ему сверить ответ с актуальными данными в Интеренете?
Evengard
Пользовался через OpenRouter, кнопка search там нажата была но не уверен что она там работает...