Вступление
Если вспомнить профессиональные чаты, форумы и тот же Stack Overflow нескольких лет назад, легко представить типичную сцену: новичок спрашивает, почему не работает скрипт, а в ответ слышит набор знакомых реплик — «читай документацию», «это очевидно», «ты вообще код видел?». И это ещё мягкая версия. Тогда информация была распределена неравномерно, документация — фрагментированной, и получение помощи зависело от настроения тех, кто был готов объяснять. Эксперт — даже токсичный — оставался ключевым источником знаний.
Сегодня ситуация другая. Любая современная LLM — от ChatGPT до DeepSeek — за секунды выдаёт вежливое и структурированное объяснение, не превращая обсуждение в проверку на интеллект. Возникает простой вопрос: зачем ждать резкого комментария, если можно сразу получить понятный ответ?
ИИ снял монополию на доступ к знаниям: информация стала симметричной, а токсичная манера общения перестала давать преимущество.
В этой статье мы разберём три вещи: как было раньше, что происходит сейчас и почему в будущем ценность экспертов будет определяться не объёмом знаний, а умением объяснять, анализировать и взаимодействовать.
Что было раньше?
Если оглянуться на профессиональные Telegram-чаты периода 2018–2021 годов, картина была довольно стабильной. Каждое утро в чат заходил новичок с типовым вопросом уровня: «Почему у меня не запускается демо-скрипт?» или «Как отправить POST-запрос?». Реакция сообщества была предсказуемой: кто-то вежливо отмалчивался, кто-то искренне помогал, но заметная доля «экспертных» ответов звучала свысока.
И дело было не только в тоне. Токсичность тогда была скорее функцией положения: у людей действительно были эксклюзивные знания, а документация — далеко не всегда очевидной. Чтобы дойти до первого рабочего теста, новичку приходилось либо разбираться в одиночку, либо зависеть от экспертного настроения в конкретный день. Постоянная зависимость делала токсичность социально терпимой.
На фоне этого сформировалась целая индустрия курсов «с нуля». Достаточно вспомнить лозунги того времени:
«Освой профессию за 30 дней»,
«API-тестирование для начинающих»,
«Все секреты Selenium».
По сути, многие из этих программ закрывали именно тот дефицит: объясняли базовые, понятные вещи, но в формате, который новичок нигде больше получить не мог. И это работало — информация действительно была разрозненной, а прямые ответы на простые вопросы часто сопровождались сарказмом или обсуждением того, «с чего вообще надо начинать».
Теперь представим эту же ситуацию сегодня. Новичок задаёт тот же вопрос — но уже не в чате, а модели вроде ChatGPT или DeepSeek. Ответ приходит мгновенно: структурированный, без раздражения, без попытки доказать кому-то своё превосходство и без продолжительных холиваров о правильном стиле кода. ИИ не спорит, не навязывает вкусовых предпочтений, не отправляет «читать доку» и уж точно не превращает техническое обсуждение в личное.
Именно поэтому потоки «джуновских» вопросов в профессиональных чатах резко сократились. Новички перестали быть зависимыми от случайного тона экспертов — у них появился альтернативный канал, который отвечает быстрее и вежливее.
Это изменение стало ударом и по другому сегменту — по курсам, которые строились вокруг идеи «мы покажем вам то, чего вы сами не найдёте». Сегодня большую часть этих знаний ИИ объясняет бесплатно, причём зачастую качественнее, чем материалы, которые раньше продавались как профессиональная подготовка.
Если раньше люди платили за доступ к опыту, то теперь опыт стал доступен в любой момент, в удобном объёме и без риска попасть под чью-то токсичность. И прежняя модель экспертности — когда знания сами по себе давали социальное и экономическое преимущество — перестала работать.
Что стало теперь?
Текущая ситуация в профессиональных сообществах выглядит иначе, чем несколько лет назад. Потоки базовых вопросов — тех самых «джуновских» вроде «почему не запускается пример из туториала?» — почти исчезли. Это не потому, что в индустрии внезапно наступило просветление, а потому что новички просто нашли более эффективный канал для получения простых ответов.
ИИ-модели заняли нишу «входной поддержки». Они взяли на себя всю рутину: объяснения базовой работы инструментов, первых шагов, кодовых шаблонов и типичных ошибок. Всё то, что раньше формировало значительную часть повестки чатов. Теперь новичку нет необходимости спрашивать «как отправить POST-запрос», если модель способна не только ответить, но и адаптировать ответ под конкретный стек, уровень подготовки и даже стиль мышления.
Это изменение повлияло и на динамику общения. Там, где раньше обсуждения нередко превращались в спор «кто прав, а кто делает всё неправильно», возникла новая точка сравнения. ИИ постоянно демонстрирует альтернативы: варианты архитектуры, разные стили реализации, решения из других экосистем. На фоне этого утверждение «делай так, потому что так правильно» перестало звучать убедительно.
Эксперт больше не может полагаться на аргумент авторитета — рядом всегда есть модель, способная показать, что «правильных» способов может быть несколько. Именно поэтому уверенность «я знаю, как надо» стала куда реже встречаться. Иронично, но ИИ не только упростил получение ответов, но и внёс больше разнообразия в способы решения задач.
Есть и ещё одно следствие: общие обсуждения стали смещаться в сторону более сложных тем. Если раньше львиная доля диалогов строилась вокруг базовых вопросов, то теперь в чатах чаще поднимаются архитектурные решения, специфические кейсы, интеграции, оптимизация и редкие сценарии. То, что невозможно просто «спросить у модели».
Другими словами, ИИ очистил информационное поле от шумовой нагрузки и оставил пространство для обсуждений, которые требуют опыта, контекста и инженерного мышления. В этом смысле роль экспертов не исчезла — она изменилась. Токсичность перестала давать социальное преимущество, а экспертность перестала сводиться к тому, что человек «просто знает больше».
Теперь ценность — в способности мыслить, анализировать, сопоставлять варианты и помогать другим ориентироваться в сложности. А не в том, чтобы знать ответ на вопрос, который ИИ выдаёт за секунду.
Что будет дальше?
Если проследить текущую динамику, становится ясно: эпоха экспертов-«хранителей тайных знаний» подходит к концу. Не потому что знания перестали быть важными, а потому что они перестали быть дефицитом.
Информация, которая когда-то передавалась почти в устной традиции — от «старших» к «младшим» — стала массово доступной. Любая модель способна объяснить устройство протоколов, паттерны тестирования, особенности фреймворков и типовые ошибки. И делает это без магии и без попытки построить вокруг себя культ.
Если раньше ценность эксперта определялась тем, что он «знает то, чего другие не знают», то теперь это преимущество стремительно обнуляется. Доступ к техническим знаниям стал симметричным. А значит, компетенция, построенная исключительно на «владении информацией», превращается в товар массового потребления.
Мы уже наблюдаем первые признаки этой трансформации. Stack Overflow — главный исторический индикатор дефицита знаний — фиксирует рекордное падение активности. Не потому что разработчики вдруг перестали ошибаться, а потому что теперь проще и быстрее спросить модель, чем вступать в спор под чужим ответом. То же самое происходит в Telegram-чатах, Discord-сообществах и на тематических форумах: базовые вопросы исчезли, но не потому что мир стал опытнее, а потому что у новичков появился надёжный, бесконфликтный источник обучения.
Эта тенденция только усилится.
И в результате изменится сам критерий экспертности. Настоящая ценность будет не в том, чтобы помнить команды, знать параметры инструментов или цитировать документацию. С этим ИИ справляется лучше и быстрее.
Ценность будет в другом:
1. Умение управлять ИИ как инструментом.
Не просто спрашивать «как сделать?», а формулировать задачи, задавать направление, проверять качество решения, распознавать ошибки модели.
2. Способность объяснять сложные вещи простым языком.
Парадоксально, но в мире, где ИИ умеет всё объяснять, именно человеческое объяснение становится особенно ценным: структурированным, контекстным, понятным.
3. Навык мыслить системно, а не фрагментарно.
ИИ выдаёт знания, но не заменяет инженерное мышление: умение видеть архитектуру, риски, компромиссы и долгосрочные эффекты решений.
4. Профессиональная коммуникация.
Токсичность теряет любую практическую пользу. Даже раньше она была скорее побочным продуктом монополии на знания; теперь, когда монополии больше нет, токсичная модель поведения лишается функциональности.
5. Умение работать с неопределённостью.
ИИ прекрасно генерирует варианты, но именно человек выбирает стратегию и принимает ответственность.
Поэтому в будущем эксперт — это не тот, кто «знает больше», а тот, кто делает сложное понятным и управляет сложностью как процессом.
Иными словами, ценность экспертности смещается от обладания знаниями к способности работать со знаниями. От накопления — к интерпретации. От авторитарности — к инженерному мышлению.
Токсичные эксперты прошлого, чья роль держалась на эксклюзивном доступе к информации, в этой системе действительно становятся ненужными. Не потому что ИИ «всё заменит», а потому что он уже заменил всё, что делало токсичность социально терпимой и экономически выгодной.
В мире, где любой человек за секунды может получить вежливое, корректное объяснение с примерами, эксперту больше нечего «охранять». Остаётся только одно — становиться лучше как специалист и как коммуникатор.
Заключение
ИИ уже не эксперимент, а часть профессионального ландшафта. Он снял дефицит знаний и тем самым изменил саму природу экспертности. То, что раньше считалось уникальным опытом или «магическими» знаниями, теперь доступно каждому за секунды.
В такой реальности ценность эксперта определяется не тем, сколько фактов он помнит, а тем, как он умеет мыслить, объяснять и использовать ИИ как инструмент. Токсичная уверенность в собственных секретах стала бесполезной: секретов больше нет.
Будущее — за специалистами, которые делают сложное понятным и превращают информацию в решения. Остальное уже умеют модели.
Комментарии (21)

SolidSnack
08.12.2025 06:44ИИ снял монополию на доступ к знаниям: информация стала симметричной, а токсичная манера общения перестала давать преимущество.
Раньше документацию не читали, теперь вообще разжуйте да в голову положите. Ну и что за преимущество токсичное такое, интересно даже))

panzerfaust
08.12.2025 06:44ИИ снял монополию на доступ к знаниям
Вся суть ИИ-фанатиков. Может еще отчет времени будем вести не от Рождества Христова, а от выхода GPT-3? Для вас же ничего раньше 22 года не существовало. Ни книжек, ни журналов, ни телепередач, ни гугла даже.
Что ни "откровение", то признание собственной никчемности. То ИИ код пишет лучше вас, то информации до ИИ для вас не существовало. Ну что могу сказать, плохо быть вами.

diderevyagin
08.12.2025 06:44Он снял дефицит знаний и тем самым изменил саму природу экспертности.
Вынужден не согласиться с данным утверждением. То, что называется ИИ, дает только иллюзию того, что можно быстро и просто получить информацию. На самом деле ответ ИИ не более чем попытка угадать и качество информации крайне низкое.
Мало того, что часть информации скрывается, часть перекручивается, так часто просто выдумывается. Ответ на любой сколь нибудь серьезный вопрос .... это извините шлак.
Да, конечно неприятно если вам отвечают "....".
Но это куда лучше того, что предлагает ИИ - это заставляет думать и приобретать личный опыт.

akod67
08.12.2025 06:44Пример промпта, где выдаётся шлак, можно привести, пожалуйста?

diderevyagin
08.12.2025 06:44Любой, сколь нибудь не элементарный инженерный вопрос.
Личный опыт, буквально 2 последних кейса:
1) верифицировал я новый алгоритм, с примерами кода, подробным пошаговым объяснением и просил проверить ряд граничных ситуаций.
2) верификация гипотезы проблем с выборкой данных в Postgres, с множеством вводных данных.
В обоих случаях достаточно было знаний, кропотливой работы и обычной логики рассуждения. На выходе - шлак (если точнее - ложные ответы).
Пример промпта
ИИ выдает шлак - это у вас promt плохой. Не ИИ несет чушь в ответ на внятный вопрос, стараясь выдать хоть что-то а не сказать прямо "извините не могу."
Нет - promt плохой. виноват ваш promt. Так сегодня говорят в Amazon и M$.
Это не правильный подход. Если написание promtа занимает сколько времени и ресурсов как работа с основной проблемой, то рановато утверждать что "ИИ все решило"

Viacheslav01
08.12.2025 06:44Ну так это просто первая линия получения информации, когда есть за что зацепиться, уже можно пойти и адресно найти информацию из боле надежных источников.

chuzhiegrably
08.12.2025 06:44По сути, многие из этих программ закрывали именно тот дефицит: объясняли базовые, понятные вещи, но в формате, который новичок нигде больше получить не мог.
Курсы не закрывали и не закрывают дефицит, а создают иллюзию «изи катки». На выходе получается человек, который умеет делать только то, что было в курсе: калькулятор, todo-приложение и import numpy.
Когда такой кадр высаживается на реальный проект, он начинает генерить реальные проблемы, которые решают в том числе синьоры-«токсики».
Более того, такие кадры начинают вопить, что синьоры-«токсики» почему-то не помогают. Не задумываясь, что проблема кое в чем другом.
Дело не в надменности и токсичности, а в тренде на нормализацию низкой базовой квалификации.
Результат: фундаментальная подмена понятий, когда объективное недовольство объективным незнанием гигиенического минимума выставляется токсичностью и прочими гуманитарными ко-ко-ко: не «я тупой лентяй, нахватавшийся по верхушкам», а «ты токсичный».
Например, я пилю пет-проект, понимая, что не настоящий сварщик. Мне даже в голову не приходит расстроиться от критики опытных инженеров, потому что эта критика объективно оправдана, а я развлекаюсь и не могу объективно претендовать на SOTA, совершенство архитектуры, кода и т.д.
Ненормально требовать от опытных ребят соответстовать уровню новичков и «выпускников курсов» — это они должны прикладывать усилия, прогрессировать и становиться лучше.
Ни разу я не сталкивался с ситуацией, когда нормально описанная ситуация и заданный вопрос (даже простой) оставались без ответа: видно, когда человек пришел в справочную, где ему должны по умолчанию, а когда реально хочет разобраться, предварительно приложив усилия.
Нет ничего постыдного в незнании и ошибках — это естественно при обучении. А вот когда «разжуй и в рот положи, да побыстрей» — возникают проблемы, ибо нефиг думать, что кто-то должен(!) что-то объяснять из-за чьей-то лени, да еще и ласково.
P.S. Сами по себе знания стремительно обесцениваются с появления книгопечатания, а потом и интернета.
Не нужно и тут подменять понятия: легкодоступность знаний не означает, что «знать ничо не надо, гы». Наоборот, требования к тупорезам увеличиваются: раньше можно было сослаться на то, что «книжка в двух экземплярах на весь мир», а сейчас — сорян. Не знаешь — сам виноват, а не кто-то там со стэкофюверфлоу токсичный.

SolidSnack
08.12.2025 06:44Хорошо сказано, а образование государственное это для токсиков)

chuzhiegrably
08.12.2025 06:44Государственное образование или нет — сейчас уже действительно неважно: все разжевано-пережевано в разных формах и форматах, бери, сколько унесешь 24/7/365.
Проблема в том, что не берут, а требуют принятия банальной тупости, лени и инфантильности за норму.

diderevyagin
08.12.2025 06:44а в тренде на нормализацию низкой базовой квалификации.
Самое лучшее описание сути вопроса !!!

akod67
08.12.2025 06:44Ни разу я не сталкивался с ситуацией, когда нормально описанная ситуация и заданный вопрос (даже простой) оставались без ответа:
Проблема в том, что этот ответ надо 1) ждать и возможно долго 2) не факт, что он вообще придёт и чем более нетипичен вопрос, тем выше риски этот ответ не получить. В отличие от иишки. Даже если она нагенерит бред, она накидает мыслей и альтернативных ключевиков, с которыми к вопросу можно подойти с другой стороны.

Bardakan
08.12.2025 06:44структурированный, без раздражения, без попытки доказать кому-то своё превосходство и без продолжительных холиваров о правильном стиле кода
Зависит от настроек модели
pg_expecto
которое оказывается ложным как только вопрос касается прогнозирования и технической экспертизы. По крайней мере в области экспертизы производительности СУБД нейросеть ошибается и иногда угадывает, что не удивительно - неисправные часы , два раза в сутки показывают совершенно точное время.
Но в целом, да согласен. Ситуация изменилась.
akod67
Услышать точный прогноз от человека не менее рандомно.
pg_expecto
Между человеком и ИИ есть один очень важное, принципиальное , фундаментальное отличие - с человека можно спросить за ответ.
akod67
На stackoverflow?
pg_expecto
На stackoverflow - нет кармы ?
https://habr.com/p/477238/
akod67
Не стал бы я утверждать, что есть принципиальное отличие между минус в карму и просто закрыть чат. Действия одинаковой эффективности в контексте "наказания" за плохой ответ =)
panzerfaust
Как говорил Боромир "Нельзя так просто закрыть чят, если мудрое руководство вставило его тебе по самые гланды". С SO даже близко ничего похожего не было.