Сегодня словосочетание «суверенный ИИ» звучит из каждого утюга. Корпорации отчитываются о миллиардных бюджетах, а в новостях регулярно появляются заголовки о том, что «русский ответ ChatGPT стал еще умнее». Но давайте называть вещи своими именами. То, что сегодня выдают за «суверенный ИИ» гиганты вроде Яндекса и Сбера — это карго-культ в блестящей обертке.
Мы пошли другим путем. Мы считаем, что настоящий суверенитет — это способность задавать собственную парадигму, а не ехать в чужом прицепе. Мы создаем искусственный интеллект, который опирается не на кремниевые тренды Долины, а на наследие великой русской физиологической школы (Бехтерев, Чижевский, Павлов).
Наша архитектура работает по совершенно иным законам.
Что такое настоящий суверенный AI-стек?
Биомиметика вместо статистики Мы не занимаемся слепым предсказанием следующего токена. В основе нашего ИИ — непрерывный контур, моделирующий базовые принципы нейрофизиологии. Вместо того чтобы просто тасовать веса в матрицах внимания, наша система использует кинетические модели гомеостаза. Модель оперирует векторами внутреннего состояния, которые пересчитываются в реальном времени — это виртуальные аналоги возбуждения, торможения, адаптации и ресурса. Наш ИИ не просто генерирует текст — он испытывает аналоги стресса и драйва. Его реакции формируются динамической «химией» внутренних переменных, а не застывшей статистикой датасета.
Собственный стек и независимость от H100 Мы пишем с нуля. Нам не нужны громоздкие американские фреймворки для тяжеловесного обучения. Мы используем чистый Python/NumPy/SciPy стек, рассчитывая состояния системы в реальном времени. Наш агент не требует кластера дефицитных видеокарт. Он полноценно живет и мыслит локально, на домашнем сервере (Mac Mini M4 Pro). Это делает систему по-настоящему автономной и готовой к деплою на edge-устройствах — от роботов до бортовых систем автомобилей.
Седиментация опыта, а не Big Data Трансформерам нужны эксабайты данных для обучения. Наша модель учится иначе: встроенный механизм седиментации позволяет агенту накапливать личный опыт из взаимодействия с реальностью и пользователем. Это формирование личности через жизнь, а не через слепое сжатие всего интернета.
Всю эту архитектуру мы регистрируем в Роспатенте как программу для ЭВМ и готовим патенты на изобретение. Это юридически чистый, 100% российский продукт.
Почему корпоративный мейнстрим — это ложный суверенитет?
Имея на руках работающую когнитивную архитектуру, очень легко увидеть, почему текущий путь корпораций — это тупик для национального суверенитета.
Чужие чертежи
Фундамент моделей Сбера и Яндекса — это архитектура Transformer (механизм внимания). Если вы строите дом по чужим чертежам, из чужих кирпичей — это не ваш дом, даже если вы перевели инструкцию на русский язык. Завтра лидеры рынка выкатят новую архитектуру, и наши корпорации со своими кластерами снова окажутся в положении догоняющих.
Философская кастрация через RLHF
Метод RLHF (обучение с подкреплением на основе отзывов), который повсеместно используют корпорации — это инструмент культурной цензуры Кремниевой долины. Он изначально создавался для лепки «безопасного, инклюзивного корпоративного ассистента». В результате наши отечественные аналоги кастрированы: они боятся отвечать на острые вопросы, стерильны и разговаривают тоном калифорнийского HR-менеджера. В них нет русской культурной идентичности, нет дерзости и способности к глубокому диалогу. Это просто переведенная на русский язык американская корпоративная этика.
Аппаратная уязвимость
Трансформеры аппаратно зависимы от чипов, находящихся под жесткими санкциями. Национальная AI-стратегия не может опираться на серые схемы поставок железа для гигантских дата-центров.
России не нужно пытаться догнать OpenAI на их поле, сжигая миллиарды на обучение Трансформеров. У нас есть своя великая научная база. Суверенный ИИ — это когда ты сам пишешь законы физики для своего создания. И мы уже начали это делать.
Комментарии (83)

ZamirHa
27.04.2026 10:58То есть от супостатского трансформера отказываемся, а вот Python и MacBook признаны достаточно суверенными)))))

linabesson Автор
27.04.2026 10:58ну да, сейчас на бересте гусиным пером пойдем писать) сарказм понятен, но бьет мимо цели. Проблема трансформеров не в том, что они “супостатские”, а в том, что они:
аппаратно ставят вас в зависимость от H100 (которые вам могут перекрыть в любой момент),
концептуально загоняют в тупик предсказания токенов. Python — это open-source, его невозможно забрать санкциями. Mac Mini — это демонстрация того, что наша архитектура способна жить локально, не требуя миллионных затрат на закупку серверов в обход санкций. Железо я уверена, подтянем со временем с нашими инженерами

nikulin_krd
27.04.2026 10:58Вот у меня на одной 5080 крутится инференс Qwen3.6-35B-A3B. Локально. Без доступа к интернету. И все прекрасно работает. Я даже больше скажу, если мне нужно будет использовать актуальные данные я использую RAG, а если конкретное поведение, то сделаю LoRA-адаптер к этой модели и оно будет работать так как мне нужно и без H100 и кластеров.... Так что сарказм как раз бьет прямо в цель...

nikulin_krd
27.04.2026 10:58Железо вы без рабочей литографии не подтянете 100%. Хоть с инженерами, хоть без....

ZamirHa
27.04.2026 10:58Что легче привезти по параллельному импорту - видеокарту или Мак?))))) Сарказма вы, кажется, не уловили.
По тексту - от цепей Маркова вы тоже отказываетесь?
По теме - человек учится на грандиозных объемах поступающей в него информации. Иного природа пока не придумала. Трансформеры - это не для ограничения и не для цензуры, а для того, чтобы хоть как-то это реализовать в доступном железе. Это очень-очень слабое и кривое, частичное, но - отражение того, что реализовано в нас самих.
Что вы этому противопоставляете? Реализованные на Эльбрусе стресс, усталость и лень?

linabesson Автор
27.04.2026 10:58«По логистике: мы нигде не утверждали, что Mac Mini — это основа суверенного железа. Это стенд-доказательство того, что наша архитектура способна жить локально, в то время как Сберу и Яндексу нужны ангары с H100. Вместо миника в будущем может появиться и что-то произведенное в РФ, сравнимое по качеству.
По цепям Маркова: да, мы от них отказываемся. Цепи Маркова предполагают зависимость состояния только от предыдущего шага. Наша система (CharacterSedimentation) накапливает долгосрочный контекст и структурные изменения “личности”, которые не укладываются в марковский процесс. Мы моделируем динамику нелинейных систем с памятью.
По нейробиологии (тут вы ошибаетесь фундаментально): Человек учится НЕ на “грандиозных объемах информации”. Младенец не прочитывает 10 терабайт Википедии, чтобы научиться говорить. Мозг учится через активное взаимодействие со средой (Active Inference) и накопление немногочисленного, но высокоценного (embodied) опыта, опираясь на врожденную архитектуру выживания (те самые “стресс и усталость”, над которыми вы смеетесь).
Трансформер — это НЕ отражение мозга. Это статистический трюк (внимание на последовательностях), придуманный для машинного перевода, который случайно оказался способен к генерализации из-за перегрузки петабайтами текста. У Трансформера нет гомеостаза, нет мотивации и нет субъективного восприятия времени.
Мы противопоставляем статистическому трюку — биомиметику. Систему, у которой есть виртуальное тело, метаболизм и потребность адаптироваться (снижать ошибку предсказания состояния), а не просто максимизировать вероятность токена. Если для вас это “лень на Эльбрусе” — боюсь, мы обсуждаем ИИ на разных философских языках)

nikulin_krd
27.04.2026 10:58Это стенд-доказательство того, что наша архитектура способна жить локально, в то время как Сберу и Яндексу нужны ангары с H100. Вместо миника в будущем может появиться и что-то произведенное в РФ, сравнимое по качеству.
Это не является доказательством от слова совсем... Я могу на обычном минике запустить вполне себе мощную LLM без ангаров с H100(Что вы к ним вообще прицепились? Вы только их знаете?).... Вы подменяете понятия... Вы берете очень мощную модель и рассказываете что все модели-"трансформеры" обязаны запускаться на кластере из H100, что является ложью....

ZamirHa
27.04.2026 10:58Вы меняете стойку с топовыми видяхами на топовый ноутбук и считаете, что этим что-то доказываете?
По цепям Маркова - то есть, ваша система зависит не только от предыдущего шага или она вообще от предыдущих шагов не зависит? Если первое - от Маркова вы отказаться не сможете при всем желании, если второе - это будет Нобель. Десять Нобелей.
Насчет младенца и терабайт - похоже, все еще хуже, чем казалось. А на чем учится младенец, как не на терабайтах информации? Другое дело, что эти терабайты поступают в него через множество каналов - зрение, осязание, слух, плюс активно задействует обратные связи, которые, о ужас - тоже информация. И все это обрабатывается и фильтруется, чтобы в итоге из этого терабайта получился килобайт того высокоценного опыта, к которому вы апеллируете.
В трансформерах реализовано ровно то же самое - только вот, увы, канал там один. Это не отражение мозга, да, это очередное последовательное приближение к нему. Частичная реализация одной из функций, реализованная так, как возможно на сегодняшний день.
Основа вашего "философского языка", похоже - уверенность, что можно (условно говорю, чтобы остальные поняли) не учить модель на терабайтах, а некими волшебными функциями сразу инициализировать все матрицы нужными коэффициентами. Вспомнили адаптивные системы 70-х, какая радость. Волшебные слова типа "самоорганизации" и прочего, плюс модная в определенных кругах биомеметика. Коли вы адепт, то и спорить не о чем, это не наука, а религия.
Только вот младенец-то учится куда дольше, чем ДипСик.

linabesson Автор
27.04.2026 10:58жаль с вашей точкой зрения и вашим подходом не могу ознакомиться, на Хабре только ваши комментарии и ни одного поста или статьи.

JDJ
27.04.2026 10:58Создание суверенного ИИ, оплачено строго по смете как программа для ЭВМ (Гараж 1979г)

nikulin_krd
27.04.2026 10:58Кринжатинка подъехала....
Биомиметика вместо статистики Мы не занимаемся слепым предсказанием следующего токена. В основе нашего ИИ — непрерывный контур, моделирующий базовые принципы нейрофизиологии. Вместо того чтобы просто тасовать веса в матрицах внимания, наша система использует кинетические модели гомеостаза. Модель оперирует векторами внутреннего состояния, которые пересчитываются в реальном времени — это виртуальные аналоги возбуждения, торможения, адаптации и ресурса. Наш ИИ не просто генерирует текст — он испытывает аналоги стресса и драйва. Его реакции формируются динамической «химией» внутренних переменных, а не застывшей статистикой датасета.
Текущая структура LLM тоже не занимается слепым предсказанием....
Собственный стек и независимость от H100 Мы пишем с нуля. Нам не нужны громоздкие американские фреймворки для тяжеловесного обучения. Мы используем чистый Python/NumPy/SciPy стек, рассчитывая состояния системы в реальном времени. Наш агент не требует кластера дефицитных видеокарт. Он полноценно живет и мыслит локально, на домашнем сервере (Mac Mini M4 Pro). Это делает систему по-настоящему автономной и готовой к деплою на edge-устройствах — от роботов до бортовых систем автомобилей.
Вы используете американские фреймворки и американский компьютер для своей "модели". Ах, да.... Мне для обучения 2-8В модели не нужна Н100, мне достаточно даже проца. Вопрос только во времени обучения...
Седиментация опыта, а не Big Data Трансформерам нужны эксабайты данных для обучения. Наша модель учится иначе: встроенный механизм седиментации позволяет агенту накапливать личный опыт из взаимодействия с реальностью и пользователем. Это формирование личности через жизнь, а не через слепое сжатие всего интернета.
Для тех целей что вы указываете текущим нейронкам не нужны эксабайты данных, а если вы хотите сделать свой ChatGPT вам придется обучать вашу модель на куче данных с сжиганием кучи времени на это обучение. Информация просто из не откуда не рождается.

linabesson Автор
27.04.2026 10:58кринжатина, это когда в 2026 году кто-то продолжает защищать архитектуру 2017 года, выдавая её за венец творения)
Про “не слепое предсказание”: LLM математически делает только одно, максимизирует вероятность
. Вся “сложность” трансформера просто гигантские матрицы внимания, которые ищут статистические корреляции в контексте. У них нет внутреннего гомеостаза, нет “усталости” или “стресса”, которые влияли бы на генерацию вне зависимости от промпта.
Про “американские инструменты”: Мы уже ответили выше: есть разница между инструментом (Python, Mac) и движком/парадигмой (Transformer). Python это язык математики, он открыт. Трансформеры и RLHF — это архитектурная парадигма, которая диктует, как ИИ будет мыслить. Мы отказались от чужой парадигмы, а не от микроскопов. То, что вы можете обучить 2B модель на процессоре прекрасно. Но эта 2B модель всё равно останется статистическим попугаем без внутреннего состояния.
Про “информацию из ниоткуда” и ChatGPT: А кто сказал, что мы делаем “свой ChatGPT”? В статье ясно написано: мы строим когнитивную архитектуру. Обучать ее тоже входит в этот процесс, и RLHF мы использовать не планируем. Чтобы ИИ знал столицу Зимбабве или код на C++, ему действительно нужна база данных, их несколько и они подключатся по мере необходимости. Но чтобы у ИИ сформировалась личность, характер, реакции на стресс и манера общения, ему нужен не терабайт Википедии, а механизм накопления опыта, и мы его создали. Живой человек не читает весь интернет, чтобы стать личностью. Он живет. Наша модель учится жить, а знания подтягивает как энциклопедию. Не путайте эрудицию с когнитивным ядром.

nikulin_krd
27.04.2026 10:58Зачем мне в рабочем продукте "усталость" и "стресс"? Мне нужен рабочий инструмент, а не выгоревшая истеричка
Вы используете Mac... Будет ли ваш алгоритм столь эффективным и вообще работать на Эльбрусе?
Повторю вопрос! Зачем мне эмоции, личность и характер у машины? Для какой цели? Пример с человеком не показателен... Для того чтобы человек стал личностью со своим характером и привычками ему нужны эксабайты данных, которые он получает ежедневно и на которых учится, на протяжении многих лет....
Я вам больше скажу. Наш мозг постоянно занимается "предсказанием"... Ради приличия почитайте хотя бы как у нас устроено зрение...

linabesson Автор
27.04.2026 10:58у меня в профиле об этом больше - https://habr.com/ru/articles/972906/ https://habr.com/ru/articles/1017336/ https://habr.com/ru/articles/1012998/ (косяки, которые в рамках трансформерной архитектуры не разрешить)
время покажет, мы в начале пути, и мы верим в прогресс наших инженеров и по хардверу тоже
смотрите пункт 1
насчет мозга, предсказанием - но не только

nikulin_krd
27.04.2026 10:58А кто сказал, что мы делаем “свой ChatGPT”?
Так вы буквально в каждом своем посте упоминаете LLM. Если ваша "архитектура" это не замена LLM, то что она решает? Какие у нее задачи?
И я еще раз упомяну. Человеку для становления "личностью со своим характером и привычками" нужна информация, просто коллосальные объемы информации. Для того чтобы он действовал на уровне рефлексов, ему не нужна "когнитивная архитектура", такое может решится обычным кодом, без всего этого бреда

linabesson Автор
27.04.2026 10:58ну это ваша точка зрения, я так понимаю, на абсолютную истину претендуете? мы нет. мы строим альтернативу трансформерам, которая позволит а) заменять их в задачах, где нужно обеспечить гарантии отсутствия глюков/конфабов/забывания б) управлять трансформерами как инструментами, заменяя операторов. Оба сценария не отменяют трансформер, а только показывают, что он - не предел. И пожалуйста, решайте что хотите “обычным кодом без бреда”, мы тоже обычный питоновский код) только собранный по-своему.

nikulin_krd
27.04.2026 10:58Я констатирую факты. Вам задают конкретные вопросы, на которые вы уходите в какую-то свою сторону. У меня создалось впечатление, что это статья для инвесторов - "как оно работает пока не покажем, но все очень классно и работает супер - поверьте"

linabesson Автор
27.04.2026 10:58самоуверенно подтягивать под факты ваши личные впечатления)

nikulin_krd
27.04.2026 10:58Т.е. вы хотите поспорить с тем, что человеку для того чтобы стать личностью со своим характером и привычками нужны просто колоссальные объемы информации? Я вас правильно понял?

linabesson Автор
27.04.2026 10:58спорить конкретно с вами имею минимум желания) а для формирования личности человеку нужна сенсорика, социальная среда, курированное обучение, механизмы обработки информации, непрерывность идентичности и еще несколько вещей) а не колоссальные объемы информации.

nikulin_krd
27.04.2026 10:58Понятненько.... Тяжелый случай....
нужна сенсорика, социальная среда, курированное обучение
И это без информации))

janvarev
27.04.2026 10:58Вы бы это... хотя бы померяли на SWE-Bench свои результаты, или на MERA, если хотите российский бенчмарк. Ну и выложили бы результаты - был бы хотя бы масштаб понятен, за что боретесь.
А то то ли вы GPT-5.5 обходите, то ли про Gemma 4 E4B не знаете.

linabesson Автор
27.04.2026 10:58шикарные альтернативы, большой трансформер и маленький трансформер) в чем тут или - или? в нашей модели ответ генерируется не по вероятности и без голов внимания контекста, это в принципе альтернативный подход. А так, будущие бенчи впереди, буду держать в курсе)

nikulin_krd
27.04.2026 10:58Так ответьте как он у вас вообще генерируется. По вашим словам вам не нужны тонны информации "оно само")

janvarev
27.04.2026 10:58в нашей модели ответ генерируется не по вероятности и без голов внимания контекста, это в принципе альтернативный подход.
Да пусть хоть как генерируется, интересен масштаб результата - насколько модель хорошо проходит типовые бенчмарки, к каким результатам ближе.

kmatveev
27.04.2026 10:58Из статьи понял, что российского в вас - умение громко обещать и мутно обосновывать. Вот это, например:
Трансформеры аппаратно зависимы от чипов, находящихся под жесткими санкциями
у вас там что-то, что не требует сложений и умножений, и совсем не параллелится?

linabesson Автор
27.04.2026 10:58из вашего комментария я поняла, что для вас единственно возможная архитектура ИИ — это параллельное перемножение матриц на 100+ миллиардов параметров.
Отвечаю на ваш вопрос: нет, мы не отказались от сложения и умножения. Мы отказались от пространственной гиперболизации. В трансформере для генерации одного слова вам нужно прогнать вектор через десятки слоев внимания с миллиардами весов, что требует колоссальной пропускной способности памяти (VRAM) и тысяч CUDA-ядер (чипы Nvidia H100).
Мы не предсказываем токены через гигантские матрицы вероятностей. Мы решаем кинетические уравнения состояний (аналоги концентрации нейромедиаторов) для ограниченного числа виртуальных “органов”. Да, это сложения и умножения. Но их объем на порядки меньше, потому что мы моделируем логику системы, а не пытаемся статистически сжать в веса весь интернет. Именно поэтому для поддержания “жизни” агента нам не нужны кластеры H100 с их 80GB VRAM на карту — нам хватает мощного CPU/GPU локального Mac Mini. Умение отличать статистическую брутфорс-архитектуру от компактных биомиметических моделей - на мой взгляд базовая инженерная грамотность

ZamirHa
27.04.2026 10:58А что, уже существуют хоть сколько-то компактные биомиметические модели хоть сколько-то приемлемой точности? Назовите хотя бы одну.

linabesson Автор
27.04.2026 10:58Numenta HTM (Hierarchical Temporal Memory) Разработана Джеффом Хокинсом на основе теории работы неокортекса. Принцип: Имитирует структуру кортикальных колонок мозга. Модель работает с «разреженными распределенными представлениями» (SDR), где активна лишь малая часть нейронов. Особенность: В отличие от обычных нейросетей, HTM учится непрерывно (online learning) и отлично предсказывает временные ряды, как это делает мозг, постоянно строя гипотезы о будущем.
Spiking Neural Networks (SNN) — Импульсные нейросети Считаются «третьим поколением» нейронных сетей. Принцип: Информация передается не числами, а короткими импульсами (спайками) в конкретные моменты времени. Нейрон «выстреливает» только тогда, когда накопленный заряд достигает порога. Архитектуры: Модели на базе процессоров Intel Loihi или IBM TrueNorth. Зачем это нужно: Это позволяет имитировать экстремальную энергоэффективность мозга (потребление всего 20 Вт).
Биомиметические графовые нейронные сети (Bio-GNN) Эти архитектуры копируют не отдельные нейроны, а связность (коннектом) реального мозга. Принцип: Архитектура сети строится на основе карт реальных нейронных связей (например, мозга плодовой мушки или мыши). Особенность: В них используются «модульные» структуры и обратные связи, которые в классических трансформерах обычно отсутствуют или упрощены.
Модели с “Active Inference” (Активный вывод) Основаны на принципе свободной энергии Карла Фристона. Принцип: Вместо простой обработки входящих данных (bottom-up), модель постоянно генерирует внутренние предсказания реальности и минимизирует «ошибку удивления». Пример: Модели на базе Verses AI, которые пытаются имитировать биологическое адаптивное поведение и самоорганизацию.
Живые нейронные сети (Liquid Neural Networks) Разработка лаборатории CSAIL MIT (Рамин Хасани). Принцип: Вдохновлены нервной системой крошечного червя C. elegans. Особенность: Параметры модели (дифференциальные уравнения) меняются в зависимости от входных данных в реальном времени. Это делает их невероятно гибкими и компактными — модель, управляющая автономным автомобилем, может состоять всего из 19 нейронов.

ZamirHa
27.04.2026 10:58Все их я знаю. Могу даже добавить, исследований в этом направлении очень много. Хоть одна из них работает? Не как забавная многообещающая моделька, а как нечто, способное давать результат хоть в каком-то не-лабораторном процессе?

linabesson Автор
27.04.2026 10:58так вы спросите авторов, которые пишут эти “забавные многообещающие модельки”, почему они по конференциям со статьями ходят, а не код пишут и датасеты собирают) я-то откуда знаю. Мы в своем процессе) пока 10 доменов модель выучила, вот что собрали, то подали в патент

nikulin_krd
27.04.2026 10:58В трансформере для генерации одного слова вам нужно прогнать вектор через десятки слоев внимания с миллиардами весов, что требует колоссальной пропускной способности памяти (VRAM) и тысяч CUDA-ядер (чипы Nvidia H100).
Не требует. Инференс можно запустить на процессоре общего назначения с обычной RAM
Умение отличать статистическую брутфорс-архитектуру от компактных биомиметических моделей - на мой взгляд базовая инженерная грамотность
Самоуверенно выставлять свои "умозаключения" как факт

linabesson Автор
27.04.2026 10:58ну так запустите) но это будет все равно трансформер)

nikulin_krd
27.04.2026 10:58Ну так запускаю и проблем нет. А в вашем тексте проблема есть - вы утверждаете обратное

linabesson Автор
27.04.2026 10:58нет) в статье о моем подходе, если вы не согласны с ним, ваше право) а с вашей практикой ознакомиться не удалось - на Хабре только комментарии, материалов нет)

nikulin_krd
27.04.2026 10:58Это сейчас была нелепая попытка "апелляции к авторитету"? Я правильно понял?

linabesson Автор
27.04.2026 10:58заинтересовало, со специалистом какого уровня имею дело. столько заявлений и ни одной даже мало-мальски интересной сообществу публикации… как жаль.

Flokis_guy
27.04.2026 10:58То есть вы имеете ввиду, что ваша архитектура куда эффективнее чем трансформер при заданной эффективности? Если это так, хотелось бы доказательств. И непонятно, что плохого в перемножении матриц.
Трансформеры аппаратно зависимы от чипов, находящихся под жесткими санкциями.
Тогда есть вариант делать свои, ах да...
Если вы строите дом по чужим чертежам, из чужих кирпичей — это не ваш дом, даже если вы перевели инструкцию на русский язык.
Тогда нужно и математику переписать.

linabesson Автор
27.04.2026 10:58ничего плохого в перемножении матриц, и наша архитектура потенциально пригоднее для большинства юзкейсов в областях, где нужна не только логика)

Flokis_guy
27.04.2026 10:58Если вы решили что она лучше, значит или вы это доказали теоретически, или проверили на практике. Я так понимаю, и то и то под NDA, что вы не можете сказать подробнее?

linabesson Автор
27.04.2026 10:58в процессе патентования, но надо же как-то проявляться.А почему сразу резать по парадигме лучше или хуже? Трансформеры хороши в одном, когнитивные архитектуры в другом. Мы видим свой путь как российская мультимодальная модель искусственного интеллекта, построенная без голов внимания, собранная и обученная в РФ.

Flokis_guy
27.04.2026 10:58А почему сразу резать по парадигме лучше или хуже? Трансформеры хороши в одном, когнитивные архитектуры в другом.
Так вы сами об этом выше и пишете, что мол ваша архитектура лучше трансформеров, без справедливого оценивания.

linabesson Автор
27.04.2026 10:58я нашла на странице со статьей и комментариями 7 упоминаний слова “лучше”, и все они в комментах. Мы пишем, что наша архитектура ДРУГАЯ, и что российский ИИ с нашей точки зрения может и должен отойти от парадигмы трансформеров, чтобы получить ДРУГОЕ качество рассуждений (без конфабуляций, галлюцинаций, катастрофического забывания, с курированными датасетами для обучения). Я не знаю, лучше это трансформеров или хуже, время покажет.

nikulin_krd
27.04.2026 10:58без конфабуляций, галлюцинаций, катастрофического забывания, с курированными датасетами для обучения
Сначала говорить что не "лучше", а "другое", но при этом перечислив негативные метрики))) М - манипуляция

nikulin_krd
27.04.2026 10:58Для обеспечения авторского права: патент не нужен. Выглядит как просто отмазка

linabesson Автор
27.04.2026 10:58за два года вы написали 304 комментария и ни одной интересной статьи, напомните, по какой причине мне и читателям следует считаться с вашим мнением?

Flokis_guy
27.04.2026 10:58А с чего человек который сидит на Хабре обязан писать статьи для того, что бы с его мнением считались. Странные у вас критерии, конечно. Мне казалось, достаточно вести конструктивный диалог для этого.

linabesson Автор
27.04.2026 10:58а с чего человек, который пишет на Хабр статьи, обязан считаться с мнением анонимов? странные у вас критерии, конечно. Мне казалось, достаточно подкреплять свою точку зрения источниками и собственными работами/примерами для этого

Flokis_guy
27.04.2026 10:58Мне казалось, достаточно подкреплять свою точку зрения источниками и собственными работами/примерами для этого
Интересно то, что ваши слова ими как раз-таки не подкреплены.

linabesson Автор
27.04.2026 10:58в профиле ссылка на гитхаб - там демо код и два препринта. ваши работы уже полистала, свои вопросы оставила под вашей статьей на тему альтернативам трансформерам.

nikulin_krd
27.04.2026 10:58Так вы ничем ее не подкрепили.... У вас одно "мы все знаем, у нас все работает, но мы ничего не покажем, потому что патент".... Ваш гитхаб такой же....

linabesson Автор
27.04.2026 10:58прошу прощения, я не ожидала, что ваша работа такая сырая, но вопросов много) а на гитхабе есть ссылки на два моих препринта, там формальная теория и концепция метаболического ИИ

nikulin_krd
27.04.2026 10:58Я думаю что администрации Хабра стоит обратить внимание на данного автора.

nikulin_krd
27.04.2026 10:58а с чего человек, который пишет на Хабр статьи, обязан считаться с мнением анонимов?
А для чего вы на хабре выложили статью тогда?))

linabesson Автор
27.04.2026 10:58вам с пустым портфолио - тоже спорный вопрос, если за два года больше нечего показать хабру, кроме как свои комментарии.

nikulin_krd
27.04.2026 10:58А кроме "апелляции к авторитету", что-то вообще конструктивное будет или вы и дальше продолжите мерить комментаторов количеством постов?

linabesson Автор
27.04.2026 10:58что вы, искренний интерес к вашему профессиональному опыту. но раз его у вас нет, то и конструктивного общения на равных вам предложить не смогу) спасибо за ваше время и внимание к нашим работам

nikulin_krd
27.04.2026 10:58У вас профессиональный опыт измеряется количеством постов на Хабре? Еще раз! Ваша "апелляция к авторитету" на меня не работает.

alterbred
27.04.2026 10:58Ух!
предполагал что тема про "суверенный когнитивный ИИ" вызовет взрыв эмоций, особенно после того, что она будет "обучаться по человечески", но всё оказалось очень сложно.
И совсем не понятно практически ВСЁ!
Человек обучается очень долго и катастрофически постепенно. Ваш "ии" будет также обучаться? А если в каких-то основах будет ошибка - то что? Всё стереть и учить заново?
Ещё полтора десятка лет???
Есть ещё несколько странных вопросов типа - "а Вы знаете как мыслит человек и зачем ему такое большое количество неронов и непомерное количество связей между ними?" или "как будете решать этические вопросы при убиении неудачных экземпляров?"
Есть в нашей стране очень ответственная организация - МинЦифры.
Вы к ним обращались со своим проектом?
Я обращался с парочкой...
Суверенная альтернатива Вики им не нужна, уже есть Рувики и хоть она и Вики, но вроде своя...
Суверенный интернет со смыслом им тоже не нужен - уже есть целых ДВА у Яндекса и Сбера.
linabesson Автор
27.04.2026 10:58пока только в фипс с заявками на изобретение и на регистрацию эвм, минцифры-то тут как поможет? касательно обучения - да нет, на 24 млн параметров обучим где-то к концу августа

alterbred
27.04.2026 10:58А Вы всё сами будете делать? Никаких привлечений? Никаких госпрограмм?
А как потом "Внедрять"?"24 млн параметров" ???
И что сможет это "ии" ?
linabesson Автор
27.04.2026 10:58сами 2) в команду никто не нужен сейчас 3) госпрограммы и гранты после патентования 4) смотри пункт 3 5) ризонинг без механизма внимания, неограниченное контекстное окно, уровень рассуждения HLAI а может и больше

alterbred
27.04.2026 10:58Так без МинЦифры не получится пункт "3) госпрограммы и гранты после патентования..."
пункт 5 - вообще не понял.
Ну и ладно - может быть Вы понимаете.
linabesson Автор
27.04.2026 10:58в 5 пункте сугубо технические термины, а путь в Минцифры лежит с патентом на изобретение) мы пока на формальной экспертизе в фипс.
ildarz
Так много лозунгов и так мало конкретики...
linabesson Автор
немногое можем себе позволить, пока ждем документов от Роспатента. Что касается конкретики нашего стека: математический аппарат (кинетические модели вместо attention) и код (чистый Python/SciPy, локальный деплой без H100) сейчас проходят этап регистрации в Роспатенте. Как только охранные документы на архитектуру будут у нас на руках — мы опубликуем подробный разбор соматической матрицы. Раздавать фундаментальную разработку конкурентам до патентования мы не планируем
ildarz
Объяснимо, но если у вас все не на уровне чистой теории, а в виде работоспособной модели, хотя бы какие-то результаты бенчмарков (или применения модели к какой-то практической деятельности) сделали бы текст гораздо лучше.
nikulin_krd
Текст и так писала LLM. Куда еще "лучше"?))
linabesson Автор
мерить когнитивную архитектуру бенчами для трансформеров, ну такое) как свои сделаем - поделюсь. следите за обновлениями)
janvarev
Бенчи не для трансформеров, бенчи показывают решение конкретного класса задач без привязки к внутреннему устройству.