Год в OpenAI — рассказ разработчика, недавно уволившегося из компании. В статье о культуре компании (снизу вверх, отсутствие планов и общение только в Slack), на чём держится их техстек (Azure, monorepo, Python) и как создавался Codex агент кодирования OpenAI (8 инженеров за 7 недель, релизы до 4 утра). Много интересных подробностей и историй.

Я ушёл из OpenAI три недели назад, проработав там с мая 2024 года. Хочу поделиться впечатлениями, потому что вокруг OpenAI много шума и домыслов, но мало рассказов от тех, кто там реально работал.

Reflections on OpenAI - AI4Dev
Reflections on OpenAI — AI4Dev

Дисклеймер

Мне очень нравится пост Набила Куреши «Reflections on Palantir», где он анализирует, чем была уникальна Palantir. Я хочу сделать то же самое для OpenAI, пока всё свежо в памяти. Здесь не будет никаких секретов только личные наблюдения о нынешней версии одной из самых интересных организаций в истории, причём в чрезвычайно интересное время.

Для ясности: я ушёл без какой‑либо личной драмы — скорее, с трудом и сомнениями. Тяжело перейти от роли основателя собственного проекта к сотруднику организации из 3000 человек. Сейчас мне хочется чего‑то нового. Вполне возможно, что я вернусь заниматься такими интересными вещами. Трудно представить более важную задачу, чем создание AGI, а большие языковые модели — это очевидно главное технологическое достижение десятилетия. Я счастлив, что смог увидеть некоторые разработки изнутри и даже поучаствовать в запуске Codex.

Очевидно, что мои впечатления это не официальное мнение компании, а просто личный взгляд. OpenAI огромна, и это всего лишь моя небольшая перспектива.

Эту статью мы перевели для нашего Telegram‑канала AI4Dev. Там уже почти четыре тысячи разработчиков и аналитиков, использующих ИИ в программировании. Обзоры, кейсы, обсуждения - следите за передовым опытом и находите идеи для своих задач.

Культура

Первое, что важно понимать об OpenAI — она растёт невероятно быстро. Когда я присоединился, там было чуть больше 1000 сотрудников. Спустя год их уже больше 3000, и я оказался в 30% самых «старых» сотрудников. Почти вся верхушка менеджмента сегодня занимается совсем не тем, чем 2–3 года назад.

Естественно, при такой скорости роста всё начинает ломаться: коммуникации, структуры, процессы разработки, управление и найм людей. Культура сильно зависит от команды: одни бегут в постоянном спринте, другие спокойно контролируют долгосрочные проекты. Единого опыта работы в OpenAI не существует.

Необычно, что ВСЯ коммуникация в компании идёт через Slack. Почты практически нет, за всё время получил около 10 писем. Без грамотной настройки уведомлений можно легко сойти с ума.

Культура OpenAI построена максимально «снизу вверх», особенно в исследованиях. Когда я только пришёл, спросил про планы на квартал и услышал: «Плана нет» (теперь они есть). Хорошие идеи могут прийти откуда угодно, заранее не всегда ясно, какие из них выстрелят. Прогресс достигается итеративно, по мере появления результатов исследований. Благодаря такой культуре, сотрудники продвигаются за хорошие идеи и их реализацию, даже если они слабоваты в презентациях и политических манёврах.

В OpenAI сильнейший упор на действия («bias to action»). Нередко разные команды собирались вокруг общих идей. На старте я работал над проектом похожим на ChatGPT Connectors, но параллельным внутренним. Существовало 3–4 различных прототипов Codex, прежде чем мы решили запустить его. Обычно за такие проекты берётся небольшая группа, не спрашивая разрешения. Как только они показывают хорошие результаты, вокруг них быстро формируются команды.

Андрей (руководитель Codex) говорил, что исследователей следует воспринимать как «мини‑CEO» — тенденция работать над интересующей тебя проблемой и смотреть, что из этого получится. Если что‑то считается скучным или «решённым», над этим, скорее всего, работать не будут. Менеджеры по исследованиям невероятно важны и в то же время редки. Лучшие из них способны связать воедино разные исследования для создания большой модели, то же самое касается ПМов.

EMы ChatGPT, с которыми я работал (Акшай, Риззо, Сулман) были одними из самых классных заказчиков, которых я когда‑либо видел. Чувствовалось, что они к этому времени видели все³. Большинство из них были относительно не вмешивающимися, но нанимали хороших людей и старались убедиться, что те настроены на успех.

OpenAI легко меняет направление. Лучше делать нужные вещи, как только получаешь новую информацию, чем держаться курса просто потому, что у вас уже был план. В отличие от гигантов типа Google, решения принимаются быстро и меняются при получении новой информации.

За компанией постоянно пристально следят, придя из B2B сегмента для меня это было немного шоком. Я постоянно натыкался на новости которые появлялись в прессе раньше, чем внутри компании. Я говорил людям, что работаю в OpenAI, и встречал заранее сформированное мнение о компании. Пользователи Twitter запускают ботов, которые проверяют, не готовятся ли к запуску новые фичи.

Как результат — OpenAI весьма секретна: я не мог обсуждать детали своей работы, существуют различные уровни доступа в Slack, еще более секретна информация о выручке и затратах.

OpenAI гораздо более серьезное место, чем можно было бы ожидать, ставки действительно высоки. С одной стороны, стоит цель создания AGI а это значит, что нужно сделать всё правильно. С другой стороны, вы создаёте продукт, которым пользуются сотни миллионов людей от получения медицинских советов до психологической поддержки. И с третьей стороны компания соревнуется на самой большой арене в мире. Мы внимательно следили за тем, что делают Meta, Google и Anthropic и уверен, они делали то же самое. Все крупнейшие правительства мира внимательно наблюдают за этой сферой.

Как бы часто OpenAI ни критиковали в прессе, все люди, которых я там встречал, на самом деле стараются делать правильные вещи. Поскольку компания ориентирована на массового пользователя, она является самой заметной из всех крупных лабораторий а значит, и больше всего слухов и нападок направлено именно на неё.

При этом, вероятно, не стоит рассматривать OpenAI как единый монолит. Я думаю об OpenAI как об организации, которая начиналась подобно Лос‑Аламосу. Это была группа ученых и инженеров, исследующих передний край науки. Эта группа случайно породила самое вирусное потребительское приложение в истории. А затем у компании появились амбиции продавать приложения правительствам и предприятиям. Соответственно люди разного стажа из разных частей организации имеют очень разные цели и точки зрения. Чем дольше вы проработали, тем больше вы, смотрите на вещи через призму «исследовательской лаборатории» или «некоммерческой организации, работающей на благо».

Самое ценное для меня, компания действительно делает передовые модели доступными каждому, а не прячет их за дорогими корпоративными подписками. Любой может зайти в ChatGPT и получить ответ бесплатно даже без регистрации. Есть API и большинство моделей (даже если они SOTA или проприетарные), как правило, быстро попадают в API для использования стартапами. Все это совершенно не обязательно должно было работать именно так. OpenAI заслуживает огромной благодарности за это, и это по‑прежнему является основой ДНК компании.

На самом деле, тема безопасности гораздо значимее, чем может показаться, если вы читаете много материалов от Zvi или на LessWrong. Есть большое количество людей, работающих над созданием систем безопасности. Учитывая специфику OpenAI, я видел больший фокус на практических рисках (таких как разжигание ненависти, злоупотребления, манипуляции политическими взглядами, создание биологического оружия, селфхарм, атаки с помощью prompt injection), чем на теоретических (вроде интеллектуального взрыва или стремления к власти). Это не значит, что никто не занимается теоретическими рисками ‑такие люди точно есть. Но с моей точки зрения, это не является основным направлением. Большая часть работы, которая ведётся, не публикуется, и OpenAI действительно стоило бы делать больше, чтобы рассказать об этом.

В отличие от других компаний, которые раздают мерч на каждом карьерном мероприятии, OpenAI практически не раздаёт сувенирку (даже новым сотрудникам). Вместо этого время от времени происходят так называемые «дропы» ‑когда можно заказать вещи из ограниченного наличия. Первый такой дроп даже обрушил магазин на Shopify из‑за слишком высокого спроса. В компании даже распространялся внутренний пост с инструкциями, как отправлять правильные JSON‑запросы, чтобы обойти систему и оформить заказ.

Почти все затраты кажутся несущественными по сравнению со стоимостью GPU. Чтобы дать представление: одна нишевая функция, созданная в рамках продукта Codex, потребляла столько же GPU‑ресурсов, сколько вся наша инфраструктура Segment (платформа для сбора данных о пользователях), которая, конечно, не сопоставима по масштабу с ChatGPT, но всё же обслуживала приличную долю интернет‑трафика.

OpenAI, самая пугающе амбициозная организация из всех, что я видел. Можно было бы успокоиться на одном из самых популярных приложений в мире, но у компании есть стремление конкурировать сразу в десятках направлений: API‑продукт, фундаментальные исследования, разработка аппаратного обеспечения, агенты для программирования, генерация изображений и ещё несколько направлений, о которых пока не объявлено. Это действительно благодатная среда для того, чтобы брать идеи и быстро превращать их в реальные проекты.

В компании уделяют большое внимание Twitter. Если вы напишете что‑то связанное с OpenAI, и это наберёт популярность, велика вероятность, что кто‑то внутри компании это увидит и задумается. Один мой знакомый пошутил: «эта компания работает на вайбах из Твиттера». И, возможно, для потребительской компании это действительно недалеко от правды. Конечно, внутри есть и аналитика — отслеживают использование, рост аудитории, удержание пользователей, но общее настроение в соцсетях считается не менее важным.

Команды в OpenAI гораздо более гибкие, чем в большинстве других компаний. Когда мы готовили запуск Codex, нам понадобилась помощь нескольких опытных инженеров из команды ChatGPT, чтобы успеть к дедлайну. Мы встретились с менеджерами ChatGPT, чтобы обсудить запрос. Уже на следующий день к нам присоединились двое крутых специалистов, готовых сразу включиться в работу. Не было никакого «ждём квартального планирования» или «перераспределяем штат». Всё произошло очень быстро. Руководители OpenAI всегда на связи и активно вовлечены в работу.

Руководство компании активно вовлечено в работу. Это может показаться очевидным для такой компании, как OpenAI, но каждый из топ‑менеджеров действительно в теме. В Slack регулярно можно увидеть комментарии от gdb, sama, kw, Марка, Дейна и других.

Код

OpenAI использует огромный монорепозиторий, в котором в основном пишут на Python (хотя постепенно добавляются сервисы на Rust и немного кода на Golang в основном для сетевых прокси). В результате код выглядит довольно пёстро: ведь на Python можно писать самыми разными способами. В одном и том же проекте можно встретить и библиотеки, написанные с расчётом на масштабирование инженерами с десятилетним опытом из Google, и быстрые ноутбуки Jupyter от вчерашних PhD. Практически все API строятся вокруг FastAPI, а для валидации данных используется Pydantic. Но каких‑то строго обязательных гайдлайнов по стилю кода в компании нет.

OpenAI полностью работает на Azure. Забавно, что из всех сервисов реально надёжными я бы назвал только три: Azure Kubernetes Service, CosmosDB (документное хранилище Azure) и BlobStore. В Azure нет настоящих аналогов таких сервисов, как Dynamo, Spanner, Bigtable, BigQuery, Kinesis или Aurora. Здесь реже думают в терминах авто‑масштабируемых блоков, а реализация IAM гораздо проще и ограниченнее, чем в AWS. В результате в OpenAI есть явное предпочтение разрабатывать инфраструктуру своими силами.

Что касается персонала (по крайней мере в инженерных командах), заметен выраженный поток специалистов из Meta в OpenAI. Во многом OpenAI сейчас напоминает раннюю Meta: суперпопулярное потребительское приложение, ещё только формирующаяся инфраструктура и сильное стремление двигаться быстро. Большинство инженеров по инфраструктуре, которых я видел в OpenAI, пришли из Meta и Instagram и это действительно сильные специалисты.

Всё это вместе создаёт инфраструктуру OpenAI, которая во многом напоминает Meta. Например, внутри компании была разработана собственная версия TAO (графовой базы данных, использовавшейся в Meta). Также велась работа по унификации систем аутентификации и идентификации на уровне edge (на границе внутренней сети). Уверен, есть и другие аналогичные проекты, о которых я просто не знаю.

«Чат» — это действительно фундаментальная вещь. После взлёта ChatGPT большая часть кода построена вокруг концепций сообщений и диалогов. Эти примитивы настолько глубоко встроены в систему, что игнорировать их себе дороже. В Codex мы немного отошли от этой модели, опираясь скорее на опыт работы с responses API, но в любом случае активно использовали наработки из основной кодовой базы.

В компании действует принцип «Code wins» решения принимаются не централизованно архитекторами или комитетами, а теми командами, которые собираются выполнять работу. Это создаёт акцент на действие: писать код, а не долго согласовывать архитектуру. Конечно в кодовой базе появляется множество дублирующихся компонентов, я видел с пол дюжины библиотек для работы с очередями или циклами агентов.

В некоторых аспектах быстрое расширение инженерной команды при недостатке внутренних инструментов создало проблемы. Основной бэкенд (sa‑server), который представляет собой монолит, превратился в своего рода «свалку» для кода. CI система падала гораздо чаще, чем можно было бы ожидать на основной ветке. Запуск тестов, даже с учётом параллельного выполнения и оптимизации зависимостей, мог занимать около 30 минут на GPU. Эти проблемы не являлись неразрешимыми, но это хороший напоминание о том, что подобные сложности возникают в любой компании и, скорее всего, будут усугубляться при стремительном росте. Впрочем, внутренние команды понимают это и прилагают усилия к улучшению ситуации.

Другие вещи, которые я понял

Что такой большой известный бренд. До начала работы над Codex я этого не осознавал. Всё измеряется количеством «pro подписок». Даже для такого продукта, как Codex, мы в первую очередь рассматривали онбординг с точки зрения индивидуальных пользователей, а не команд. Это немного сломало мои привычные представления, потому что раньше я работал в основном в B2B и корпоративных проектах. Здесь же — ты просто включаешь продукт, и с первого дня получаешь трафик.

Как обучаются большие модели (в общих чертах). Есть целый спектр активностей от «экспериментов» до «инженерии». Почти все идеи начинаются с небольших экспериментов. Если результаты выглядят многообещающе, их интегрируют в более масштабный запуск. Эксперименты касаются не только тонкой настройки самих алгоритмов, но и подбора обучающих данных со внимательным анализом итогов. Когда начинается крупный запуск, процесс становится похож на работу с гигантской распределённой системой. Возникают странные пограничные ситуации и неожиданные проблемы. И именно вам приходится их отлаживать и устранять.

Как считать нагрузку на GPU. Во время запуска Codex нам нужно было прогнозировать требования к пропускной способности, и это был первый раз, когда я серьёзно занимался бенчмаркингом GPU. Суть в том, что начинать нужно с требований к задержке: общей латентности, количества токенов, времени до первого токена, а не не с анализа возможностей что может выдать GPU. Каждая новая версия модели может радикально изменить характер нагрузки.

Как работать с большой кодовой базой на Python. В Segment у нас была смесь микросервисов, в основном на Golang и Typescript, и кодовой базы такого масштаба, как в OpenAI, у нас не было. Я многому научился о том, как писать масштабируемый код, когда в кодовую базу вносят изменения большое количество разработчиков. Нужно заранее закладывать куда больше ограничений и защитных механизмов: чтобы «работало из коробки», чтобы основная ветка оставалась чистой, и чтобы было сложно использовать что‑то неправильно.

Запуск Codex 

Запуск Codex стал одной из ключевых частей моих последних трёх месяцев в OpenAI и, без сомнения, одним из самых значимых моментов в моей карьере.

Чтобы понять контекст: ещё в ноябре 2024 года в OpenAI поставили цель — запустить кодирующего агента в 2025 году. К февралю 2025 у нас уже было несколько внутренних инструментов, которые эффективно использовали модели для генерации кода. При этом ощущалось давление: рынок быстро наполнялся новыми инструментами для «vibe‑кодинга», и стало очевидно, что модели дошли до точки, где они действительно полезны для программирования. Поэтому запуск специализированного агента для работы с кодом стал приоритетом.

Я вернулся из отпуска по уходу за ребёнком раньше срока, чтобы принять участие в запуске Codex. Спустя неделю после моего возвращения произошла (довольно хаотичная) реорганизация, две команды объединили, и мы начали бешеный спринт. От написания первых строк кода до финального продукта прошло всего 7 недель.

Спринт по запуску Codex, наверное, был самым интенсивным периодом работы за последние почти десять лет. Почти каждую ночь я работал до 11 или полуночи. Просыпался в 5:30 утра чтобы заняться ребенком. В 7 утра снова ехал в офис. Работал почти все выходные. Мы действительно выкладывались как команда, потому что важна была каждая неделя. Это напоминало мне времена работы в Y Combinator.

Трудно переоценить, насколько невероятным был этот темп работы. Я не видел ни одну компанию, ни крупную, ни стартап, которая бы прошла путь от идеи до полноценного, свободно доступного продукта за такой короткий срок. И объём работы был далеко не маленьким: мы разработали container runtime, оптимизировали загрузку репозиториев, дообучили кастомную модель для работы с правками кода, реализовали поддержку всех основных операций с git, создали совершенно новый пользовательский интерфейс, подключили доступ в интернет — и в итоге выпустили продукт, который оказался действительно удобным в использовании.

В OpenAI по‑прежнему жив дух запуска новых продуктов.

Хорошая новость в том, что нужные правильные люди действительно могут творить чудеса. У нас была сильная команда: около 8 инженеров, 4 исследователя, 2 дизайнера, 2 Go‑To‑Market специалиста и продакт‑менеджер. Без этой конкретной команды, думаю, мы бы не справились. Никому не требовалось много указаний, но координация была крайне важна. Если вам когда‑нибудь выпадет шанс работать с кем‑то из команды Codex ‑знайте, каждый из них великолепен.

Накануне запуска пятеро из нас сидели до четырёх утра, пытаясь задеплоить основной монолит — процесс, который занимал несколько часов. А уже в восемь утра мы снова были в офисе для запуска и анонса в прямом эфире. Мы включили флаги и сразу начали наблюдать поток трафика. Никогда раньше я не видел, чтобы продукт получал такой мгновенный прирост пользователей просто из‑за появления в боковом меню — но в этом и заключается сила ChatGPT.

С точки зрения формата продукта мы выбрали полностью асинхронную модель. В отличие от инструментов вроде Cursor (на тот момент, сейчас он тоже поддерживает похожий режим) или Claude Code, мы сделали ставку на то, чтобы пользователь мог запускать задачи и позволять агенту работать в собственной среде. Наша идея была в том, что в идеале пользователи должны воспринимать кодирующего агента как коллегу: отправил ему сообщение — агент получил время на работу и вернулся с pull request.

Это было немного рисковано: мы оказались в ситуации, когда модели уже достаточно хороши, но ещё не отличны. Они способны работать в течение нескольких минут, но пока не часов. Пользователи сильно различаются по уровню доверия к возможностям модели. И сами мы до конца не понимаем, каковы реальные пределы этих возможностей.

В долгосрочной перспективе я действительно верю, что программирование в основном станет похожим на работу с Codex. А пока остаётся интересно наблюдать, как будут разворачиваться события и как все эти продукты будут развиваться.

Codex (возможно, это неудивительно) действительно хорошо справляется с работой в больших кодовых базах и понимает, как в них ориентироваться. Самым заметным отличием от других инструментов, которое я видел, является способность запускать сразу несколько задач параллельно и сравнивать их результаты.

Недавно я увидел опубликованные данные, сравнивающие количество pull request, созданных разными LLM‑агентами. Только по публичной статистике Codex сгенерировал 630 000 PR. Это примерно 78 000 публичных PR на одного инженера за 53 дня с момента запуска (о количестве приватных PR можно только догадываться). Честно говоря, не уверен, что когда‑либо в жизни работал над чем‑то настолько значимым.

Подводя итоги

Если честно, поначалу я с осторожностью относился к идее работать в OpenAI. Я не был уверен, каково это — пожертвовать свободой, получить начальника, стать маленькой частью большой машины. Я особо не афишировал своё присоединение к компании — на случай, если это окажется не моим.

Я хотел получить от этого опыта три вещи:

  • прочувствовать, как обучаются модели и в каком направлении развиваются их возможности;

  • поработать с выдающимися людьми и учиться у них;

  • запустить отличный продукт.

Оглядываясь назад, я думаю, что это было одно из лучших решений в моей жизни. Трудно представить себе место, где я мог бы узнать больше.

Если вы основатель стартапа и чувствуете, что ваш проект никуда не движется, вам стоит либо серьёзно переосмыслить, как еще можно добиться результата, либо пойти работать в одну из крупных лабораторий. Сейчас невероятное время для того, чтобы строить что‑то новое. Но это также уникальный момент, чтобы заглянуть в то, каким будет будущее.

На мой взгляд, сейчас гонка за AGI — это соревнование трёх игроков: OpenAI, Anthropic и Google. Каждая из этих компаний идёт к цели своим путём, в соответствии со своей «ДНК» — потребительский фокус, бизнес‑ориентированность или ставка на надёжную инфраструктуру и данные. Работа в любой из них станет опытом, который действительно откроет глаза.

Спасибо Лие за невероятную поддержку и за то, что взяла на себя основную часть забот о ребёнке в те бесконечно долгие ночи. Спасибо PW, GDB и Риццо за то, что дали мне шанс. Спасибо команде SA за то, что помогли влиться в работу: Эндрю, Анап, Билл, Джереми, Кваз, Минг, Саймон, Тони и Вал. И отдельное спасибо основной команде Codex за то, что подарили мне этот опыт длиною в жизнь: Албин, AE, Андрей, Брайан, Ченнинг, ДэвидK, Гейб, Глэдстоун, Хэнсон, Джоуи, Джош, Кэти, КевинT, Макс, Сабрина, SQ, Тибо, TZ и Уилл. Этот спринт я не забуду никогда.

Комментарии (2)


  1. AndyKy Автор
    23.07.2025 12:00

    https://news.ycombinator.com/item?id=44573195 вот, кстати, еще ветка в форуме где в хвост и в гриву комментируют данную статью - объективность, ругают OpenAI за низкое внимание к безопасности, отсутствие тех писателей, культуру снизу вверх = отсутствие нормального управления и т.д. Это уже для тех кому надо совсем глубоко копать)


  1. MEGA_Nexus
    23.07.2025 12:00

    Что касается персонала (по крайней мере в инженерных командах), заметен выраженный поток специалистов из Meta в OpenAI. Большинство инженеров по инфраструктуре, которых я видел в OpenAI, пришли из Meta и Instagram и это действительно сильные специалисты.

    Сначала OpenAI переманивает персонал из Meta, а потом, когда Цукерберг переманивает специалистов из OpenAI обратно в Meta, то Сэм Альтман говорит, что это несправедливо. Ахахаах. Ох уж этот двуличный Сэм Альтман.