Сэм Альтман: скрытое расследование об обмане и опасных планах OpenAI

Осень 2023 года вошла в историю технологий как одна из самых странных и драматичных глав: внезапное увольнение Сэма Альтмана из OpenAI и его триумфальное возвращение спустя пять дней. Казалось, что об этом событии сказано всё, но свежее расследование The New Yorker доказывает, что мы видели лишь верхушку айсберга, скрывавшую годы внутреннего недоверия и систематического документирования «неправильного» поведения лидера индустрии.

То, что начиналось как корпоративный конфликт вокруг безопасности ИИ, на деле оказалось глубоким кризисом доверия, где коллеги Альтмана годами собирали компромат, готовясь к неизбежному столкновению. В этой статье мы разберем ключевые факты расследования, которые заставляют по-новому взглянуть на создателя самого популярного чат-бота в мире.

Основные выводы

  • Коллеги Альтмана, включая Дарио Амодеи (ныне CEO Anthropic), годами вели секретную документацию о его действиях, объем которой превысил 200 страниц.
  • Сэм Альтман неоднократно обвинялся в манипуляциях и дезинформации членов совета директоров и топ-менеджмента, включая технического директора Миру Мурати.
  • Процесс восстановления Альтмана в должности сопровождался серьезными процедурными нарушениями, включая отсутствие письменного отчета о независимом расследовании.
  • Существовали планы по созданию геополитической «дилеммы заключенного» между США, Китаем и Россией для принудительного финансирования разработки AGI.

Что именно содержалось в 200 страницах досье на Сэма Альтмана?

Самым поразительным аспектом расследования стала глубина недоверия внутри OpenAI еще задолго до кризиса. Дарио Амодеи, бывший вице-президент по исследованиям OpenAI и нынешний глава конкурента Anthropic, вел записи о поведении Альтмана и Грега Брокмана в течение нескольких лет. Эти документы — по сути, хроника разочарования — содержат жесткие оценки, такие как «Сэм несет откровенную чушь» и шокирующий вывод: «Главная проблема OpenAI — это и есть сам Альтман».

Здесь важно понимать контекст: для многих сотрудников Кремниевой долины «культура документирования» является защитным механизмом. Но масштаб, в котором это происходило в OpenAI, беспрецедентен. Илья Суцкевер, главный ученый компании, также собирал кипы служебных записок для совета директоров, фиксируя эпизоды, которые он считал прямой ложью или манипуляцией фактами ради достижения бизнес-целей в ущерб безопасности.

Для тех, кто следит за развитием индустрии и хочет понимать внутреннюю кухню подобных проектов, важно анализировать не только заголовки, но и методологию управления. Подробный разбор того, как строятся технологические компании в условиях экстремального давления, предлагает телеграм-канал «Олег Тестов | Соло-фаундер в найме», где часто рассматриваются кейсы системного управления и психологии фаундеров.

Почему Мира Мурати и совет директоров выражали недовольство?

Расследование The New Yorker проливает свет на отношения Альтмана с Мирой Мурати, техническим директором OpenAI. Несмотря на публичную демонстрацию единства во время кризиса, за закрытыми дверями Мурати выражала серьезные опасения. Она описывала Альтмана как человека, который «слишком помешан на своей уверенности» и ведет себя так, будто «не живет в реальном мире».

Одним из наиболее показательных примеров стала ситуация с релизом GPT-4. Альтман настаивал, что модель не требует глубокого аудита безопасности, утверждая, что главный юрист компании Джейсон Квон уже дал «зеленый свет». Однако, когда информация была проверена, Квон заявил, что никогда не говорил ничего подобного. Это создало опасный прецедент, когда системы безопасности, формально созданные OpenAI, обходились самим же CEO с помощью внутренней дезинформации.

Здесь кроется ключевой конфликт: Альтман продвигал идею «скорости любой ценой», в то время как команда безопасности видела в этом экзистенциальную угрозу. В таблице ниже приведены основные претензии к методам управления Альтмана, упомянутые в расследовании:

Аспект управления Обвинения сотрудников/совета Аргументация Альтмана
Прозрачность Манипуляция информацией, стравливание коллег друг с другом. Необходимость быстрого принятия решений в конкурентной среде.
Безопасность ИИ Игнорирование протоколов безопасности ради маркетинговых релизов. Итеративное обучение (выпуск моделей для сбора данных о рисках в реальности).
Этика финансирования Обсуждение геополитических манипуляций для привлечения триллионов долларов. AGI требует беспрецедентных ресурсов, которые невозможно получить традиционно.

Геополитическая игра: AGI и «дилемма заключенного»

Но что самое невероятное в материале The New Yorker, так это не корпоративные интриги, а масштаб амбиций Альтмана. По словам бывшего сотрудника, в 2023 году Альтман и Брокман обсуждали сценарий, при котором ведущие мировые державы — США, Китай и Россия — будут поставлены в условия «дилеммы заключенного». Идея заключалась в том, чтобы спровоцировать гонку вооружений в сфере ИИ таким образом, чтобы ни одна страна не могла позволить себе отказаться от финансирования AGI, так как отказ стал бы потенциально опасным для национальной безопасности.

И вот тут начинается самое интересное: этот подход демонстрирует, что Альтман видит OpenAI не просто как софтверную компанию, а как геополитического игрока. Подобные стратегии требуют не только технологического гения, но и определенного цинизма. В расширенной версии статьи также упоминаются попытки получения крупных средств от суверенных фондов, что вызывает вопросы о потенциальном влиянии иностранных государств на будущее сверхразума.

Понимание таких глобальных стратегий необходимо любому фаундеру или руководителю сегодня. Если вы хотите глубже погрузиться в вопросы построения устойчивых систем и управления сложными проектами, рекомендую подписаться на ресурс Олега Тестова для соло-фаундеров, где подобные стратегии разбираются с прикладной точки зрения.

Как на самом деле произошло возвращение Сэма Альтмана?

Многие помнят возвращение Альтмана как победу демократии сотрудников (когда 95% подписали письмо об увольнении). Однако расследование ставит под сомнение легитимность последовавшей юридической экспертизы. Согласно закону, совет директоров должен был провести независимую проверку обстоятельств увольнения перед восстановлением CEO.

Вот как это выглядело на практике:

  1. Для курирования проверки были выбраны два члена совета директоров.
  2. Критический нюанс: эти люди были отобраны при непосредственном участии самого Альтмана.
  3. Итог расследования не был оформлен в виде формального письменного отчета. Совет аргументировал это тем, что в нем «нет необходимости».

Фактически, независимый аудит превратился в формальность, которая позволила Альтману не только вернуться, но и полностью переформатировать совет директоров под себя, удалив самых ярых оппонентов — Ташу Макколи и Хелен Тонер.

Часто задаваемые вопросы

Действительно ли Альтман обманывал совет директоров?

Согласно расследованию, несколько топ-менеджеров зафиксировали случаи, когда Альтман предоставлял неполную или искаженную информацию о взглядах других сотрудников, чтобы манипулировать голосованием в совете директоров.

Зачем сотрудники вели дневники о поведении Сэма Альтмана?

Для многих, включая Дарио Амодеи, это был способ защитить себя юридически и профессионально, фиксируя расхождения между публичными заявлениями CEO и его реальными действиями внутри компании.

Правда ли, что Илья Суцкевер ушел из-за этого конфликта?

Хотя Суцкевер изначально был тем, кто уволил Альтмана, он позже выразил сожаление. Однако его окончательный уход из компании спустя полгода после инцидента прямо связывают с невозможностью дальнейшего доверия и разногласиями по вопросам безопасности.

История OpenAI — это не просто сказка о технологическом прорыве. Это суровое напоминание о том, как концентрация власти в одних руках может изменить траекторию развития целой отрасли. Сэм Альтман остается фигурой противоречивой: визионером, способным вести мир за собой, и одновременно политиком, чьи методы заставляют ближайших соратников вести на него досье.

Ключевой урок здесь прост: в мире больших технологий доверять нужно не харизме лидера, а прозрачности систем управления. Чтобы не пропустить важные тренды в развитии ИИ и корпоративного управления, стоит следить за аналитикой экспертов.

Разбирайтесь в системах управления и ИИ вместе с профессионалами

Подписывайтесь на глубокую аналитику рынков и технологий → телеграм-канал «Олег Тестов | Соло-фаундер в найме»

Read more

Хуки Claude Code: секрет автоматизации, который гарантирует результат

Хуки Claude Code: секрет автоматизации, который гарантирует результат

Когда вы работаете с Claude Code, вы быстро понимаете: инструкции в файлах CLAUDE.md или memory-контекстах — это всего лишь вежливые просьбы. В разгаре сложной отладки или масштабного рефакторинга модель может банально «забыть» запустить линтер или проигнорировать установленное правило именования. Это человеческий фактор нейросетевой природы, который может стоить времени и чистоты

Новости ИИ: опасный Claude Mythos и секретные утечки OpenAI

Новости ИИ: опасный Claude Mythos и секретные утечки OpenAI

Рынок искусственного интеллекта за последнюю неделю напоминает захватывающий триллер: здесь и секретные разработки, способные взломать любую защиту, и внезапные лидеры хит-парадов, и существенные изменения в ценовой политике гигантов. Пока одни компании закрывают доступ к своим технологиям из соображений безопасности, другие выпускают мощнейшие инструменты в открытый доступ, меняя баланс сил в

Магазин под управлением ИИ: скрытые риски и реальный успех Luna

Магазин под управлением ИИ: скрытые риски и реальный успех Luna

Представьте, что вы приходите на собеседование в новый стильный магазин в Сан-Франциско, успешно проходите все этапы, получаете оффер и только спустя неделю осознаете: вашим боссом является не человек, а программный код. Это не сюжет нового сезона «Черного зеркала», а реальность 2026 года, где стартап Andon Labs запустил беспрецедентный социальный и

$120K за 24 часа: скрытая стратегия запуска приложения через Lifetime Deal

$120K за 24 часа: скрытая стратегия запуска приложения через Lifetime Deal

Запуск нового IT-продукта часто превращается в бесконечную погоню за подписчиками, где каждый привлеченный клиент обходится дороже, чем он приносит прибыли в первые месяцы. Модель подписки (SaaS) — это стандарт индустрии, но на старте она может стать ловушкой: денег на развитие мало, а риск оттока пользователей велик. Представьте, если бы вы могли