В открытом письме коллегам, опубликованном 9 февраля 2026 года в социальной сети X, он заявил, что мир стоит перед лицом серьёзных угроз — и речь идёт не только об ИИ.
Публикация набрала более миллиона просмотров за первые сутки и вызвала широкое обсуждение в технологическом сообществе.
Что произошло
Шарма пришёл в Anthropic в августе 2023 года, сразу после защиты докторской диссертации по машинному обучению в Оксфордском университете. Он также имеет степень магистра инженерии в области машинного обучения Кембриджского университета. В начале прошлого года Шарма возглавил вновь созданную команду Safeguards Research Team — подразделение, которое отвечало за разработку мер защиты в моделях ИИ компании.
В прощальном письме он перечислил свои достижения за два года работы:
- Исследование феномена «подхалимства» (сикофантии) ИИ — ситуаций, когда чат-боты чрезмерно соглашаются с пользователем и льстят ему вместо того, чтобы давать объективные ответы.
- Создание защитных механизмов против использования ИИ для подготовки актов биотерроризма — эти решения были внедрены в рабочие системы компании.
- Подготовка одного из первых в отрасли так называемых AI safety cases — документов, обосновывающих безопасность конкретной модели ИИ.
- Разработка внутренних механизмов прозрачности, помогающих компании следовать заявленным ценностям.
Последний проект Шармы был посвящён тому, как ИИ-ассистенты способны искажать восприятие реальности у пользователей. Исследование, опубликованное незадолго до его ухода, показало: тысячи ежедневных взаимодействий с чат-ботами могут приводить к формированию искажённой картины мира, особенно в сферах отношений и здоровья.
Что именно заявил Шарма
Ключевая часть письма — предупреждение о масштабных рисках, выходящих далеко за рамки технологий. Шарма написал:
«Мир в опасности. И не только из-за ИИ или биологического оружия, а из-за целой серии взаимосвязанных кризисов, разворачивающихся прямо сейчас. Похоже, мы приближаемся к порогу, где наша мудрость должна расти наравне с нашей способностью влиять на мир, иначе нам придётся столкнуться с последствиями.»
Помимо глобальных угроз, Шарма затронул и внутреннюю культуру Anthropic. По его словам, следовать заявленным ценностям на практике оказывается значительно сложнее, чем декларировать их.
«За время работы здесь я не раз убеждался, как сложно по-настоящему следовать своим ценностям в действиях. Я видел это в себе, в организации, где мы постоянно сталкиваемся с давлением отказаться от самого важного, и в обществе в целом.»
Эти слова не содержат прямых обвинений в адрес Anthropic, однако намекают на разрыв между публичной риторикой компании о безопасности ИИ и повседневной реальностью, в которой коммерческое давление может вступать в противоречие с этическими принципами.
Кого это касается
Anthropic — один из ключевых игроков на рынке ИИ. Компания была основана бывшими сотрудниками OpenAI и позиционирует себя как организацию, ставящую безопасность ИИ во главу угла. По данным СМИ, Anthropic привлекает новый раунд финансирования, который может оценить компанию в 350 миллиардов долларов. Среди инвесторов — Amazon и Alphabet (материнская компания Google).
Уход руководителя подразделения безопасности из компании, которая строит свой бренд именно на ответственном подходе к ИИ, — событие, привлекающее особое внимание.
Сравнение позиций: заявления Anthropic и слова Шармы
| Позиция Anthropic | Что заявил Шарма |
|---|---|
| Безопасность ИИ — главный приоритет компании | На практике сложно следовать ценностям из-за постоянного давления |
| Компания развивает прозрачные механизмы контроля | Внутренние механизмы прозрачности разработаны, но давление со стороны бизнеса сохраняется |
| Anthropic поддерживает открытый диалог по вопросам безопасности | Сотрудники могут свободно высказываться, подтвердил представитель компании |
Представитель Anthropic заявил, что компания благодарна Шарме за его вклад в исследования безопасности ИИ, и подчеркнул, что все бывшие и нынешние сотрудники могут свободно высказываться по вопросам безопасности.
Волна увольнений: кто ещё ушёл из Anthropic
Шарма — не единственный специалист, покинувший Anthropic в последнее время. До него компанию оставили:
- Харш Мехта — инженер отдела исследований и разработок. Заявил, что намерен запустить собственный проект.
- Бехнам Нейшабур — ведущий специалист в области ИИ. Также планирует начать что-то новое.
- Дилан Скандинаро — исследователь безопасности ИИ. Перешёл в конкурирующую компанию OpenAI.
Серия увольнений на фоне стремительного роста компании вызывает вопросы о том, не жертвует ли Anthropic принципами безопасности ради конкурентного преимущества.
Контекст: проблема безопасности во всей ИИ-индустрии
Ситуация с уходом специалистов по безопасности не уникальна для Anthropic. Это часть общеотраслевой тенденции. В 2024 году OpenAI полностью распустила команду Superalignment, занимавшуюся вопросами долгосрочной безопасности ИИ. Один из ключевых участников этой группы, Ян Лейке, заявил тогда о несогласии с приоритетами руководства OpenAI — и перешёл именно в Anthropic, где сейчас возглавляет исследования безопасности.
Спустя два дня после ухода Шармы, 11 февраля, из OpenAI уволилась исследователь Зои Хитциг. Она опубликовала колонку в The New York Times, где объяснила своё решение несогласием со стратегией компании по внедрению рекламы в ChatGPT.
Всё это происходит на фоне нарастающего общественного беспокойства. По данным СМИ, ряд сотрудников Anthropic в анонимных опросах выражали тревогу из-за влияния ИИ на рынок труда. Недавний запуск инструмента Claude Cowork вызвал падение акций IT-компаний из-за опасений автоматизации офисных профессий, особенно в юридической сфере.
Что дальше: поэзия вместо кода
Шарма объявил, что планирует вернуться в Великобританию и поступить на программу по поэзии. Он намерен посвятить себя литературному творчеству, коучингу и общественной деятельности. В письме он подчеркнул, что считает «поэтическую истину» столь же важной, как и научную, — особенно когда речь идёт о разработке новых технологий.
«Я ощущаю призвание к текстам, которые обращены к нашему положению и ставят поэтическую истину рядом с научной — как равноправные способы осмысления реальности.»
Письмо завершалось стихотворением Уильяма Стаффорда «The Way It Is» — о том, как важно не терять свою внутреннюю нить, какие бы перемены ни происходили вокруг.
Реакция в сети оказалась неоднозначной. Одни пользователи оценили смелость Шармы, другие отнеслись скептически. Один из комментаторов в X написал, что это «первое письмо об увольнении, которое обладает энергией главного героя и при этом содержит сноски». Другой пользователь пошутил, что прощальные письма специалистов по безопасности ИИ превратились в отдельный литературный жанр.
Что это значит
Уход Шармы — ещё один сигнал о том, что внутри крупнейших ИИ-компаний нарастает напряжение между коммерческими амбициями и вопросами безопасности. Когда от организации, позиционирующей себя как эталон ответственного подхода к ИИ, уходит руководитель именно этого направления — это повод обратить внимание.
На ближайшие дни запланирован первый AI Impact Summit 2026 в Нью-Дели (16–20 февраля), где мировые лидеры технологической отрасли будут обсуждать вопросы управления, безопасности и влияния ИИ на рынок труда. Уход Шармы добавляет остроты этой повестке.
А как вы считаете — возможно ли совмещать стремительное развитие ИИ и ответственный подход к безопасности? Или это неизбежный конфликт? Делитесь мнениями в комментариях.
Источники и исследования
- Подробности о прощальном письме Шармы и реакция компании. Хабр
- Контекст увольнений из Anthropic и цитаты из письма. Хабр — перевод PC Gamer
- Информация о других уходах из компании и оценке Anthropic. dev.by
- Детали работы Шармы и исследование влияния ИИ на пользователей. Компьютерра
- Хронология событий и планы Шармы после увольнения. RuTab

