- После заключения военного контракта с Пентагоном OpenAI потеряла двух ключевых руководителей — вице-президента по исследованиям Макса Шварцера и главу направления робототехники Кейтлин Калиновски.
- Кейтлин Калиновски открыто выразила обеспокоенность по поводу слежки без судебного надзора и автономного оружия без человеческой авторизации.
- Минимум 93 сотрудника OpenAI подписали открытое письмо с требованием установить жёсткие этические ограничения, аналогичные Anthropic, а конкурент Claude обогнал ChatGPT по загрузкам в американском App Store.
Несколько ключевых сотрудников OpenAI покинули компанию сразу после заключения контракта с Министерством обороны США, что вызвало волну беспокойств внутри индустрии искусственного интеллекта. 3 марта вице-президент OpenAI по исследованиям и руководитель пост-трейнинга Макс Шварцер объявил об уходе в конкурирующую компанию Anthropic. Вскоре после этого, 7 марта, из компании ушла Кейтлин Калиновски, руководитель направления робототехники и аппаратного обеспечения.
Калиновски прямо объяснила свои причины: она выразила обеспокоенность из-за возможности использования технологий OpenAI для массовой слежки без судебного контроля и применения летального автономного оружия без обязательного участия человека. Эти темы, по её мнению, не получили должного общественного обсуждения и требуют серьёзной этической дискуссии. До работы в OpenAI она имела значительный опыт в ведущих технологических компаниях, включая Meta, где работала над AR-очками Orion, а также Oculus и Apple.
Макс Шварцер в своем заявлении не связывал увольнение напрямую с заключённым военным контрактом, указав, что хочет сосредоточиться на индивидуальных исследованиях в области обучения с подкреплением. Однако данное заявление совпало по времени с признанием главы OpenAI Сэма Альтмана, что сделка с Пентагоном выглядела «оппортунистической и небрежной». Шварцер был не просто исследователем — его команда отвечала за пост-трейнинг ключевых моделей GPT-5 и других, что делает его уход особенно болезненным для компании, поскольку он уносит с собой незаменимые знания и опыт.
Эти уходы отражают более широкий внутренний кризис: по меньшей мере 93 сотрудника OpenAI подписали открытое письмо We Will Not Be Divided, в котором требуют введения этических ограничений, аналогичных тем, что применяет Anthropic. Между тем, на фоне кадровых потерь и общественных дебатов, продукт от конкурента Claude превзошёл ChatGPT по количеству загрузок в американском App Store.
OpenAI настаивает, что контракт с Пентагоном содержит жёсткие ограничения — запрет на массовую слежку, создание автономного оружия и «социального кредита», и что эти линии защищены на уровне договора. Однако критики отмечают, что эти меры в значительной степени опираются только на существующее законодательство, тогда как Anthropic выступает за более жёсткие запреты, включая те, которые в текущих законах не прописаны.
Таким образом, данный инцидент демонстрирует, насколько остро стоят этические и кадровые вопросы вокруг сотрудничества ИИ-компаний с военными структурами, а также подчеркивает важность прозрачного диалога внутри отрасли и общества в целом.
