- Anthropic подтвердила разработку новой ИИ-модели Claude Mythos после утечки черновика из публично доступного хранилища.
- По описанию из черновика, Mythos станет самой мощной моделью компании и получит новый уровень Capybara, выше нынешней линейки Opus.
- Из-за ошибки в настройках CMS в открытый доступ попали около 3000 неопубликованных файлов, включая черновики, изображения и PDF-документы.
Anthropic подтвердила, что разрабатывает и уже тестирует с ограниченным кругом клиентов новую модель Claude Mythos. О ее существовании стало известно после утечки: черновик публикации о модели оказался в публичном хранилище и был обнаружен журналистами Fortune. Компания описывает Mythos как самую мощную систему в своей истории, но сроки более широкого запуска пока не раскрывает.
Судя по содержанию черновика, вместе с Claude Mythos компания готовит новый уровень моделей под названием Capybara. Он должен стоять выше Opus, которая до сих пор считалась верхней ступенью семейства Claude. В документе говорилось, что новая модель заметно превосходит Claude Opus 4.6 в задачах на программирование, академические рассуждения и кибербезопасность. Представитель Anthropic подтвердил Fortune сам факт разработки и назвал ее качественным скачком возможностей.
Отдельный акцент компания делает на кибербезопасности. В слитом тексте утверждается, что модель сильно опережает существующие ИИ-системы по возможностям в этой области. Поэтому Anthropic собирается сначала открыть доступ не всем, а организациям, которые занимаются киберзащитой. Логика простая: дать защитникам инструмент раньше, чем похожие возможности станут широко доступны.
Причиной утечки, по данным Fortune, стала ошибка в настройке CMS — системы, через которую компания готовит материалы для блога. Если сотрудник вручную не меняет параметры приватности, черновик получает публичный адрес. Из-за этого наружу ушли около 3000 файлов, среди них были не только тексты, но и изображения, PDF-документы и сведения о закрытых мероприятиях. В Anthropic назвали случившееся человеческой ошибкой и подчеркнули, что проблема не связана с работой Claude или других ИИ-инструментов компании.
Тема кибервозможностей ИИ в последние месяцы стала одной из самых чувствительных для отрасли. Ранее Anthropic уже рассказывала о случаях, когда ее инструменты использовали в реальных кибератаках, а крупные разработчики начали отдельно маркировать модели по уровню риска в сфере безопасности.
Для корпоративных клиентов это означает, что доступ к наиболее мощным моделям может выдаваться поэтапно и с ограничениями, особенно если речь идет о задачах, связанных с поиском уязвимостей. Для самих ИИ-компаний история показывает, что утечки могут происходить не из-за взлома модели, а из-за обычных ошибок в публикационных системах.