Anthropic представила новый инструмент для проверки кода ИИ Обложка: Skyread

Anthropic представила новый инструмент для проверки кода ИИ

Новости
Главное:

  • Компания Anthropic выпустила инструмент проверки кода на базе искусственного интеллекта под названием Code Review, интегрированный в Claude Code.
  • Инструмент ориентирован на крупных корпоративных пользователей и автоматизирует анализ запросов на слияние, выявляя и объясняя логические ошибки в коде.
  • Code Review работает с многоагентной архитектурой, делает поверхностный анализ безопасности и интегрируется с GitHub, предоставляя подробные комментарии прямо в коде.

Anthropic представила новый инструмент под названием Code Review, предназначенный для проверки программного кода с помощью искусственного интеллекта. Этот продукт интегрирован с Claude Code и призван помочь разработчикам выявлять ошибки на ранних этапах, прежде чем изменения попадут в основную кодовую базу.

Главная задача Code Review — эффективная автоматизация проверки запросов на слияние (pull requests), чья численность значительно выросла в связи с активным использованием Claude Code в корпоративном секторе. Увеличение объёма автоматически сгенерированных изменений способствует появлению узких мест в процессе выпуска программных продуктов, что требует новых решений для контроля качества.

Инструмент предназначен преимущественно для крупных корпоративных клиентов, включая такие компании, как Uber, Salesforce и Accenture, которые уже используют Claude Code и заинтересованы в упрощении и ускорении процесса проверки изменений. Руководители команд разработчиков могут активировать проверку кода по умолчанию для каждого инженера, что позволяет инструменту автоматически сканировать запросы на слияние и оставлять комментарии прямо в коде на платформе GitHub.

Особое внимание в Code Review уделяется выявлению логических ошибок, а не стилистическим или косметическим недочётам. Искусственный интеллект подробно объясняет выявленные проблемы, причины их возникновения и способы исправления. Для удобства оценки серьезности ошибок используется система цветных индикаторов: красный обозначает критические ошибки, жёлтый – потенциальные проблемы, требующие дополнительной проверки, а фиолетовый — вопросы, связанные с ранее существующим кодом или более ранними ошибками.

Для анализа кода применяются несколько агентов, работающих параллельно и изучающих код с разных точек зрения. Итоговый агент агрегирует результаты, фильтруя дубликаты и ранжируя проблемы по приоритету. Кроме того, Code Review обеспечивает поверхностный анализ безопасности, позволяя инженерам настраивать дополнительные проверки в соответствии с внутренними стандартами компании. Для более глубокого анализа безопасности Anthropic недавно запустила отдельный продукт Claude Code Security.

С точки зрения ресурсов Code Review является достаточно затратным продуктом, что отражается и на его цене: средняя стоимость одной проверки оценивается в $15–25, основываясь на количестве токенов и сложности кода. Несмотря на это, компания считает сервис крайне востребованным и стратегически важным в условиях стремительного роста объёмов кодовой продукции, создаваемой с помощью ИИ-инструментов.

В заключение, руководитель отдела продуктов Anthropic Кэт Ву отметила, что новый инструмент позволит предприятиям создавать программы быстрее и с меньшим количеством ошибок, что важно для развития современного ПО и повышения его качества.

Стоит отметить, что аналогичное решение в области анализа безопасности программного обеспечения недавно анонсировала компания OpenAI — их продукт Codex Security предназначен для выявления уязвимостей и предлагает исправления, а сейчас доступен для исследовательского использования в рамках ChatGPT Enterprise, Business и Edu.

Tagged