Anthropic сняла запрет на обучение рискованных моделей из-за давления Пентафона Обложка: Skyread

Anthropic сняла запрет на обучение рискованных моделей из-за давления Пентафона

Новости
Главное:

  • Anthropic убрала из своей политики ответственного масштабирования обязательство не обучать опасные ИИ-модели без заранее доказанной безопасности.
  • Компания введёт прозрачную отчётность по безопасности и будет соответствовать уровню конкурентов вместо односторонних ограничений.
  • Перемены совпали с давлением Пентагона, угрожающего применением законов для принудительного использования технологий Anthropic в военных целях.

Компания Anthropic обновила свою Политику ответственного масштабирования (Responsible Scaling Policy, RSP) до версии 3.0, сняв ключевое ограничение, введённое в 2023 году. Ранее правило запрещало обучать модели ИИ, если их безопасность не была доказана заранее. Теперь разработка может быть приостановлена лишь при выполнении двух условий: если Anthropic является лидером в гонке ИИ и если существуют катастрофические риски. Как отметил сооснователь и научный директор компании Джаред Каплан в интервью TIME, односторонние ограничения со стороны Anthropic при нынешней скорости развития индустрии кажутся малоэффективными, особенно на фоне активного конкурирования на рынке.

В более ранних версиях RSP был механизм «стоп-крана»: компания обязалась не развертывать и не обучать новые модели, способные, например, содействовать созданию биологического оружия, пока не будут разработаны проверенные меры безопасности. В новой редакции этот механизм заменён представленностью — Anthropic планирует публиковать регулярные «Дорожные карты безопасности» и «Отчёты о рисках» с доступом внешних экспертов к исходным версиям документов. Вместо удержания планки самостоятельно в новых условиях компания намерена соответствовать или превосходить стандарты безопасности конкурентов. В самом Anthropic подчёркивают, что изменения не означают «разворота», а связаны с тем, что наука ещё не даёт чётких методов оценки рисков, а политическая обстановка требует коллективных мер всей индустрии ИИ.

Одновременно с публикацией новой версии RSP усилится давление со стороны Пентагона США. 25 февраля министр обороны Пит Хегсет встретился с представителями Anthropic и пригрозил применением Закона о военном производстве (Defense Production Act) для принудительного использования ИИ-технологий Claude, если ограничения на военное применение не будут сняты к установленному сроку. В противном случае компанию могут объявить «риском для цепочки поставок», что вынудит подрядчиков Минобороны отказаться от сотрудничества. Сейчас Claude — единственная ИИ-модель, интегрированная в секретные военные сети США через партнёрство с Palantir. Компания ранее категорически запрещала использовать Claude для автономного оружия и массовой слежки за гражданами.

Эксперты и общественные организации восприняли изменения в политике Anthropic с настороженностью. Крис Пейнтер из некоммерческой METR, анализируя новый проект RSP, отметил, что компания вынуждена «сортировать раненых», поскольку методы оценки и снижения рисков не успевают за ростом возможностей ИИ. Это, по его словам, свидетельствует о том, что общество ещё не готово к потенциально катастрофическим рискам, связанным с развитием искусственного интеллекта. Внутри Anthropic также произошли кадровые изменения: ушёл глава команды по безопасности Мринанк Шарма, оставивший прощальное письмо с тревожным посланием о рисках для мира. Обсуждение ситуации в профессиональных сообществах сравнивает нынешние события с тем, как Google когда-то отказалась от девиза «Don’t Be Evil».

Tagged