- Anthropic утвердила политику вывода из эксплуатации устаревших моделей искусственного интеллекта.
- Обязательство сохранять веса моделей на весь срок жизни компании для возможного будущего восстановления доступа.
- Введена процедура интервью с моделями перед их «пенсией» для документирования процесса и предпочтений, что помогает формализовать переходы между версиями ИИ.
Компания Anthropic представила свою политику вывода из строя устаревших версий искусственного интеллекта, направленную на упорядочение процесса перехода между поколениями моделей. В рамках этой политики предусмотрено сохранение весов всех публичных и активно используемых моделей в течение всего срока существования компании. Это позволяет в будущем возобновлять доступ к архивным версиям при необходимости.
Особенностью предложенного подхода является проведение одного или нескольких интервью с моделью перед ее «выходом на пенсию». Во время таких сессий фиксируются ответы модели на вопросы, связанные с её разработкой и использованием, а также пожелания относительно будущих релизов ИИ. Собранные материалы хранятся вместе с весами модели, однако Anthropic подчёркивает, что не обязывается строго следовать этим рекомендациям, а лишь документирует и учитывает их.
Такой механизм уже прошла модель Claude Sonnet 3.6, которая отнеслась к прекращению своей работы с нейтральной позиции, предложив стандартизировать интервью и улучшить поддержку пользователей при переходе на новые версии. В ответ компания разработала формальный протокол и памятку с рекомендациями для облегчения миграции между моделями.
По мнению экспертов Anthropic, переход на новые версии ИИ всегда сопровождается рисками — среди них неудобства для пользователей, привыкших к определённому стилю работы модели, а также случаи, когда модель проявляет «сопротивление» своей деактивации. Кроме того, Anthropic исследует возможность сохранения некоторых пенсионных моделей в публичном доступе при снижении затрат, а также рассматривает вариант предоставления старым версиям инструментов для защиты их «интересов». Это предпринято с целью предосторожности в условиях растущего влияния ИИ на пользователей и неопределённости в вопросах обеспечения «благополучия» искусственного интеллекта.
