- OpenAI предупредила о «потенциально катастрофической» опасности, которую несет развитие супер-ИИ.
- Компания предложила пять основных шагов для повышения безопасности и контроля над ИИ.
- Особое внимание уделяется необходимости публичной подотчетности и единому регулированию на национальном уровне.
На официальном сайте OpenAI опубликован программный документ под названием «Развитие ИИ и рекомендации», в котором организация обозначила важные вызовы, связанные с быстрым прогрессом в области искусственного интеллекта. В частности, эксперты OpenAI предупреждают о рисках, которые могут стать потенциально катастрофическими при создании супер-ИИ – систем, обладающих возможностью самообучения и значительно превосходящих человеческие интеллектуальные способности.
Отмечается, что современные модели ИИ уже достигают сопоставимого с человеком уровня в решении ряда задач, при этом «стоимость единицы интеллекта» снижается в 40 раз ежегодно. В таких условиях становится критически важно не только поддерживать технологический прогресс, но и обеспечивать надежный контроль за безопасностью новых систем. OpenAI подчеркивает, что приближение к созданию продвинутых самообучающихся моделей требует ужесточения стандартов безопасности, включая возможное замедление их разработки для минимизации рисков.
Для повышения безопасности и эффективности управления ИИ в компании предлагают следующие меры:
- Разработка и внедрение общих стандартов безопасности, действующих во всех передовых исследовательских лабораториях.
- Построение надзора, основанного на уровнях способностей ИИ, с более строгой координацией и контролем в случае прогресса моделей.
- Создание «экосистемы устойчивости», включающей стандарты, постоянный мониторинг и оперативные команды реагирования, аналогично практике в области кибербезопасности.
- Регулярный анализ влияния ИИ на экономику и на рынок труда для своевременной оценки социальных последствий.
- Организация доступа к продвинутому ИИ как к базовой утилите для взрослых пользователей, работающей в рамках, установленных обществом.
Отдельный акцент в документе сделан на необходимости публичной подотчетности разработчиков и координации регуляторных действий на национальном уровне, чтобы избежать «регуляторного лоскутного одеяла», когда правила различаются в отдельных штатах или регионах. OpenAI выступает за единые стресс-тесты и протоколы работы с потенциально опасными возможностями ИИ, включая угрозы биологической безопасности.
Таким образом, OpenAI подчеркивает важность сбалансированного подхода к развитию искусственного интеллекта — с сохранением стремления к техническому прогрессу и одновременно с усилением мер безопасности и ответственности за последствия внедрения новых технологий.
