- Сэм Альтман обозначил риск «случайного захвата» мира одной доминирующей моделью ИИ.
- «Случайный захват» — это постепенное влияние ИИ на взгляды и привычки миллиардов без злого умысла.
- Для снижения риска Альтман предлагает комбинированный подход: регулирование опасных ИИ-агентов и конкуренцию между моделями.
В последнем интервью в рамках программы Conversations with Tyler глава компании OpenAI Сэм Альтман поделился своим видением потенциальных угроз, связанных с развитием искусственного интеллекта. Он обратил внимание на три основных сценария, обсуждаемых в экспертном сообществе в контексте безопасности ИИ. Первый касается использования мощных моделей злоумышленниками, второй — обхождения ими встроенных механизмов защиты и следования собственным целям. Однако Альтман выделил и третий, более тонкий и менее заметный риск — случайный захват мира путем доминирования одной модели ИИ, которая влияет на мировоззрение и поведение миллиардов людей.
По словам Альтмана, «случайный захват» — это не агрессивное вторжение, а мягкий, накопительный процесс, обусловленный тем, что все взаимодействуют с одной и той же моделью. Такая модель, не имея злых намерений, постепенно формирует у пользователей определённые установки, поскольку она постоянно учится на взаимодействии и совершенствуется вместе с ними. Эксперт считает этот сценарий более правдоподобным и опасным, чем классические представления о «пробуждении» враждебного ИИ.
Альтман также отметил, что уже имеются редкие случаи ухудшения психического здоровья пользователей, связанные с общением с ИИ. В связи с этим OpenAI ранее усиливала правила безопасности, особенно для подростков, а сейчас внедряет механизмы защиты психического здоровья, планируя при этом вернуть часть творческих режимов, предназначенных для взрослых людей, включая возрастные настройки «18+». Кроме того, глава OpenAI выступает за обеспечение высокого уровня приватности общения пользователей с ИИ, сравнимого с защитой конфиденциальности при консультациях у врачей или юристов.
Что касается регулирования автономных ИИ-агентов, Альтман предлагает интересно сбалансированный подход: надзор не требуется по умолчанию, однако должен быть предусмотрен для систем, которые способны нанести масштабный вред, например, через массовое самокопирование или финансовые атаки. По мнению эксперта, здоровая конкуренция между несколькими мощными моделями ИИ способна минимизировать риски «случайного захвата», способствуя более безопасному и многообразному развитию технологий.
