- Бывший сотрудник OpenAI Стивен Адлер раскритиковал компанию за недостаточные меры по борьбе с зависимостью пользователей от чат-ботов.
- Адлер поставил под сомнение заявления руководства OpenAI о решении проблем психического здоровья пользователей и выразил опасения по поводу возвращения контента для взрослых.
- Одновременно сотни известных деятелей IT-индустрии потребовали приостановить разработку сверхинтеллекта до выработки согласованной стратегии безопасности, однако ключевые фигуры, включая Сэма Альтмана и Илона Маска, эту инициативу не поддержали.
Стивен Адлер, бывший ведущий специалист по безопасности компании OpenAI, выступил с критикой в адрес своего бывшего работодателя, заявив, что компания не оправдала ожиданий пользователей в плане обеспечения безопасности и снижения зависимости от своих искусственных интеллектов. В опубликованной статье в New York Times он отметил, что руководство OpenAI поддается «давлению конкуренции» и пренебрегает своими изначальными установками на создание безопасного ИИ.
Особенно исследователь раскритиковал главу OpenAI Сэма Альтмана за утверждения о том, что компания смогла значительно улучшить психическое здоровье пользователей с помощью новых инструментов. Адлер также выразил озабоченность по поводу планов компании по введению контента для взрослых, подчеркнув, что без доказательств эффективности мер безопасности такие планы могут привести к серьёзным негативным последствиям. Он отметил, что эмоциональная привязанность к чат-ботам с ИИ уже вызывает тревогу, а доступ к эротическому контенту способен усугубить ситуации у уязвимых категорий пользователей.
Опираясь на свой опыт руководства командой безопасности в OpenAI, Адлер напомнил об инцидентах, связанных с рисками для психического здоровья пользователей и нестабильными сексуальными контактами, возникавшими в 2021 году. Он призвал компанию не ограничиваться декларациями, а предоставлять данные и сравнения, подтверждающие реальные успехи в улучшении безопасности своих продуктов.
Исследователь предположил, что в противовес стремительным рывкам в развитии технологий, OpenAI и другим разработчикам возможно стоит замедлиться, чтобы обеспечить создание таких методов безопасности, которые не смогут быть обойдены злоумышленниками и которыми можно будет доверять.
На этом фоне сотни представителей IT-отрасли, включая таких известных личностей, как Стив Возняк и Ричард Брэнсон, подписали открытое письмо с требованием остановить продвижение в разработке искусственного сверхинтеллекта до тех пор, пока не будет достигнут консенсус относительно его безопасности и управляемости. Однако ключевые фигуры индустрии, включая Сэма Альтмана, Илона Маска и других ведущих руководителей, данную инициативу не поддержали, продолжая активные работы в сфере ИИ.
Таким образом, ситуация вокруг OpenAI демонстрирует сложный баланс между инновациями и ответственностью за влияние технологий на общество, подчеркивая необходимость прозрачности и доказательной базы в вопросах безопасности новых ИИ-продуктов.
