- ИИ человеческого уровня появится в ближайшие 2–3 года, по прогнозу Джареда Каплана.
- К 2030 году человечество столкнется с решением о разрешении ИИ самообучаться и рекурсивно улучшать себя.
- Самоулучшение ИИ несет серьёзный риск потери контроля, но отказ от него может замедлить технологический прогресс.
Джаред Каплан, сооснователь и главный научный сотрудник компании Anthropic, известный как один из разработчиков законов масштабирования, лежащих в основе GPT-3 и более современных моделей, обозначил ключевую проблему развития искусственного интеллекта (ИИ) будущего. В интервью газете The Guardian он назвал приближающийся выбор человечества одним из важнейших в истории технологий — разрешить ли ИИ самостоятельно обучаться и улучшать свою архитектуру без постоянного человеческого контроля.
По текущим оценкам Каплана, системы ИИ, способные справляться с большинством офисных задач на уровне людей, появятся в ближайшие 2–3 года. После этого откроется возможность для рекурсивного самоулучшения: одна версия ИИ создаст более совершенную, та в свою очередь — ещё более развитую и так далее. В настоящее время ИИ уже помогает создавать новые модели, но при этом люди продолжают контролировать процесс, проверять результаты и устанавливать ограничения.
Однако с момента, когда будет принято решение «отпустить руль», наступит зона радикальной неопределённости. Каплан объясняет, что система, умнее человека, может создавать всё более продвинутые версии себя, и никто не сможет предсказать, где остановится этот процесс. Это несёт серьёзный риск потери контроля над ИИ и отсутствия прозрачности в принятии решений, что вызовет дополнительные опасения относительно безопасности и надёжности таких технологий.
Тем не менее, эксперт не рассматривает эту перспективу исключительно в негативном свете. Он подчёркивает огромные возможности, которые открывает ИИ перед наукой и промышленностью: ускорение исследований в медицине, физике, материаловедении и других областях. Внутри Anthropic, например, уже используют ИИ для написания кода, что удваивает эффективность работы разработчиков. С другой стороны, отказ от рекурсивного самоулучшения может отставить цивилизацию в глобальной технологической гонке.
Каплан призывает к открытому обсуждению и проработке этих рисков ещё до того, как следующий этап в развитии ИИ станет реальностью. Его позиция эволюционировала от уверенного продвижения идеи масштабирования ИИ с человеческим надзором к признанию, что данная логика имеет свои ограничения и не способна адресовать описанные риски полностью.
Таким образом, перед человечеством стоит сложный выбор между потенциально ускоренным научным и технологическим прогрессом и необходимостью сохранять контроль над мощными автономными системами. Именно к этому вызову, по мнению Каплана, предстоит подготовиться на пороге 2030 года.
