IT-лидеры предложили приостановить разработку сверхразумного ИИ Обложка: Skyread

IT-лидеры предложили приостановить разработку сверхразумного ИИ

Новости
Главное:

  • Сотни известных фигур из IT и смежных областей подписали открытое письмо с призывом приостановить разработку сверхинтеллекта до подтверждения его безопасности.
  • Инициатива поддержана такими личностями, как Стив Возняк, Ричард Брэнсон, а также двумя «крёстными отцами ИИ» — Джеффри Хинтоном и Йошуа Бенджио.
  • Некоторые влиятельные деятели, включая генерального директора OpenAI Сэма Альтмана и Илона Маска, не поддержали этот призыв.

Организация Future of Life Institute (FLI) подготовила открытое письмо, в котором призывает временно запретить разработку искусственного сверхинтеллекта — систем, превосходящих человеческий разум — до тех пор, пока не будет достигнут консенсус по вопросам их безопасности и управляемости. В число подписавших документ вошли сотни известных личностей, в том числе соучредитель Apple Стив Возняк, основатель Virgin Group Ричард Брэнсон, а также двое пионеров развития искусственного интеллекта — Джеффри Хинтон и Йошуа Бенджио.

Помимо них, документ поддержали бывшие военные и политические деятели, такие как Майк Маллен и Стив Бэннон, а также представители королевской семьи Великобритании — Гарри и Меган, герцог и герцогиня Сассекские. Их беспокойство связано с возможными последствиями стремительного роста возможностей ИИ, которые могут затронуть не только экономику и рынок труда, но и вопросы национальной безопасности и фундаментальных гражданских свобод.

В то же время такой шаг вызвал критику со стороны руководителей крупнейших компаний в области искусственного интеллекта. Среди тех, кто не поддержал призыв, оказались генеральный директор OpenAI Сэм Альтман, глава подразделения Microsoft DeepMind Мустафа Сулейман, руководитель Anthropic Дарио Амодеи, а также Илон Маск — основатель xAI, известный своей ранее высказанной поддержкой временного моратория на создание моделей ИИ, превосходящих GPT-4.

Письмо опирается на опрос, проведённый FLI, где лишь 5% американцев высказались за быстрое и нерегулируемое продвижение передовых ИИ-технологий. Более 73% респондентов выступают за усиленное регулирование отрасли, а около 64% считают необходимым запретить создание сверхинтеллекта до доказательства его безопасности и контроля. Авторы предупреждают о серьезных рисках неограниченного развития ИИ, включая потенциальные технологические катастрофы и угрозу для всего человечества.

Энтони Агирре, соучредитель Future of Life Institute, отмечает, что хотя многие желают видеть использование мощных ИИ-инструментов в науке, медицине и других сферах, стремление коммерческих структур к созданию искусственного интеллекта, способного заменить человека, не совпадает с общественными интересами. В итоге, его мнение подчёркивает необходимость взвешенного и ответственного подхода к развитию технологий, чтобы избежать необратимых последствий.

Tagged