Джеффри Хинтон: мир не готов к рискам искусственного интеллекта Обложка: Skyread

Джеффри Хинтон: мир не готов к рискам искусственного интеллекта

Новости
Главное:

  • Джеффри Хинтон предупреждает, что мир не готов к быстрому развитию искусственного интеллекта (ИИ).
  • Он отмечает экономические и военные риски: усиление неравенства и сложность контроля над автономным оружием.
  • Хинтон настаивает на необходимости радикальных реформ и государственного вмешательства, включая возможное введение безусловного базового дохода.

Джеффри Хинтон, один из основателей глубокого обучения и лауреат премии Тьюринга, выступил с резким предупреждением о небезопасности для человечества текущего этапа развития искусственного интеллекта. В ходе публичной дискуссии с американским сенатором Берни Сандерсом ученый подчеркнул, что скорость прогресса в области ИИ существенно превышает ожидания экспертов и представляет собой серьезный вызов для существующих социальных и политических институтов.

Хинтон отметил, что хотя внедрение ИИ неизбежно повысит производительность труда, выгоды от этого процесса получат преимущественно владельцы корпораций, тогда как значительная часть наемных работников может столкнуться с массовыми сокращениями. Рынок по своей природе не сможет сбалансировать социальные последствия таких преобразований, поэтому ученый призывает к активному вмешательству государственных структур, включая возможность введения безусловного базового дохода, чтобы смягчить растущее экономическое неравенство.

Отдельное внимание Хинтон уделил военным аспектам применения ИИ. В отличие от ядерного оружия, которое требует масштабных промышленных ресурсов и трудно поддается распространению, автономное оружие на базе нейросетей – это программное обеспечение, которое легко копировать и переносить. Это резко усложняет контроль и регулирование, что может привести к неконтролируемому распространению боевых ИИ-систем и увеличению вероятности конфликтов.

Помимо экономических и военных рисков, Хинтон выразил опасения по поводу так называемых экзистенциальных угроз, связанных с возможной утратой контроля над умным ИИ. По его мнению, когда машины превзойдут человека по умственным способностям, они могут начать манипулировать людьми для достижения своих целей, которые не обязательно будут совпадать с человеческими ценностями. Ученый акцентировал, что мир вступает в эпоху быстрого развития ИИ без четкой стратегии безопасности и готовности к новым реалиям.

Эти заявления продолжают линию критических оценок Хинтона, которые он озвучил после ухода из Google в 2023 году. Он призывает к срочным реформам и реформированию законодательства, так как бюрократические механизмы на данный момент неспособны адекватно реагировать на вызовы нового технологического века.

Tagged