- Первый зампред правления «Сбера» Александр Ведяхин заявил 1 апреля 2026 года, что ИИ может выйти из-под контроля только при ошибках людей и неверном обращении с технологиями.
- В Альянсе в сфере искусственного интеллекта подготовили «Белую книгу ИИ» с моделированием рисковых сценариев и возможных ответных мер.
- В «Сбере» считают преимуществами российских ИИ-моделей собственных специалистов, более мягкое регулирование по сравнению с Европой и наличие суверенных разработок.
«Сбер» заявил, что искусственный интеллект может выйти из-под контроля только в том случае, если человек сам создаст для этого условия. Об этом 1 апреля 2026 года рассказал первый зампред правления банка Александр Ведяхин. По его словам, ключевая задача разработчиков — выстроить жёсткие механизмы контроля, не тормозя развитие самих технологий.
Ведяхин сообщил, что Альянс в сфере искусственного интеллекта подготовил «Белую книгу ИИ». В ней собраны сценарии возможных рисков, связанных с развитием таких систем, а также варианты реакции на них. Смысл документа, как следует из его слов, в том, чтобы заранее описать опасные ситуации и подходы к управлению ими, а не обсуждать угрозы только в теории.
Отдельно топ-менеджер говорил о положении российских ИИ-разработчиков. Он назвал сильными сторонами отрасли специалистов и научную школу, регулирование и наличие собственных моделей, не завязанных на зарубежные платформы. Благодаря этому, по его словам, такие системы можно точнее подстраивать под русский язык, местную культуру и прикладные задачи.
Ведяхин также напомнил, что ИИ уже используется в критически важных сферах — от финансов и науки до логистики и обороны. При этом он допустил появление кризисных сценариев, но самым вероятным назвал не «смерть» ИИ, а его трансформацию и фрагментацию. Речь идёт о будущем, в котором будут сосуществовать разные модели под контролем государств и корпораций, без единого центра управления.
Тема контроля над ИИ становится всё заметнее по мере того, как такие системы внедряют в критические отрасли. В комментарии «Сбера» эта дискуссия связана не с автономностью технологии самой по себе, а с правилами её применения и ограничениями, которые задают люди.
Для компаний это означает повышенное внимание к правилам использования ИИ, внутренним ограничениям и сценариям реагирования на сбои. Для пользователей — то, что риски, о которых говорят разработчики, связывают прежде всего не с «самовольным» поведением модели, а с тем, как её настраивают и где применяют.