Гигантские чипы Cerebras для обработки моделей искусственного интеллекта Обложка: Skyread

Гигантские чипы Cerebras для обработки моделей искусственного интеллекта

Новости
Главное:

  • Amazon Web Services планирует с 2026 года использовать уникальные огромные чипы Cerebras совместно со своими процессорами Trainium для улучшения вычислений искусственного интеллекта.
  • Cerebras ставит целью конкурировать с Nvidia, предлагая инновационную архитектуру микросхем для ускорения обработки запросов ИИ и уже сотрудничает с OpenAI.
  • Партнёрство позволит повысить скорость и эффективность взаимодействия с ИИ, что особенно актуально для сложных задач и масштабных пользовательских сценариев взаимодействия.

Компания Amazon Web Services (AWS), крупнейший облачный провайдер, объявила о намерении во второй половине 2026 года начать предлагать новую услугу на основе интеграции своих процессоров Trainium с инновационными чипами от стартапа Cerebras Systems. Это стратегическое сотрудничество призвано удовлетворить растущий спрос на вычислительные мощности, необходимые для работы современных моделей искусственного интеллекта.

Чипы Cerebras выполнены по уникальной пластинчатой технологии и способны обрабатывать огромные объёмы данных за один цикл, что создаёт потенциал для значительного ускорения этапа логического вывода — ключевого процесса генерации ответов ИИ на пользовательские запросы. В совместной схеме процессор Amazon Trainium 3 будет предварительно обрабатывать запросы, а сверхмощный Wafer Scale Engine от Cerebras — генерировать развернутые ответы.

Одной из главных проблем при объединении разных вычислительных компонентов традиционно является замедление работы из-за обмена данными между ними. Однако компании рассчитывают, что высокая специализация их процессоров позволит свести этот недостаток к минимуму, что значительно улучшит отклик в сценариях с многоступенчатым взаимодействием, например, в задачах создания кода.

Вице-президент AWS Нафеи Бшара подчеркнул, что новое комплексное решение будет интересным для клиентов, которым важна скорость, несмотря на более высокую цену по сравнению с использованием только Trainium. Для стартапа Cerebras, который планирует первичное публичное размещение акций (IPO), сотрудничество с таким крупным игроком, как Amazon, станет значительным шагом для увеличения присутствия на мировом рынке и разрушения доминирования Nvidia.

OpenAI, разработчик популярных ИИ-продуктов, включая ChatGPT, уже использует мощности Cerebras для ускорения отклика своих моделей. Согласно заявлениям, это партнёрство позволит сделать ChatGPT самой быстрой платформой искусственного интеллекта в мире, способствуя появлению новых сценариев применения и расширению аудитории пользователей ИИ.

Генеральный директор Cerebras Эндрю Фельдман отмечает, что их архитектура предлагает качественно новую производительность на этапе логического вывода, что является критически важным для текущего и будущего развития технологий искусственного интеллекта. По его словам, сотрудничество с Amazon и внедрение их чипов в инфраструктуру AWS выведет компанию на уровень ведущих игроков рынка и сделает высокоскоростной логический вывод мейнстримом.

Таким образом, партнёрство AWS и Cerebras станет ещё одним шагом к улучшению вычислительной инфраструктуры для искусственного интеллекта, что крайне важно на фоне экспоненциального роста объёма данных и сложности ИИ-моделей. Это сотрудничество также обозначает начало новой эры конкуренции в сегменте высокопроизводительных вычислений наряду с активно развивающимися решениями от Nvidia и других крупных производителей.

Tagged