- Цены на оперативную память продолжают резко расти, что заставляет производителей снижать объемы памяти в бюджетных смартфонах и ноутбуках.
- Бюджетные смартфоны возвращаются к 4 ГБ RAM, а ноутбуки среднего класса — к 8 ГБ, несмотря на возросшие требования к памяти для локального ИИ.
- Память для искусственного интеллекта все больше концентрируется в дата-центрах, затрудняя реализацию концепции персонального ИИ с большими языковыми моделями на локальных устройствах.
В 2025 году ожидалось заметное расширение возможностей персонального искусственного интеллекта на домашних компьютерах и ноутбуках. Компании, такие как Nvidia, Microsoft и Lenovo, представили продукты и платформы, позволяющие запускать и обучать большие языковые модели локально, устанавливая планку памяти минимум в 16 ГБ для эффективной работы ИИ. Однако реальные тенденции рынка в начале 2026 года оказались кардинально иными.
Согласно данным аналитиков TrendForce, цены на оперативную память продолжают стремительно расти в первом квартале 2026 года. В результате производители смартфонов и ноутбуков вынуждены не только повышать цены на устройства, но и снижать объемы встроенной памяти для снижения себестоимости. Бюджетные смартфоны сокращают объем RAM до 4 ГБ, что соответствует стандарту десятилетней давности. Количество моделей с 12 ГБ снизится на 40%, а флагманские смартфоны с 16 ГБ оперативной памяти практически исчезают с рынка. В сегменте ноутбуков компании Dell и Lenovo планируют возврат к базовому объему 8 ГБ RAM для устройств среднего ценового сегмента.
Этот сдвиг противоречит потребностям развития локального ИИ, ведь, например, Microsoft требует не менее 16 ГБ памяти для запуска своего Copilot+. Столь радикальное уменьшение объема памяти на конечных устройствах обуславливает парадокс — технологические возможности локального ИИ ограничиваются недостатком ресурсов.
Одновременно наблюдается массовая концентрация памяти в дата-центрах для обучения и обработки ИИ-моделей. К примеру, один серверный рэк Nvidia GB300 NVL72 оснащён около 37 ТБ памяти в различных форм-факторах — объема, достаточного для работы тысяч смартфонов. Такие рэки используются тысячами в специализированных дата-центрах, что подчёркивает смещение фокуса вычислений в пользу облачных ресурсов.
Производители пытаются найти обходные решения: возможно возвращение поддержки слотов microSD в смартфонах для расширения хранилища, а также развитие технологий запуска языковых моделей с использованием флеш-памяти вместо традиционной оперативной памяти, о чём свидетельствует исследование Apple 2023 года «LLM in a Flash». Однако эти методы пока рассматриваются как временные меры, а эпоха массового персонального ИИ с запуском сложных моделей на локальных устройствах откладывается.
Итогом сложившейся ситуации становится ясное смещение значительной части вычислительных ресурсов и памяти в пользу облачных дата-центров, на базе которых продолжит развиваться искусственный интеллект. Персональные компьютеры и смартфоны в ближайшее время, скорее всего, будут ограничены более скромными конфигурациями памяти, что отражает экономические условия и технологическую реальность рынка.
