Бывшие сотрудники MIT создали компактный рассуждающий ИИ для смартфонов Обложка: Skyread

Бывшие сотрудники MIT создали компактный рассуждающий ИИ для смартфонов

Новости
Главное:

  • Стартап Liquid AI, основанный выпускниками MIT, представил лёгкую reasoning-модель LFM2.5-1.2B-Thinking для смартфонов и ноутбуков.
  • Модель занимает менее 1 ГБ памяти, построена на гибридной архитектуре «жидких нейросетей» и показывает высокий уровень следования инструкциям.
  • LFM2.5 поддерживает восемь языков, работает быстрее конкурентов на базе CPU и смартфонах, но уступает в олимпиадной математике.

Американский стартап Liquid AI, созданный исследователями из Массачусетского технологического института (MIT), анонсировал компактную reasoning-модель искусственного интеллекта под названием LFM2.5-1.2B-Thinking. Эта модель занимает всего около 720 МБ памяти и способна запускаться на современных смартфонах и ноутбуках, отличаясь при этом нестандартной архитектурой. В отличие от распространённых трансформеров, LFM2.5 основана на гибридной конструкции, сочетающей «жидкие нейросети» и классические элементы, такие как сверточные блоки и механизмы attention.

Идея «жидких нейросетей» возникла из наблюдения за нервной системой нематоды C. elegans, обладающей всего 302 нейронами, но способной эффективно адаптироваться к окружающей среде. В таких сетях веса не фиксируются окончательно после обучения — они изменяются во время обработки информации, что позволяет модели гибко подстраиваться под задачи на ходу. Конкретно LFM2.5 включает 10 сверточных блоков с переменными весами и 6 блоков attention. Благодаря этому на стандартизированных тестах она превосходит более крупную модель Qwen3-1.7B по качеству выполнения инструкций, показывая 88% успешных ответов против 72% у конкурента по тесту IFEval.

Кроме того, новая модель более оперативно генерирует ответы: в среднем 4500 токенов против 6000 у Qwen3, что ускоряет получение результата. При этом в сложных задачах, например, олимпиадной математике (AIME2025), LFM2.5 уступает (32% против 36%). Разработчики советуют использовать её преимущественно для агентских задач, систем поиска и извлечения информации (RAG), тогда как для программирования и сложных знаний текущая версия менее подходяща.

Что касается производительности, на CPU ноутбука с процессором AMD Ryzen AI Max+ 395 модель демонстрирует скорость декодирования около 237 токенов в секунду, а на смартфоне Samsung Galaxy S25 Ultra — примерно 70 токенов в секунду. Liquid AI уже сотрудничает с AMD и Qualcomm для оптимизации работы модели на специализированных нейропроцессорах (NPU), которые всё чаще интегрируют в мобильные устройства, что обещает ещё более быстрый и энергоэффективный запуск ИИ-приложений.

Стоит отметить, что LFM2.5 поддерживает восемь языков, включая английский, китайский, японский, арабский и несколько европейских языков, но русский в их числе нет. Модель распространяется по лицензии Apache 2.0, позволяющей свободно дообучать и создавать производные версии при условии, что годовой доход компании не превышает 10 миллионов долларов. Таким образом, открывается перспектива появления локализованных или модифицированных вариантов от независимых разработчиков и энтузиастов.

Запуск LFM2.5-1.2B-Thinking демонстрирует новые направления развития ИИ — снижение требований к ресурсам сохраняет при этом приличную эффективность, что особенно актуально для мобильных платформ и устройств с ограниченными вычислительными мощностями. Дальнейшая оптимизация под специализированные процессоры и расширение языковой поддержки сделают такие модели доступнее и полезнее в повседневном цифровом взаимодействии.

Tagged