ИИ научили создавать исследования, превышающие объем памяти Обложка: Skyread

ИИ научили создавать исследования, превышающие объем памяти

Новости
Главное:

  • Ограничение контекстного окна в современных ИИ-моделях мешает им эффективно обрабатывать большие исследовательские тексты.
  • Китайские учёные предложили использовать внешнюю файловую систему в качестве памяти для ИИ, что позволяет масштабировать объём информации для анализа.
  • Новое решение показало прирост качества генерации отчётов по сравнению с аналогичными системами, включая OpenAI Deep Research и Gemini.

Современные искусственные интеллектуальные модели сталкиваются с серьезным ограничением — контекстным окном, то есть ограничением на количество одновременно обрабатываемой информации. Например, даже модель с контекстом в 200 тысяч токенов оказывается неспособной полноценно просмотреть и проанализировать обширные исследовательские тексты, состоящие из сотен страниц, и при этом создать качественный отчёт объемом в 10 тысяч слов и более. В результате ИИ просто начинает терять важные детали и существенные отрывки информации.

Исследователи из Китая нашли решение, предлагающее использовать внешнюю файловую систему как память для ИИ. Идея выглядит простой и интуитивной, но ранее подобный подход не применялся в исследовательских задачах. В новой архитектуре задействованы два агента. Первый, называемый Context Builder, функционирует как библиотекарь: он обходит интернет, извлекает нужные данные, систематизирует их и сохраняет в иерархическую структуру, похожую на файловую систему с папками, файлами и цитатами. Такая база знаний фактически не ограничена размером контекстного окна и может расти бесконечно.

Второй агент, Report Writer, отвечает за формирование итогового исследования и подгружает необходимые фрагменты из базы знаний по мере необходимости. Такой подход похож на работу исследователя с архивом, а не на попытку удержать всю информацию в оперативной памяти.

Практическая значимость решения подтверждена экспертизой на бенчмарках FS-Researcher, где предложенная модель не только превзошла конкурентные системы, включая OpenAI Deep Research, Gemini и Claude Research, но и обеспечила улучшение качества отчёта на 2 пункта даже на одном и том же GPT-5, что указывает на эффект за счёт архитектуры, а не только размера модели. Исследование также иллюстрирует принцип test-time scaling — увеличение времени и вычислительных ресурсов на этапе сбора информации прямо коррелирует с улучшением итогового результата.

Интересно, что идея предоставить ИИ «файловую систему» произошла из практик разработки кодинг-агентов, таких как Claude Code, где такой метод давно применяется. Теперь оказывается, что внешняя память важна не только для кода, но и для решения любых сложных исследовательских задач.

Таким образом, будущее ИИ-агентов кажется не столько в непосредственном увеличении «умных» способностей, сколько в более эффективной организации и управлении информацией — чем-то похожем на то, как системный человек с хорошо налаженной системой заметок и архивов выигрывает в продуктивности у гения с хаотичной памятью.

Tagged