Рекурсивні мовні моделі
Автори: Alex L. Zhang, Omar Khattab
Опубліковано: 2025-12-30
Переглянути на arXiv →Анотація
Рекурсивні мовні моделі (RLM) представляють загальну стратегію виведення, яка дозволяє великим мовним моделям (LLM) обробляти довільно довгі запити (понад 10 мільйонів токенів), розглядаючи їх як зовнішні змінні середовища всередині середовища Python REPL. Модель програмно досліджує, розкладає та рекурсивно викликає себе над фрагментами запиту. Цей підхід забезпечує чудову продуктивність та надійність у різноманітних завданнях з довгим контекстом порівняно з прямими викликами LLM та іншими методами масштабування, пом'якшуючи проблему "гниття контексту" та роблячи LLM ефективними для додатків, що вимагають широкого розуміння контексту.