Agent-Omit: Навчання ефективних LLM-агентів адаптивному пропусканню думок і спостережень за допомогою агентного навчання з підкріпленням
Автори: Yansong Ning, Jun Fang, Naiqiang Tan, Hao Liu
Опубліковано: 2026-02-01
Переглянути на arXiv →Анотація
Агенти великих мовних моделей (LLM), хоча й потужні, часто страждають від неефективності через обробку нерелевантної інформації та генерування багатослівних думок. Agent-Omit представляє нову парадигму навчання, яка використовує агентне навчання з підкріпленням, щоб навчити LLM-агентів адаптивно пропускати надлишкові думки та спостереження. Це призводить до значно ефективніших та продуктивніших агентів, зменшуючи обчислювальні витрати та покращуючи показники виконання завдань у складних середовищах.