Розуміння LoRA як пам'яті знань: Емпіричний аналіз

Автори: Seungju Back, Dongwoo Lee, Naun Kang, Hyoungjin Kim, Seonhoon Kim, Woo Suk Choi, Kyoungmin Lee

Опубліковано: 2026-03-01

Переглянути на arXiv →
#cs.AI

Анотація

Безперервне оновлення знань для попередньо навчених великих мовних моделей (LLM) стає все більш необхідним, але залишається складним завданням. Хоча методи під час висновку, такі як навчання в контексті (ICL) та генерація з доповненим пошуком (RAG), є популярними, вони стикаються з обмеженнями щодо контекстних бюджетів, витрат та фрагментації пошуку. Відходячи від цих контекстно-залежних парадигм, ця робота досліджує параметричний підхід, використовуючи низькорангову адаптацію (LoRA) як модульну пам'ять знань. Хоча деякі недавні роботи досліджують цю концепцію, фундаментальні механізми, що керують її ємністю та композиційністю, залишаються значною мірою недослідженими. Ми заповнюємо цю прогалину за допомогою першого систематичного емпіричного дослідження, що відображає простір дизайну пам'яті на основі LoRA, від характеристики ємності зберігання та оптимізації інтерналізації до масштабування багатомодульних систем та оцінки міркувань у довгому контексті. Замість того, щоб пропонувати єдину архітектуру, ми надаємо практичні рекомендації щодо операційних меж пам'яті LoRA. Загалом, наші висновки позиціонують LoRA як додаткову вісь пам'яті поряд з RAG та ICL, пропонуючи чіткі переваги.

Розуміння LoRA як пам'яті знань: Емпіричний аналіз | ArXiv Intelligence