Інкрементальне навчання за допомогою кількох прикладів класів через регуляризацію генеративної спільної пам'яті
Автори: Kexin Bao, Yong Li, Dan Zeng, Shiming Ge
Опубліковано: 2026-01-12
Переглянути на arXiv →Анотація
Ця робота представляє підхід регуляризації генеративної спільної пам'яті для інкрементального навчання за допомогою кількох прикладів класів (FSCIL). Метод використовує генеративну адаптацію домену для тонкої настройки попередньо навченого кодувальника на кількох прикладах базових класів, включаючи декодер маскованого автокодувальника та класифікатор для ефективного навчання представлень. Він використовує класово-орієнтовані представлення та пам'ять ваг для спільної регуляризації інкрементального навчання, підвищуючи точність розпізнавання, одночасно зменшуючи катастрофічне забування та перенавчання.