Інкрементальне навчання за допомогою кількох прикладів класів через регуляризацію генеративної спільної пам'яті

Автори: Kexin Bao, Yong Li, Dan Zeng, Shiming Ge

Опубліковано: 2026-01-12

Переглянути на arXiv →
#cs.AI

Анотація

Ця робота представляє підхід регуляризації генеративної спільної пам'яті для інкрементального навчання за допомогою кількох прикладів класів (FSCIL). Метод використовує генеративну адаптацію домену для тонкої настройки попередньо навченого кодувальника на кількох прикладах базових класів, включаючи декодер маскованого автокодувальника та класифікатор для ефективного навчання представлень. Він використовує класово-орієнтовані представлення та пам'ять ваг для спільної регуляризації інкрементального навчання, підвищуючи точність розпізнавання, одночасно зменшуючи катастрофічне забування та перенавчання.

Інкрементальне навчання за допомогою кількох прикладів класів через регуляризацію генеративної спільної пам'яті

Автори: Kexin Bao, Yong Li, Dan Zeng, Shiming Ge

Опубліковано: 2026-01-12

Переглянути на arXiv →
#cs.AI

Анотація

Ця робота представляє підхід регуляризації генеративної спільної пам'яті для інкрементального навчання за допомогою кількох прикладів класів (FSCIL). Метод використовує генеративну адаптацію домену для тонкої настройки попередньо навченого кодувальника на кількох прикладах базових класів, включаючи декодер маскованого автокодувальника та класифікатор для ефективного навчання представлень. Він використовує класово-орієнтовані представлення та пам'ять ваг для спільної регуляризації інкрементального навчання, підвищуючи точність розпізнавання, одночасно зменшуючи катастрофічне забування та перенавчання.

FEEDBACK

Проекти

Немає проектів

Інкрементальне навчання за допомогою кількох прикладів класів через регуляризацію генеративної спільної пам'яті | ArXiv Intelligence