Самодистиляція забезпечує безперервне навчання

Автори: Idan Shenfeld, Tianxiao Shen, Jonathan Gordon

Опубліковано: 2026-01-27

Переглянути на arXiv →
#cs.AI

Анотація

Ця стаття представляє Self-Distillation Fine-Tuning (SDFT), метод, що дозволяє великим мовним моделям безперервно набувати нових навичок та знань з демонстрацій без катастрофічного забування. SDFT використовує навчання в контексті, застосовуючи саму модель як вчителя, перевершуючи традиційне тонке налаштування та дозволяючи моделям накопичувати численні навички з часом.

Самодистиляція забезпечує безперервне навчання

Автори: Idan Shenfeld, Tianxiao Shen, Jonathan Gordon

Опубліковано: 2026-01-27

Переглянути на arXiv →
#cs.AI

Анотація

Ця стаття представляє Self-Distillation Fine-Tuning (SDFT), метод, що дозволяє великим мовним моделям безперервно набувати нових навичок та знань з демонстрацій без катастрофічного забування. SDFT використовує навчання в контексті, застосовуючи саму модель як вчителя, перевершуючи традиційне тонке налаштування та дозволяючи моделям накопичувати численні навички з часом.

FEEDBACK

Проекти

Немає проектів