VideoMaMa: Матування відео з керуванням маскою за допомогою генеративного апріорі
Автори: Sangbeom Lim, Seoung Wug Oh, Jiahui Huang, Heeji Yoon, Seungryong Kim, Joon-Young Lee
Опубліковано: 2026-01-20
Переглянути на arXiv →Анотація
Узагальнення моделей матування відео на реальні відео залишається значним викликом через дефіцит розмічених даних. Ми представляємо VideoMaMa, нову керовану маскою структуру для матування відео, яка перетворює грубі маски сегментації на піксельно-точні альфа-матові зображення, використовуючи попередньо навчені моделі дифузії відео. VideoMaMa демонструє сильну узагальненість без попереднього навчання на реальних кадрах, навіть якщо вона навчена виключно на синтетичних даних. Цей підхід включає масштабований конвеєр псевдо-розмітки для великомасштабного матування відео та створення набору даних Matting Anything in Video (MA-V), придатного для професійного редагування відео та створення контенту.