Спостереження та засоби усунення упереджень великих мовних моделей у циклі самоспоживаючої перформативної дії

Автори: Yaxuan Wang, Zhongteng Cai, Yujia Bao, Xueru Zhang, Yang Liu

Опубліковано: 2026-01-08

Переглянути на arXiv →
#cs.AI

Анотація

Швидкий розвиток великих мовних моделей (LLM) призвів до зростання інтересу до використання синтетичних даних для навчання майбутніх моделей. Однак це створює самоспоживаючий цикл перенавчання, коли моделі навчаються на власних виходах і можуть спричинити зниження продуктивності та виникнення упереджень. У цьому дослідженні ми представляємо концепцію циклу самоспоживаючої перформативної дії (SCPL) та досліджуємо роль синтетичних даних у формуванні упереджень під час цих динамічних ітеративних процесів навчання. Ми розробляємо стратегію відбору на основі винагороди для зменшення упередженості, рухаючись до більш надійних систем, що самовдосконалюються.

Спостереження та засоби усунення упереджень великих мовних моделей у циклі самоспоживаючої перформативної дії

Автори: Yaxuan Wang, Zhongteng Cai, Yujia Bao, Xueru Zhang, Yang Liu

Опубліковано: 2026-01-08

Переглянути на arXiv →
#cs.AI

Анотація

Швидкий розвиток великих мовних моделей (LLM) призвів до зростання інтересу до використання синтетичних даних для навчання майбутніх моделей. Однак це створює самоспоживаючий цикл перенавчання, коли моделі навчаються на власних виходах і можуть спричинити зниження продуктивності та виникнення упереджень. У цьому дослідженні ми представляємо концепцію циклу самоспоживаючої перформативної дії (SCPL) та досліджуємо роль синтетичних даних у формуванні упереджень під час цих динамічних ітеративних процесів навчання. Ми розробляємо стратегію відбору на основі винагороди для зменшення упередженості, рухаючись до більш надійних систем, що самовдосконалюються.

FEEDBACK

Проекти

Немає проектів

Спостереження та засоби усунення упереджень великих мовних моделей у циклі самоспоживаючої перформативної дії | ArXiv Intelligence