Розширення інтелекту: гібридна структура для масштабованих та стабільних пояснень
Автори: Lawrence Krukrubo, Julius Odede, Olawande Olusegun
Опубліковано: 2025-12-22
Переглянути на arXiv →Анотація
Сучасні підходи до пояснюваного штучного інтелекту (XAI) стикаються з "дилемою масштабованості-стабільності": постфактумні методи (наприклад, LIME, SHAP) легко масштабуються, але нестабільні, тоді як керовані фреймворки (наприклад, TED) пропонують стабільність, але вимагають надмірних людських зусиль для маркування кожного навчального екземпляра. Ця стаття представляє гібридний фреймворк LRR-TED, що вирішує цю дилему за допомогою нової "асиметрії відкриття". Застосований до прогнозування відтоку клієнтів, автоматизовані засоби вивчення правил (GLRM) чудово ідентифікують "безпечні сітки" (моделі утримання), але мають труднощі з "пастками ризику" (тригерами відтоку) – явище, яке називається принципом Анни Кареніної відтоку. Ініціалізуючи матрицю пояснень автоматизованими правилами безпеки та доповнюючи її Парето-оптимальним набором із чотирьох визначених людиною правил ризику, їхній підхід досягає 94,00% точності прогнозування. Це перевершує експертну базову модель з 8 правилами, одночасно зменшуючи зусилля з анотації на 50%, перетворюючи експертів з "авторів правил" на "обробників винятків" у штучному інтелекті з циклом участі людини.