Мовні моделі демонструють непослідовні упередження щодо алгоритмічних агентів та людських експертів
Автори: Jessica Y. Bo, Lillio Mok, Ashton Anderson
Опубліковано: 2026-02-26
Переглянути на arXiv →Анотація
Це дослідження вивчає, як великі мовні моделі сприймають та виявляють упередження при оцінці можливостей та надійності алгоритмічних агентів у порівнянні з людськими експертами. Результати показують непослідовні упередження, що свідчить про те, що контекст та формулювання значно впливають на судження LLM, з критичними наслідками для розробки справедливих та етичних систем штучного інтелекту, що взаємодіють як з людьми, так і з іншими ШІ. Розуміння цих упереджень має першочергове значення для розробки надійних програм ШІ в таких чутливих сферах, як охорона здоров'я, фінанси та юридичні послуги.