Мовні моделі демонструють непослідовні упередження щодо алгоритмічних агентів та людських експертів

Автори: Jessica Y. Bo, Lillio Mok, Ashton Anderson

Опубліковано: 2026-02-26

Переглянути на arXiv →
#cs.AI

Анотація

Це дослідження вивчає, як великі мовні моделі сприймають та виявляють упередження при оцінці можливостей та надійності алгоритмічних агентів у порівнянні з людськими експертами. Результати показують непослідовні упередження, що свідчить про те, що контекст та формулювання значно впливають на судження LLM, з критичними наслідками для розробки справедливих та етичних систем штучного інтелекту, що взаємодіють як з людьми, так і з іншими ШІ. Розуміння цих упереджень має першочергове значення для розробки надійних програм ШІ в таких чутливих сферах, як охорона здоров'я, фінанси та юридичні послуги.

Мовні моделі демонструють непослідовні упередження щодо алгоритмічних агентів та людських експертів

Автори: Jessica Y. Bo, Lillio Mok, Ashton Anderson

Опубліковано: 2026-02-26

Переглянути на arXiv →
#cs.AI

Анотація

Це дослідження вивчає, як великі мовні моделі сприймають та виявляють упередження при оцінці можливостей та надійності алгоритмічних агентів у порівнянні з людськими експертами. Результати показують непослідовні упередження, що свідчить про те, що контекст та формулювання значно впливають на судження LLM, з критичними наслідками для розробки справедливих та етичних систем штучного інтелекту, що взаємодіють як з людьми, так і з іншими ШІ. Розуміння цих упереджень має першочергове значення для розробки надійних програм ШІ в таких чутливих сферах, як охорона здоров'я, фінанси та юридичні послуги.

FEEDBACK

Проекти

Немає проектів