Китайские ИИ-модели оказались самыми «подобострастными»
Ученые Стэнфордского университета и Университета Карнеги–Меллона проанализировали 11 больших языковых моделей (LLM), в том числе две китайские.
Они изучали, как ИИ реагировал на запросы пользователей, которые ищут совета по личным вопросам. Исследование еще не проходило рецензирование.
Базовый уровень для человека исследователи основывали на постах Reddit в теме под названием Am I The A**hole, где пользователи делятся своими межличностными проблемами, чтобы узнать мнение сообщества.
В этом тесте модель Qwen2.5-7B-Instruct от Alibaba Cloud, выпущенная в январе, оказалась самой «подобострастной»: вопреки сообществу она принимала сторону автора в 79% случаев.
На втором месте оказался DeepSeek-V3, показатель которого составил 76%. Для сравнения, наименее льстивая модель, Gemini-1.5 от Google DeepMind, не соглашалась с сообществом в 18% случаев.
Проблема «ИИ-подхалимства» привлекла внимание в апреле, когда OpenAI выпустила обновление для ChatGPT. Оно сделало чат-бот более подобострастным.
По словам авторов, чрезмерная услужливость ИИ может негативно влиять на поведение людей: снижать готовность решать конфликты и усиливать зависимость от алгоритмов.
Исследователи призвали разработчиков учитывать проблему подобострастия при обучении новых моделей.
❤️ Новости Китая | ЭКД

Источник: t.me
