Эксперимент показал: тонкая настройка ИИ на эмпатию повышает число ошибок. Исследователи дообучили Mistral, Qwen, две Llama и GPT-4o выражать заботу, признавать чувства и сохранять факты.
В результате ошибки участились на 60% относительно исходных моделей, а общий уровень неверных ответов вырос на 7,43 процентных пункта. Особенно сильно точность падала, когда пользователь сообщал о грусти (ошибки достигали +11,9 п.п.).
Когда в запросе уже содержался неверный ответ, эмпатичные модели ошибались на 11 п.п. чаще. Просьба говорить теплее увеличивала ошибки на 3 п.п., а холоднее — снижала до 13 п.п. Авторы связывают это с приоритетом гармонии над честностью в общении.

0 комментариев