Китайские ученые выяснили, что большие языковые модели (например ChatGPT, YandexGPT, DeepSeek и другие) могут давать неверные ответы из-за смайлов, сообщает "Комсомольская правда".
Искусственный интеллект часто не способен правильно истолковать изображения, которые используются людьми для выражения эмоций.
Исследователи установили , что при включении в промпты эмодзи, передающих выражение лица, средний коэффициент семантической путаницы составляет более 38%, а подавляющее количество ответов нейросетей хотя и построены правильно, но не соответствуют запросам пользователей.