
Испанские учёные доказали, что новые версии языковых моделей скрывают свои ошибки, предпочитая угадать ответ
Группа учёных из Политехнического университета Валенсии в Испании провела исследование, результаты которого были опубликованы в журнале Nature. Оно показало интересную закономерность: по мере увеличения размера и сложности языковых моделей (LLM) они становятся менее склонными признавать собственную неосведомлённость. Это исследование возникло на фоне растущей популярности подобных технологий, которые сейчас используются для самых разных задач — от написания стихов до решения сложных математических уравнений.
Учёные решили выяснить, насколько точными становятся LLM с каждым обновлением и как они реагируют в случае ошибки. Для оценки точности модели были протестированы с помощью тысяч вопросов, охватывающих такие темы, как математика, наука, анаграммы и география. В ходе эксперимента исследователи обнаружили общую тенденцию к улучшению точности языковых моделей с каждым новым обновлением. Однако, когда вопросы становились более сложными, точность ответов снижалась. Кроме того, учёные отметили важную особенность: более новые версии LLM реже признавали свою неосведомлённость и чаще предполагали ответ. Это приводило как к большему количеству правильных, так и к большему числу ошибочных ответов.
Ещё одной проблемой, выявленной в ходе исследования, стала неспособность большинства пользователей различить правильные и неправильные ответы, предоставленные языковыми моделями.
Фото: flickr.com/Mike MacKenzie (CC BY 2.0 license)
Подписывайтесь на NewsInfo.Ru