Лента гладит по голове и врёт: умные алгоритмы кормят мозг крошками знаний и морем уверенности
Лента в социальных сетях создаёт ощущение осведомлённости, даже когда знания оказываются фрагментарными. Персонализированные алгоритмы подбирают контент так, что человеку кажется, будто он глубоко разобрался в теме. Однако исследования показывают: такая уверенность часто не имеет под собой прочной основы. Об этом сообщает Journal of Experimental Psychology: General.
Когда персонализация мешает учёбе
Рекомендательные алгоритмы создавались для удобства — они подстраивают контент под интересы пользователя. Но исследование показывает, что в процессе обучения такой подход может давать обратный эффект. Когда алгоритм решает, какую информацию человек видит, круг изучаемого материала сужается. Пользователь получает лишь часть доступных данных и воспринимает её как полную картину, как это часто происходит в социальных сетях.
Эксперимент показал, что участники, полагавшиеся на алгоритмическую выдачу, изучали меньше информации и выбирали её избирательно. Они чаще ошибались при проверке знаний, но при этом были уверены в своих ответах.
"Полученные результаты вызывают беспокойство", — сказал исследователь Гивон Баг.
Предвзятость без исходных знаний
Ранее влияние алгоритмов в основном изучали на примере тем, где у людей уже есть собственное мнение. Новая работа показала: искажения возникают даже тогда, когда человек сталкивается с темой впервые.
"Но наше исследование показывает, что даже если вы ничего не знаете о теме, эти алгоритмы могут сразу же начать формировать предубеждения и привести к искажённому восприятию реальности", — говорит Баг.
Такое ощущение уверенности при нехватке знаний усиливает когнитивные искажения и перекликается с тем, как формируется вера в теории заговора, где ограниченная информация воспринимается как исчерпывающая.
Иллюзия полноты картины
Соавтор исследования, профессор психологии Университета штата Огайо Брэндон Тёрнер, отмечает, что люди склонны переносить частные знания на всю область целиком.
"Люди упускают информацию, когда следуют алгоритму, но им кажется, что-то, что они знают, применимо и к тем аспектам среды, с которыми они никогда не сталкивались", — говорит Тернер.
Авторы приводят пример со стриминговыми сервисами: если пользователь начинает с одного жанра, алгоритм продолжает предлагать похожие фильмы. В итоге формируется искажённое представление о культуре или кинематографе страны.
Эксперимент с вымышленными объектами
Чтобы исключить влияние прошлого опыта, исследователи провели онлайн-эксперимент с участием 346 человек. Участникам предложили изучить категории вымышленных инопланетян с несколькими характеристиками, не сообщая, сколько типов существует.
В одной группе люди последовательно изучали все признаки. В другой — выбор направлял алгоритм, поощряя повторение уже просмотренных характеристик. Хотя доступ ко всей информации сохранялся, участники всё чаще игнорировали новые данные. Это приводило к ошибкам при классификации новых объектов при высокой уверенности в своих решениях.
Возможные последствия
Авторы подчёркивают, что эффект важен не только для лабораторных условий. Алгоритмы активно используются в образовательных сервисах, соцсетях и детских приложениях.
"Просмотр похожего контента часто не способствует обучению. Это может создавать проблемы для пользователей и, в конечном счёте, для общества", — сказал Тёрнер.
Исследование показывает: персонализация без осознанного контроля может не расширять кругозор, а незаметно сужать его, формируя иллюзию глубоких знаний там, где их на самом деле не хватает.
Подписывайтесь на NewsInfo.Ru