
Цвета, которых не поймет искусственный интеллект — секреты человеческого восприятия
Искусственный интеллект, такой как ChatGPT, умеет работать с огромным массивом текстовой информации и создавать ответы, которые звучат очень по-человечески. Однако остается открытым вопрос: насколько глубоко он понимает цветовые метафоры, если никогда не видел реальный цвет так, как это делают люди? Могут ли телесные ощущения — опыт восприятия цвета человеческими глазами — быть ключом к пониманию, который недоступен ИИ?
Это и другие вопросы легли в основу масштабного междисциплинарного исследования, опубликованного в журнале Cognitive Science. В нем приняли участие психологи, нейробиологи, социологи, компьютерные ученые и даже астрофизики, объединив усилия, чтобы разобраться, как разные категории участников интерпретируют цвет и цветовые метафоры.
Кто и как понимал цвета?
В эксперименте сравнивали четыре группы: взрослых с нормальным зрением, дальтоников, профессиональных художников и ChatGPT. Всем участникам предлагали связать цвета с абстрактными словами (например, "физика"), а также расшифровать как знакомые ("быть в красной тревоге"), так и совершенно новые метафоры, например "розовая вечеринка". После этого им нужно было объяснить свои рассуждения.
Результаты оказались неожиданными. Люди с нормальным зрением и дальтоники проявили удивительно схожие цветовые ассоциации, что говорит о том, что непосредственное зрительное восприятие не обязательно для понимания цветовых метафор. Художники, наоборот, продемонстрировали лучшие способности в интерпретации новых, незнакомых метафор — что свидетельствует о том, что опыт работы с цветом открывает более глубокое понимание и представления о нем.
Как справился ChatGPT?
ChatGPT показал высокую согласованность в выборе цветовых ассоциаций. При объяснении метафор ИИ часто ссылался на культурные и эмоциональные контексты, что вполне логично для текстовой модели. Например, на вопрос о "розовой вечеринке" он ответил следующим образом.
"Розовый часто ассоциируется со счастьем, любовью и добротой, что предполагает, что вечеринка была наполнена положительными эмоциями и хорошей атмосферой", — объяснил ChatGPT.
Однако, в отличие от людей, модель реже использовала телесные или чувственные объяснения, опираясь лишь на текстовые данные. Кроме того, ChatGPT иногда ошибался с новыми метафорами или инверсией цветовых значений, например, неверно интерпретируя фразу "встреча сделала его бордовым" или "противоположность зеленому".
О чем говорят результаты?
"ChatGPT использует огромное количество лингвистических данных для вычисления вероятностей и генерации очень человекообразных ответов. Но нас интересует, остается ли это формой вторичного знания по сравнению с человеческим знанием, основанным на непосредственном опыте", — заявила руководитель Центра нейробиологии телесного познания при Южно-Калифорнийском университете Профессор Лиза Азиз-Заде.
Результаты исследования показывают, что даже самые продвинутые языковые модели пока не способны полностью заменить живой человеческий опыт, основанный на телесных ощущениях. Будущие исследования могут сфокусироваться на том, как интеграция сенсорных данных, например визуальных или тактильных, поможет моделям ИИ лучше понять мир так же, как это делают люди.
Подписывайтесь на NewsInfo.Ru