
ИИ оказался глупым: в нём не нашли признаков мышления
Специалисты из Университета штата Аризона (США) опубликовали исследование, в котором утверждают, что результаты работы моделей искусственного интеллекта (ИИ) не следует рассматривать как проявления мышления. Работы ученых были опубликованы на платформе препринтов arXiv.
Что исследовали ученые?
Команда под руководством Суббарао Камбхампати заявила, что ответы ИИ могут выглядеть как результат человеческого разума, но на самом деле они являются статистически сгенерированными последовательностями текста, лишенными реального смысла или алгоритмической значимости. Исследователи отметили, что на самом деле тексты, сгенерированные ИИ, — это лишь поверхностные фрагменты, которые не отражают мыслительный процесс. Они сравнили попытки приписывать мыслительный процесс ИИ с концептом "мыслительного процесса культа карго", когда человеческие действия или результаты воспринимаются как следствие более глубокого процесса, хотя это всего лишь имитация.
Что стоит за ответами ИИ?
Американские ученые считают, что ответы ИИ не являются результатом настоящего рассуждения или мысли. Несмотря на то, что на первый взгляд ответы могут выглядеть как пошаговые рассуждения, на самом деле они представляют собой побочный эффект оптимизаций, внедренных в модели. Даже когда нейросети генерируют бессмысленные фразы, в конце они могут предоставить верный ответ.
Гуманизация ИИ
Кроме того, специалисты заметили, что разработчики ИИ иногда добавляют в тексты такие слова, как "хм" или "ага", чтобы создать впечатление, что система "думает" или ведет осознанный диалог. Это, по мнению ученых, помогает пользователю ощутить, что он общается с разумным существом, хотя на самом деле ИИ просто следует алгоритмам.
В заключение, исследователи подчеркивают, что вместо того чтобы фокусироваться на "гуманизации" работы нейросетей, разработчикам следует сосредоточиться на повышении производительности и эффективности моделей, а не пытаться заставить ИИ имитировать человеческие размышления.
Подписывайтесь на NewsInfo.Ru