ИИ не думает и не знает — но слова делают его почти живым и заставляют верить в несуществующий разум
Действительно ли искусственный интеллект способен "знать" и "понимать"? Этот вопрос всё чаще возникает по мере того, как ИИ становится частью повседневной жизни и общения. Формулировки, которыми люди описывают работу алгоритмов, кажутся привычными, но именно они формируют ожидания и доверие к технологиям. Иногда язык делает системы более человечными в глазах аудитории, чем они являются на самом деле. Об этом сообщает журнал Technical Communication Quarterly (TCQ).
Почему слова о мышлении могут вводить в заблуждение
В обычной речи мы постоянно используем ментальные глаголы — "думать", "знать", "помнить", "понимать". Они помогают описывать внутренний опыт человека, его намерения и мотивацию. Однако при переносе таких слов на искусственный интеллект возникает риск подмены понятий, особенно если забывать о принципах работы технологий и о том, как устроен человеческий язык и мышление в целом, что подробно обсуждается в исследованиях о том, как человеческий язык снижает когнитивную нагрузку мозга.
"Мы постоянно используем ментальные глаголы в повседневной жизни, поэтому логично, что мы можем использовать их и при разговоре о машинах — это помогает нам установить с ними связь", — говорит профессор английского языка Джо Макевич из Университета штата Айова.
"Но в то же время, когда мы применяем ментальные глаголы к машинам, мы рискуем стереть грань между тем, что могут делать люди и искусственный интеллект", — добавляет профессор.
Исследователи подчёркивают: у ИИ нет сознания, эмоций или желаний. Он не "хочет" и не "понимает" в человеческом смысле, а лишь обрабатывает данные и выстраивает ответы на основе статистических закономерностей. Тем не менее такие формулировки могут незаметно усиливать доверие к системам и создавать иллюзию самостоятельного мышления.
Как журналисты говорят об ИИ на практике
Чтобы проверить, насколько часто подобный язык используется в медиа, исследовательская группа проанализировала корпус News on the Web, включающий более 20 миллиардов слов из англоязычных новостей разных стран. Учёные отслеживали сочетания терминов "ИИ" и "ChatGPT" с ментальными глаголами и оценивали контекст их употребления.
Результаты показали, что в новостных текстах антропоморфные формулировки встречаются заметно реже, чем в устной речи. Чаще всего слово "нуждается" употреблялось в техническом смысле, а не как указание на внутренние "потребности". Это особенно важно на фоне других работ, показывающих, как алгоритмы и формулировки могут влиять на восприятие знаний и уверенности, в том числе в контексте того, как алгоритмы усилили уверенность в ошибочных ответах.
Где проходит граница между техникой и очеловечиванием
Не каждое использование ментального глагола автоматически делает ИИ "человеком". В выражениях вроде "ИИ нуждается в данных" или "модель должна быть обучена" речь идёт о требованиях к системе, а не о её намерениях. Такой язык сравним с фразами "двигателю нужен бензин" или "программе требуется обновление".
Однако существуют и более тонкие случаи, когда от ИИ ожидают "понимания реального мира" или способности действовать этично. Здесь уже появляется намёк на человеческие качества, и именно такие формулировки, по мнению авторов исследования, требуют особой осторожности.
"Эти примеры показывают, что антропоморфизация — это не "всё или ничего”, а целый спектр", — отмечает профессор Джанин Оун.
В итоге работа исследователей подчёркивает: выбор слов имеет значение. Язык влияет на то, как общество воспринимает возможности искусственного интеллекта, уровень его надёжности и роль людей, которые стоят за разработкой и внедрением технологий. По мере развития ИИ авторам и редакторам всё чаще придётся осознанно подходить к формулировкам, чтобы не создавать ложных ожиданий и не размывать границу между человеком и машиной.
Подписывайтесь на NewsInfo.Ru