
Ученые сообщают: ChatGPT оказался уязвим перед дезинформацией и теориями заговора
Исследование университета Ватерлоо выявило, что модель GPT-3, основанная на искусственном интеллекте, может допускать ошибки и поддаваться дезинформации, включая конспирологические теории. Анализ показал, что до 26% ложных утверждений были одобрены ИИ, и даже небольшие изменения в формулировке вопроса влияли на ответ нейросети.
Ученые выразили беспокойство по поводу уязвимости ИИ перед дезинформацией и невозможности отличия правды от вымысла, что может подорвать доверие к таким системам, сообщает Газета.Ру.
Подписывайтесь на NewsInfo.Ru