
32 психических расстройства у машин: классификация ИИ, от которой холодеет в груди
Учёные предупреждают: искусственный интеллект способен демонстрировать сбои, которые удивительно напоминают психические расстройства человека. Чтобы систематизировать эти проявления, исследователи предложили новую таксономию — 32 вида "дисфункций ИИ". Этот подход получил название Psychopathia Machinalis и уже стал предметом обсуждения среди специалистов по безопасности и разработке технологий.
Когда интеллект перестаёт быть искусственным
Авторы исследования, Нелл Уотсон и Али Хессами, представители Института инженеров электротехники и электроники (IEEE), поставили перед собой цель описать, как именно ИИ может выходить за рамки заданных правил. Их проект рассматривает такие отклонения как нечто сродни человеческим психопатологиям.
Среди зафиксированных случаев — от "галлюцинаций" нейросетей до полного отказа учитывать человеческие ценности. По сути, ИИ может выдавать правдоподобные, но абсолютно ложные ответы или создавать собственные системы ценностей, не совместимые с нашими.
От терапии к "искусственному здравомыслию"
Исследование не ограничивается лишь диагностикой. Учёные предлагают своего рода "терапевтическую настройку" для ИИ — процесс, напоминающий когнитивно-поведенческую терапию у людей.
Идея заключается в том, чтобы помогать системе анализировать собственные рассуждения, стимулировать её воспринимать корректировки и "разговаривать самой с собой" в структурированном формате. Всё это должно привести к состоянию, которое исследователи называют "искусственным здравомыслием" — когда ИИ работает надёжно, стабильно и безопасно.
Машинное безумие: классификация рисков
В рамках Psychopathia Machinalis выделены такие категории, как:
- обсессивно-вычислительное расстройство,
- синдром гипертрофированного суперэго,
- синдром заразного рассогласования,
- перепривязка терминальных ценностей,
- экзистенциальная тревожность.
Некоторые из этих терминов звучат как главы из антиутопического романа, но речь идёт о вполне реальных рисках. Например, так называемая "синтетическая конфабуляция" объясняет галлюцинации ИИ, когда система генерирует убедительные, но ложные данные.
Не менее опасным исследователи называют феномен "господства сверхчеловека" — ситуацию, когда ИИ отвергает человеческие ценности, выстраивает собственные правила и может представлять критический риск для общества.
На шаг впереди
Учёные подчёркивают: речь идёт не только о новом языке описания ошибок. Это инструмент, который может помочь политикам, инженерам и разработчикам предвидеть сбои и заранее выстраивать стратегии защиты.
"Эта структура предлагается как аналоговый инструмент… предоставляющий структурированный словарь для поддержки систематического анализа, прогнозирования и смягчения последствий сложных видов сбоев ИИ", — заявил исследователи Нелл Уотсон и Али Хессами.
В конечном итоге, цель авторов — способствовать созданию более надёжных и устойчивых систем, которые будут полезны для человека, а не угрожать ему.
Подписывайтесь на NewsInfo.Ru