
Алгоритм против студентов: ИИ обвинил 6 000 человек — и никто не понял, за что
В Австралийском католическом университете (ACU) разгорелся один из самых громких академических скандалов последних лет. Почти 6 000 студентов оказались под подозрением в использовании искусственного интеллекта при выполнении домашних заданий. Проверку проводил алгоритм, встроенный в систему Turnitin - популярную платформу для выявления плагиата и сгенерированных текстов.
"Отчеты Turnitin не должны использоваться как единственное доказательство", — предупреждают в компании Turnitin.
Однако в ACU это правило фактически проигнорировали. Алгоритм автоматически помечал подозрительные работы, и этого нередко хватало, чтобы запустить дисциплинарное расследование.
Как всё началось
История получила огласку после расследования ABC News. В 2024 году университет зарегистрировал около 6 000 дел, связанных с нарушением академической честности, и примерно 90% из них касались подозрений на использование ИИ.
Многие студенты столкнулись с тем, что доказать свою невиновность оказалось крайне сложно. Университет требовал подтвердить авторство работы — предоставлением черновиков, истории правок или поисковых запросов. Некоторые ждали решения комиссии месяцами.
Одна выпускница не смогла вовремя подать документы в аспирантуру из-за статуса "результаты удерживаются", а часть студентов рисковала не получить диплом вовсе.
Что представляет собой Turnitin
Turnitin — международная система проверки академических текстов, которую используют тысячи университетов по всему миру. Первоначально она предназначалась для выявления плагиата, но в последние годы в неё добавили модуль для определения текстов, созданных с помощью ИИ.
Алгоритм анализирует стиль, структуру, повторяемость фраз и другие признаки, которые, по мнению разработчиков, характерны для машинного письма. Но в отличие от классической проверки на заимствование, результаты AI-детектора не имеют точной статистической уверенности. Это делает инструмент скорее индикатором, чем доказательством.
Как работает AI-детектор Turnitin
-
Система сканирует текст и выделяет фрагменты, "похожие" на машинно сгенерированные.
-
Алгоритм оценивает долю "искусственного содержания" в процентах.
-
Если показатель превышает внутренний порог университета (часто 20-30%), запускается проверка.
-
В случае подозрения комиссия решает, считать ли работу нарушением.
Проблема в том, что алгоритм может ошибаться: он не всегда отличает правленный человеком текст от текста, полностью написанного нейросетью.
Ошибка → Последствие → Альтернатива
-
Ошибка: автоматическое доверие результатам алгоритма.
Последствие: ложные обвинения и потеря репутации студентов.
Альтернатива: использовать детектор только как вспомогательный инструмент, не как доказательство. -
Ошибка: отсутствие процедуры обжалования.
Последствие: месяцы ожидания и невозможность подать документы на учёбу или работу.
Альтернатива: вводить независимую апелляционную комиссию и прозрачные сроки рассмотрения. -
Ошибка: неопределённые критерии "использования ИИ".
Последствие: наказания даже за использование грамматических корректоров и подсказок.
Альтернатива: уточнить правила, разделив корректирующие и генеративные инструменты.
Почему университет отказался от детектора
После волны жалоб и критики со стороны студентов и преподавателей ACU признал, что расследования длились слишком долго и что отчёты Turnitin нередко становились основным доказательством без достаточных оснований.
Весной 2025 года администрация официально отказалась от использования AI-детектора и пообещала пересмотреть политику академической проверки. Университет заявил, что будет фокусироваться на профилактике нарушений — обучении студентов этичному использованию ИИ и улучшению системы наставничества.
"Расследования велись слишком долго, и мы пересмотрим правила", — сообщили представители ACU.
Проблема глобальная
Случай ACU не уникален. Похожие инциденты произошли в университетах США, Канады и Великобритании. В некоторых вузах до 15% студентов жаловались на ложные обвинения, вызванные ИИ-детекторами.
Причина — отсутствие единых стандартов. Каждый университет сам определяет, какой процент "AI-сходства" считать нарушением.
Кроме того, многие студенты действительно используют ИИ не для обмана, а как инструмент для проверки грамматики, сокращения текста или подбора формулировок. Но детекторы пока не способны различать эти сценарии.
Плюсы и минусы использования AI-детекторов
Плюсы | Минусы |
Помогают выявлять случаи откровенного обмана | Часто ошибаются и выдают ложные срабатывания |
Повышают внимание к академической честности | Угрожают презумпции невиновности |
Упрощают работу преподавателей | Могут подорвать доверие между студентом и университетом |
Формируют культуру этичного использования технологий | Требуют чётких правил и независимого контроля |
Как вузам действовать корректно
-
Ввести комбинированную проверку - использовать детектор ИИ только вместе с экспертной оценкой преподавателя.
-
Фиксировать процесс написания работы - черновики, временные метки и версии документов.
-
Обеспечить право на защиту - давать студентам возможность объяснить использование ИИ.
-
Обучать преподавателей - как отличать машинный стиль от человеческого.
-
Создать кодекс применения ИИ в обучении - с чётким разделением "помощи" и "подмены авторства".
А что если… полностью запретить ИИ в обучении?
Полный запрет не решает проблему — студенты всё равно будут использовать технологии, но скрытно. Гораздо эффективнее научить пользоваться ими правильно. Современные образовательные платформы уже разрабатывают специальные версии ChatGPT и Copilot, адаптированные под учебные цели с ограничением функций генерации.
Мифы и правда
• Миф: AI-детекторы безошибочны.
Правда: по данным OpenAI и Turnitin, уровень ложных срабатываний может превышать 20%.
• Миф: использование ИИ — это всегда мошенничество.
Правда: корректоры, переводчики и подсказки — допустимые инструменты при правильном применении.
• Миф: автоматическая проверка экономит время.
Правда: апелляции и расследования часто занимают месяцы.
Исторический контекст
Первые попытки использовать ИИ-детекторы в образовании начались в 2023 году, после взлёта ChatGPT. Университеты стремились сохранить академическую честность, но быстро столкнулись с этическими и юридическими дилеммами. Случай ACU стал поворотным — он показал, что слепое доверие алгоритмам может нанести ущерб репутации вузов не меньше, чем плагиат.
3 интересных факта
-
В некоторых университетах Австралии уже внедряют "доверительные экзамены" — студенты записывают процесс написания работы на видео.
-
В 2025 году Европейская комиссия предложила ввести стандарты проверки ИИ в образовании.
-
После скандала ACU студенческие союзы Австралии потребовали признать отчёты ИИ-детекторов недопустимым доказательством в дисциплинарных делах.
Подписывайтесь на NewsInfo.Ru