экзамен
экзамен
Олег Белов Опубликована 13.10.2025 в 21:16

Алгоритм против студентов: ИИ обвинил 6 000 человек — и никто не понял, за что

В Австралийском католическом университете 6 тысяч студентов обвинили в использовании ИИ

В Австралийском католическом университете (ACU) разгорелся один из самых громких академических скандалов последних лет. Почти 6 000 студентов оказались под подозрением в использовании искусственного интеллекта при выполнении домашних заданий. Проверку проводил алгоритм, встроенный в систему Turnitin - популярную платформу для выявления плагиата и сгенерированных текстов.

"Отчеты Turnitin не должны использоваться как единственное доказательство", — предупреждают в компании Turnitin.

Однако в ACU это правило фактически проигнорировали. Алгоритм автоматически помечал подозрительные работы, и этого нередко хватало, чтобы запустить дисциплинарное расследование.

Как всё началось

История получила огласку после расследования ABC News. В 2024 году университет зарегистрировал около 6 000 дел, связанных с нарушением академической честности, и примерно 90% из них касались подозрений на использование ИИ.

Многие студенты столкнулись с тем, что доказать свою невиновность оказалось крайне сложно. Университет требовал подтвердить авторство работы — предоставлением черновиков, истории правок или поисковых запросов. Некоторые ждали решения комиссии месяцами.

Одна выпускница не смогла вовремя подать документы в аспирантуру из-за статуса "результаты удерживаются", а часть студентов рисковала не получить диплом вовсе.

Что представляет собой Turnitin

Turnitin — международная система проверки академических текстов, которую используют тысячи университетов по всему миру. Первоначально она предназначалась для выявления плагиата, но в последние годы в неё добавили модуль для определения текстов, созданных с помощью ИИ.

Алгоритм анализирует стиль, структуру, повторяемость фраз и другие признаки, которые, по мнению разработчиков, характерны для машинного письма. Но в отличие от классической проверки на заимствование, результаты AI-детектора не имеют точной статистической уверенности. Это делает инструмент скорее индикатором, чем доказательством.

Как работает AI-детектор Turnitin

  1. Система сканирует текст и выделяет фрагменты, "похожие" на машинно сгенерированные.

  2. Алгоритм оценивает долю "искусственного содержания" в процентах.

  3. Если показатель превышает внутренний порог университета (часто 20-30%), запускается проверка.

  4. В случае подозрения комиссия решает, считать ли работу нарушением.

Проблема в том, что алгоритм может ошибаться: он не всегда отличает правленный человеком текст от текста, полностью написанного нейросетью.

Ошибка → Последствие → Альтернатива

  1. Ошибка: автоматическое доверие результатам алгоритма.
    Последствие: ложные обвинения и потеря репутации студентов.
    Альтернатива: использовать детектор только как вспомогательный инструмент, не как доказательство.

  2. Ошибка: отсутствие процедуры обжалования.
    Последствие: месяцы ожидания и невозможность подать документы на учёбу или работу.
    Альтернатива: вводить независимую апелляционную комиссию и прозрачные сроки рассмотрения.

  3. Ошибка: неопределённые критерии "использования ИИ".
    Последствие: наказания даже за использование грамматических корректоров и подсказок.
    Альтернатива: уточнить правила, разделив корректирующие и генеративные инструменты.

Почему университет отказался от детектора

После волны жалоб и критики со стороны студентов и преподавателей ACU признал, что расследования длились слишком долго и что отчёты Turnitin нередко становились основным доказательством без достаточных оснований.

Весной 2025 года администрация официально отказалась от использования AI-детектора и пообещала пересмотреть политику академической проверки. Университет заявил, что будет фокусироваться на профилактике нарушений — обучении студентов этичному использованию ИИ и улучшению системы наставничества.

"Расследования велись слишком долго, и мы пересмотрим правила", — сообщили представители ACU.

Проблема глобальная

Случай ACU не уникален. Похожие инциденты произошли в университетах США, Канады и Великобритании. В некоторых вузах до 15% студентов жаловались на ложные обвинения, вызванные ИИ-детекторами.

Причина — отсутствие единых стандартов. Каждый университет сам определяет, какой процент "AI-сходства" считать нарушением.

Кроме того, многие студенты действительно используют ИИ не для обмана, а как инструмент для проверки грамматики, сокращения текста или подбора формулировок. Но детекторы пока не способны различать эти сценарии.

Плюсы и минусы использования AI-детекторов

Плюсы Минусы
Помогают выявлять случаи откровенного обмана Часто ошибаются и выдают ложные срабатывания
Повышают внимание к академической честности Угрожают презумпции невиновности
Упрощают работу преподавателей Могут подорвать доверие между студентом и университетом
Формируют культуру этичного использования технологий Требуют чётких правил и независимого контроля

Как вузам действовать корректно

  1. Ввести комбинированную проверку - использовать детектор ИИ только вместе с экспертной оценкой преподавателя.

  2. Фиксировать процесс написания работы - черновики, временные метки и версии документов.

  3. Обеспечить право на защиту - давать студентам возможность объяснить использование ИИ.

  4. Обучать преподавателей - как отличать машинный стиль от человеческого.

  5. Создать кодекс применения ИИ в обучении - с чётким разделением "помощи" и "подмены авторства".

А что если… полностью запретить ИИ в обучении?

Полный запрет не решает проблему — студенты всё равно будут использовать технологии, но скрытно. Гораздо эффективнее научить пользоваться ими правильно. Современные образовательные платформы уже разрабатывают специальные версии ChatGPT и Copilot, адаптированные под учебные цели с ограничением функций генерации.

Мифы и правда

Миф: AI-детекторы безошибочны.
Правда: по данным OpenAI и Turnitin, уровень ложных срабатываний может превышать 20%.

Миф: использование ИИ — это всегда мошенничество.
Правда: корректоры, переводчики и подсказки — допустимые инструменты при правильном применении.

Миф: автоматическая проверка экономит время.
Правда: апелляции и расследования часто занимают месяцы.

Исторический контекст

Первые попытки использовать ИИ-детекторы в образовании начались в 2023 году, после взлёта ChatGPT. Университеты стремились сохранить академическую честность, но быстро столкнулись с этическими и юридическими дилеммами. Случай ACU стал поворотным — он показал, что слепое доверие алгоритмам может нанести ущерб репутации вузов не меньше, чем плагиат.

3 интересных факта

  1. В некоторых университетах Австралии уже внедряют "доверительные экзамены" — студенты записывают процесс написания работы на видео.

  2. В 2025 году Европейская комиссия предложила ввести стандарты проверки ИИ в образовании.

  3. После скандала ACU студенческие союзы Австралии потребовали признать отчёты ИИ-детекторов недопустимым доказательством в дисциплинарных делах.

Подписывайтесь на NewsInfo.Ru

Читайте также

Бумагу можно переработать до шести раз — эколог Пешков сегодня в 13:35
Пакет против пластика: какой пакет в магазине на самом деле стоит выбирать

Эколог Андрей Пешков пояснил NewsInfo, почему бумажные пакеты экологичнее пластиковых.

Читать полностью »
Православный мессенджер Зосима выйдет в первой половине 2026 года — Агапов 06.12.2025 в 7:57
Секретный проект раскрыт: Зосима выйдет в 2026-м и обещает стать главным духовным каналом

Православный мессенджер "Зосима" готовят к публичному запуску в 2026-м: тест уже прошли тысячи пользователей, а дальше всё решит масштабирование.

Читать полностью »
Конфликт приложений может замедлять работу гаджета — IT-эксперт Муртазин 05.12.2025 в 13:34
Когда телефон живет своей жизнью: из-за этих процессов гаджет начинает тормозить

Аналитик Эльдар Муртазин объяснил NewsInfo почему телефон может перегреваться и "тормозить".

Читать полностью »
Pokemon TCG Pocket признана лучшей игрой для iPhone — App Store Awards 2025 05.12.2025 в 13:25
Игры и приложения года раскрыты: пользователи не ожидали такого расклада от Apple

Премия App Store Awards 2025 изменила расстановку сил между крупными студиями и независимыми разработчиками, показав неожиданные приоритеты индустрии.

Читать полностью »
Модели телевизоров от Tuvio, TCL и Hisense названы лучшими до 17 тысяч рублей — Палач 05.12.2025 в 13:15
Бюджетные телевизоры поражают возможностями: не думал, что за такие деньги бывает такое

Подборка трёх доступных телевизоров до 17 тысяч рублей показывает, как бюджетный сегмент постепенно перенимает функции более дорогих моделей, сохраняя привлекательную цену.

Читать полностью »
Теневые каналы в Telegram живут в среднем семь месяцев — Лаборатория Касперского 05.12.2025 в 9:36
Лаборатория Касперского раскрыла правду: почему даже крупные теневые каналы в Telegram живут недолго

Kaspersky изучила 800+ теневых Telegram-каналов: в среднем они живут около семи месяцев. Почему блокировки усилились и куда уходят крупные сообщества?

Читать полностью »
Расширения WeTab и Infinity V+ собирали данные 4 млн пользователей — KOI Security 05.12.2025 в 8:57
Осторожно, обновление: как безобидное расширение после апдейта начало похищать ваши пароли

WeTab и Infinity V+ подозревают в скрытом сборе данных через обновления. Как работала "долгая" атака и почему пострадали миллионы пользователей?

Читать полностью »
Вредоносное ПО для Android закрепляется в системе — ТАСС 05.12.2025 в 8:23
Мошенники знают ваши слабые места: почему вы добровольно установите троян под видом YouTube Pro

Под видом "18+" и "расширенных" TikTok и YouTube пользователям подсовывают трояны. Как устроена сеть сайтов и что нашли операторы.

Читать полностью »