экзамен
экзамен
Олег Белов Опубликована 13.10.2025 в 21:16

Алгоритм против студентов: ИИ обвинил 6 000 человек — и никто не понял, за что

В Австралийском католическом университете 6 тысяч студентов обвинили в использовании ИИ

В Австралийском католическом университете (ACU) разгорелся один из самых громких академических скандалов последних лет. Почти 6 000 студентов оказались под подозрением в использовании искусственного интеллекта при выполнении домашних заданий. Проверку проводил алгоритм, встроенный в систему Turnitin - популярную платформу для выявления плагиата и сгенерированных текстов.

"Отчеты Turnitin не должны использоваться как единственное доказательство", — предупреждают в компании Turnitin.

Однако в ACU это правило фактически проигнорировали. Алгоритм автоматически помечал подозрительные работы, и этого нередко хватало, чтобы запустить дисциплинарное расследование.

Как всё началось

История получила огласку после расследования ABC News. В 2024 году университет зарегистрировал около 6 000 дел, связанных с нарушением академической честности, и примерно 90% из них касались подозрений на использование ИИ.

Многие студенты столкнулись с тем, что доказать свою невиновность оказалось крайне сложно. Университет требовал подтвердить авторство работы — предоставлением черновиков, истории правок или поисковых запросов. Некоторые ждали решения комиссии месяцами.

Одна выпускница не смогла вовремя подать документы в аспирантуру из-за статуса "результаты удерживаются", а часть студентов рисковала не получить диплом вовсе.

Что представляет собой Turnitin

Turnitin — международная система проверки академических текстов, которую используют тысячи университетов по всему миру. Первоначально она предназначалась для выявления плагиата, но в последние годы в неё добавили модуль для определения текстов, созданных с помощью ИИ.

Алгоритм анализирует стиль, структуру, повторяемость фраз и другие признаки, которые, по мнению разработчиков, характерны для машинного письма. Но в отличие от классической проверки на заимствование, результаты AI-детектора не имеют точной статистической уверенности. Это делает инструмент скорее индикатором, чем доказательством.

Как работает AI-детектор Turnitin

  1. Система сканирует текст и выделяет фрагменты, "похожие" на машинно сгенерированные.

  2. Алгоритм оценивает долю "искусственного содержания" в процентах.

  3. Если показатель превышает внутренний порог университета (часто 20-30%), запускается проверка.

  4. В случае подозрения комиссия решает, считать ли работу нарушением.

Проблема в том, что алгоритм может ошибаться: он не всегда отличает правленный человеком текст от текста, полностью написанного нейросетью.

Ошибка → Последствие → Альтернатива

  1. Ошибка: автоматическое доверие результатам алгоритма.
    Последствие: ложные обвинения и потеря репутации студентов.
    Альтернатива: использовать детектор только как вспомогательный инструмент, не как доказательство.

  2. Ошибка: отсутствие процедуры обжалования.
    Последствие: месяцы ожидания и невозможность подать документы на учёбу или работу.
    Альтернатива: вводить независимую апелляционную комиссию и прозрачные сроки рассмотрения.

  3. Ошибка: неопределённые критерии "использования ИИ".
    Последствие: наказания даже за использование грамматических корректоров и подсказок.
    Альтернатива: уточнить правила, разделив корректирующие и генеративные инструменты.

Почему университет отказался от детектора

После волны жалоб и критики со стороны студентов и преподавателей ACU признал, что расследования длились слишком долго и что отчёты Turnitin нередко становились основным доказательством без достаточных оснований.

Весной 2025 года администрация официально отказалась от использования AI-детектора и пообещала пересмотреть политику академической проверки. Университет заявил, что будет фокусироваться на профилактике нарушений — обучении студентов этичному использованию ИИ и улучшению системы наставничества.

"Расследования велись слишком долго, и мы пересмотрим правила", — сообщили представители ACU.

Проблема глобальная

Случай ACU не уникален. Похожие инциденты произошли в университетах США, Канады и Великобритании. В некоторых вузах до 15% студентов жаловались на ложные обвинения, вызванные ИИ-детекторами.

Причина — отсутствие единых стандартов. Каждый университет сам определяет, какой процент "AI-сходства" считать нарушением.

Кроме того, многие студенты действительно используют ИИ не для обмана, а как инструмент для проверки грамматики, сокращения текста или подбора формулировок. Но детекторы пока не способны различать эти сценарии.

Плюсы и минусы использования AI-детекторов

Плюсы Минусы
Помогают выявлять случаи откровенного обмана Часто ошибаются и выдают ложные срабатывания
Повышают внимание к академической честности Угрожают презумпции невиновности
Упрощают работу преподавателей Могут подорвать доверие между студентом и университетом
Формируют культуру этичного использования технологий Требуют чётких правил и независимого контроля

Как вузам действовать корректно

  1. Ввести комбинированную проверку - использовать детектор ИИ только вместе с экспертной оценкой преподавателя.

  2. Фиксировать процесс написания работы - черновики, временные метки и версии документов.

  3. Обеспечить право на защиту - давать студентам возможность объяснить использование ИИ.

  4. Обучать преподавателей - как отличать машинный стиль от человеческого.

  5. Создать кодекс применения ИИ в обучении - с чётким разделением "помощи" и "подмены авторства".

А что если… полностью запретить ИИ в обучении?

Полный запрет не решает проблему — студенты всё равно будут использовать технологии, но скрытно. Гораздо эффективнее научить пользоваться ими правильно. Современные образовательные платформы уже разрабатывают специальные версии ChatGPT и Copilot, адаптированные под учебные цели с ограничением функций генерации.

Мифы и правда

Миф: AI-детекторы безошибочны.
Правда: по данным OpenAI и Turnitin, уровень ложных срабатываний может превышать 20%.

Миф: использование ИИ — это всегда мошенничество.
Правда: корректоры, переводчики и подсказки — допустимые инструменты при правильном применении.

Миф: автоматическая проверка экономит время.
Правда: апелляции и расследования часто занимают месяцы.

Исторический контекст

Первые попытки использовать ИИ-детекторы в образовании начались в 2023 году, после взлёта ChatGPT. Университеты стремились сохранить академическую честность, но быстро столкнулись с этическими и юридическими дилеммами. Случай ACU стал поворотным — он показал, что слепое доверие алгоритмам может нанести ущерб репутации вузов не меньше, чем плагиат.

3 интересных факта

  1. В некоторых университетах Австралии уже внедряют "доверительные экзамены" — студенты записывают процесс написания работы на видео.

  2. В 2025 году Европейская комиссия предложила ввести стандарты проверки ИИ в образовании.

  3. После скандала ACU студенческие союзы Австралии потребовали признать отчёты ИИ-детекторов недопустимым доказательством в дисциплинарных делах.

Автор Олег Белов
Олег Белов — журналист, корреспондент Ньюсинфо

Подписывайтесь на NewsInfo.Ru

Читайте также

Отключение превью возвращает автосохранение скриншотов — Моника Торрес 21.01.2026 в 9:38
Скриншоты в iOS 26 превратились в лишний квест — решение оказалось в одном переключателе

Технологии и мобильные устройства: iOS 26 обновление меняет скриншоты и добавляет настройки превью. Разбираемся, зачем Apple усложнила процесс и как вернуть мгновенное сохранение.

Читать полностью »
Пароли нужно менять каждые три месяца —IT-эксперт Дворянский 16.01.2026 в 13:31
Кажется надежным, но работает против вас: когда пароли нужно срочно менять

Эксперт по IT-безопасности Александр Дворянский рассказал NewsInfo, как часто нужно менять пароли и почему одинаковые комбинации опасны.

Читать полностью »
CES 2026 в Лас-Вегасе собрала более 4100 компаний и стартапов - РБК 12.01.2026 в 18:33
Lenovo растянула ноутбук, Samsung сложила планшет: CES 2026 собрала технологии, которые ломают привычки

На CES 2026 в Лас-Вегасе представлены потрясающие технологии: от трансформируемых экранов до домашних роботов. Убедитесь, что вы знаете все подробности!

Читать полностью »
После износа батареек их можно использовать в пульте для телевизора — эксперт 09.01.2026 в 5:09
Меньше батареек — больше сэкономленных рублей: как правильно использовать их до последней капли

Узнайте, как продлить срок службы батареек и не тратить деньги зря. Маленькая хитрость поможет вам экономить на источниках питания.

Читать полностью »
В 2025 году для России актуальны DDoS-атаки и кибершпионаж — Станислав Кузнецов 03.01.2026 в 5:23
Злоумышленники атакуют по всем фронтам: как выжить в мире киберугроз и не потерять бизнес

В 2025 году киберугрозы для российских организаций остаются актуальными, включая DDoS-атаки и программы-шифровальщики, сумма выкупа за которые может достигать 500 млн рублей.

Читать полностью »
Проблемы с производительностью Windows 11 сдерживают её популярность – TechRadar 31.12.2025 в 5:24
Ошибки после обновлений и искусственный интеллект: почему Windows 11 не может угодить пользователям

Несмотря на четыре года с момента выпуска, Windows 11 остается проблемной ОС с медлительностью, проблемами с производительностью и навязчивым ИИ.

Читать полностью »
В конце года мошенники активизируются, используя фишинг и ложные скидки, предупреждает эксперт — РИА Новости 30.12.2025 в 6:17
Искусственный интеллект в действии: как технологии помогают распознать мошенников и защитить данные

Искусственный интеллект помогает защитить пользователей от мошенников, анализируя сайты и звонки, чтобы избежать фишинга и других угроз.

Читать полностью »
Лазерные системы защиты от дронов начнут применять в приграничье с 2026 года — Андрей Безруков, ЦБСТ 29.12.2025 в 4:41
Эксперименты закончились — начинается практика: ПВО против дронов меняет формат

В России могут начать применять лазерные системы против беспилотников уже в 2026 году — разработки проходят проверку в реальных условиях.

Читать полностью »