экзамен
экзамен
Олег Белов Опубликована сегодня в 21:16

Алгоритм против студентов: ИИ обвинил 6 000 человек — и никто не понял, за что

В Австралийском католическом университете 6 тысяч студентов обвинили в использовании ИИ

В Австралийском католическом университете (ACU) разгорелся один из самых громких академических скандалов последних лет. Почти 6 000 студентов оказались под подозрением в использовании искусственного интеллекта при выполнении домашних заданий. Проверку проводил алгоритм, встроенный в систему Turnitin - популярную платформу для выявления плагиата и сгенерированных текстов.

"Отчеты Turnitin не должны использоваться как единственное доказательство", — предупреждают в компании Turnitin.

Однако в ACU это правило фактически проигнорировали. Алгоритм автоматически помечал подозрительные работы, и этого нередко хватало, чтобы запустить дисциплинарное расследование.

Как всё началось

История получила огласку после расследования ABC News. В 2024 году университет зарегистрировал около 6 000 дел, связанных с нарушением академической честности, и примерно 90% из них касались подозрений на использование ИИ.

Многие студенты столкнулись с тем, что доказать свою невиновность оказалось крайне сложно. Университет требовал подтвердить авторство работы — предоставлением черновиков, истории правок или поисковых запросов. Некоторые ждали решения комиссии месяцами.

Одна выпускница не смогла вовремя подать документы в аспирантуру из-за статуса "результаты удерживаются", а часть студентов рисковала не получить диплом вовсе.

Что представляет собой Turnitin

Turnitin — международная система проверки академических текстов, которую используют тысячи университетов по всему миру. Первоначально она предназначалась для выявления плагиата, но в последние годы в неё добавили модуль для определения текстов, созданных с помощью ИИ.

Алгоритм анализирует стиль, структуру, повторяемость фраз и другие признаки, которые, по мнению разработчиков, характерны для машинного письма. Но в отличие от классической проверки на заимствование, результаты AI-детектора не имеют точной статистической уверенности. Это делает инструмент скорее индикатором, чем доказательством.

Как работает AI-детектор Turnitin

  1. Система сканирует текст и выделяет фрагменты, "похожие" на машинно сгенерированные.

  2. Алгоритм оценивает долю "искусственного содержания" в процентах.

  3. Если показатель превышает внутренний порог университета (часто 20-30%), запускается проверка.

  4. В случае подозрения комиссия решает, считать ли работу нарушением.

Проблема в том, что алгоритм может ошибаться: он не всегда отличает правленный человеком текст от текста, полностью написанного нейросетью.

Ошибка → Последствие → Альтернатива

  1. Ошибка: автоматическое доверие результатам алгоритма.
    Последствие: ложные обвинения и потеря репутации студентов.
    Альтернатива: использовать детектор только как вспомогательный инструмент, не как доказательство.

  2. Ошибка: отсутствие процедуры обжалования.
    Последствие: месяцы ожидания и невозможность подать документы на учёбу или работу.
    Альтернатива: вводить независимую апелляционную комиссию и прозрачные сроки рассмотрения.

  3. Ошибка: неопределённые критерии "использования ИИ".
    Последствие: наказания даже за использование грамматических корректоров и подсказок.
    Альтернатива: уточнить правила, разделив корректирующие и генеративные инструменты.

Почему университет отказался от детектора

После волны жалоб и критики со стороны студентов и преподавателей ACU признал, что расследования длились слишком долго и что отчёты Turnitin нередко становились основным доказательством без достаточных оснований.

Весной 2025 года администрация официально отказалась от использования AI-детектора и пообещала пересмотреть политику академической проверки. Университет заявил, что будет фокусироваться на профилактике нарушений — обучении студентов этичному использованию ИИ и улучшению системы наставничества.

"Расследования велись слишком долго, и мы пересмотрим правила", — сообщили представители ACU.

Проблема глобальная

Случай ACU не уникален. Похожие инциденты произошли в университетах США, Канады и Великобритании. В некоторых вузах до 15% студентов жаловались на ложные обвинения, вызванные ИИ-детекторами.

Причина — отсутствие единых стандартов. Каждый университет сам определяет, какой процент "AI-сходства" считать нарушением.

Кроме того, многие студенты действительно используют ИИ не для обмана, а как инструмент для проверки грамматики, сокращения текста или подбора формулировок. Но детекторы пока не способны различать эти сценарии.

Плюсы и минусы использования AI-детекторов

Плюсы Минусы
Помогают выявлять случаи откровенного обмана Часто ошибаются и выдают ложные срабатывания
Повышают внимание к академической честности Угрожают презумпции невиновности
Упрощают работу преподавателей Могут подорвать доверие между студентом и университетом
Формируют культуру этичного использования технологий Требуют чётких правил и независимого контроля

Как вузам действовать корректно

  1. Ввести комбинированную проверку - использовать детектор ИИ только вместе с экспертной оценкой преподавателя.

  2. Фиксировать процесс написания работы - черновики, временные метки и версии документов.

  3. Обеспечить право на защиту - давать студентам возможность объяснить использование ИИ.

  4. Обучать преподавателей - как отличать машинный стиль от человеческого.

  5. Создать кодекс применения ИИ в обучении - с чётким разделением "помощи" и "подмены авторства".

А что если… полностью запретить ИИ в обучении?

Полный запрет не решает проблему — студенты всё равно будут использовать технологии, но скрытно. Гораздо эффективнее научить пользоваться ими правильно. Современные образовательные платформы уже разрабатывают специальные версии ChatGPT и Copilot, адаптированные под учебные цели с ограничением функций генерации.

Мифы и правда

Миф: AI-детекторы безошибочны.
Правда: по данным OpenAI и Turnitin, уровень ложных срабатываний может превышать 20%.

Миф: использование ИИ — это всегда мошенничество.
Правда: корректоры, переводчики и подсказки — допустимые инструменты при правильном применении.

Миф: автоматическая проверка экономит время.
Правда: апелляции и расследования часто занимают месяцы.

Исторический контекст

Первые попытки использовать ИИ-детекторы в образовании начались в 2023 году, после взлёта ChatGPT. Университеты стремились сохранить академическую честность, но быстро столкнулись с этическими и юридическими дилеммами. Случай ACU стал поворотным — он показал, что слепое доверие алгоритмам может нанести ущерб репутации вузов не меньше, чем плагиат.

3 интересных факта

  1. В некоторых университетах Австралии уже внедряют "доверительные экзамены" — студенты записывают процесс написания работы на видео.

  2. В 2025 году Европейская комиссия предложила ввести стандарты проверки ИИ в образовании.

  3. После скандала ACU студенческие союзы Австралии потребовали признать отчёты ИИ-детекторов недопустимым доказательством в дисциплинарных делах.

Подписывайтесь на NewsInfo.Ru

Читайте также

Учёные сегодня в 23:26
Без азота, но с точностью: российская разработка превращает воздух в доказательство

Учёные «Росатома» создали прибор, способный определять радиацию в воздухе и отличать ядерный взрыв от аварии. Как новая технология изменила подход к радиационному мониторингу?

Читать полностью »
Эксперт Зубарев: даже специалист не отличит фейковое видео от настоящего сегодня в 22:39
Глазам больше нельзя верить: простые приёмы, чтобы распознать подделку от нейросети

ИИ-шутки становятся всё изощрённее: теперь нейросети могут "заселить" ваш дом незнакомцами на фото. Как распознать подделку и не поддаться панике?

Читать полностью »
ЦБ России введёт лимит на количество банковских карт с декабря 2025 года сегодня в 13:17
Больше 5 карт в одном банке? Грядут блокировки, а вы даже не догадывались

Россиянам установят лимит на количество банковских карт — не более пяти в одном банке и двадцати в сумме. Зачем вводят новые правила и как они повлияют на клиентов?

Читать полностью »
Библиотека Кембриджа запустила проект Future Nostalgia по сохранению старых дискет сегодня в 12:18
Флоппи-диск, которого боялся сам Google: что восстанавливают в тишине кембриджских архивов

Кембриджская библиотека спасает архивы с дискет, включая файлы Стивена Хокинга. Как инженеры читают данные, которые больше никто не может открыть?

Читать полностью »
МГУ откроет факультет искусственного интеллекта в 2026 году сегодня в 11:09
Гарвард в шоке: МГУ запускает факультет, который охотится за мозгами будущего

МГУ открывает новый факультет искусственного интеллекта — проект, который объединит науку, технологии и образование. Что ждёт будущих студентов?

Читать полностью »
Xiaomi сворачивает линейки Mix Flip и Civi, сосредоточившись на флагманах и AI-устройствах сегодня в 10:17
Складки не спасли: Xiaomi тихо отменила конкурента Galaxy Z Flip

Xiaomi неожиданно заморозила разработку смартфонов Mix Flip и Civi. Почему компания пересматривает стратегию и какие устройства займут их место?

Читать полностью »
Принц Гарри обвинил технологические корпорации в эксплуатации детей ради прибыли сегодня в 9:17
Алгоритмы против детства: принц Гарри обвинил соцсети в эксплуатации детей

На благотворительном вечере в Нью-Йорке принц Гарри и Меган Маркл призвали мир защитить детей от давления социальных сетей. Что именно они предложили?

Читать полностью »
GPT-5 и Gemini 2.5 Pro взяли порог сегодня в 8:17
ИИ переписал звёзды: GPT-5 взял "золото" на олимпиаде по астрономии — и не списывал

ИИ-модели впервые стабильно дотянули до «золота» на задачах IOAA. Почему они сильны в формулах, где ломаются на графиках — и что им поможет «видеть» решение?

Читать полностью »