- Австралийский католический университет (ACU) обвинял студентов в использовании ИИ для выполнения домашних заданий, основываясь на выводах детектора ИИ в системе Turnitin.
- В 2024 году университет зарегистрировал около 6 000 дел о похожих нарушениях, при этом около 90% обвинений были связаны с применением ИИ.
- В марте 2025 года ACU отказался от использования детектора ИИ и заявил о пересмотре правил академической проверки после признания недостатков методики.
Австралийский католический университет (ACU) оказался в центре серьезного конфликта, связанного с применением автоматизированных систем проверки работ студентов. Детектор искусственного интеллекта, встроенный в широко используемую в академической среде платформу Turnitin, стал основанием для обвинений тысяч студентов в мошенничестве. В 2024 году ACU зарегистрировал порядка 6 тысяч таких случаев, причем около 90% из них были связаны именно с подозрениями в использовании ИИ при написании домашних заданий.
Система Turnitin, которая широко применяется в вузах для проверки академических работ на плагиат и иные нарушения, оснащена функциями распознавания текстов, созданных или обработанных нейросетями. Однако сама компания указывает, что результаты проверки не должны служить единственным доказательством при расследованиях. Несмотря на это, в ACU заключения детектора зачастую принимались как основополагающий аргумент для начала дисциплинарных процедур.
Это привело к критическим ситуациям: некоторые студенты вынуждены были доказывать свою невиновность месяцами, предоставляя дополнительные материалы, включая черновики, историю изменений документов и даже поисковые запросы. Из-за задержек с разбирательствами страдали не только учебные планы, но и карьерные возможности учащихся. Отмечается, что одна выпускница не смогла своевременно подать заявку на участие в аспирантской программе по причине задержки с одобрением ее работы, а другие вынужденно ждали результатов комиссий до шести месяцев.
Осознав ограниченность и опасность полной автоматизации процесса выявления «мошенничества», в марте 2025 года университет принял решение отказаться от использования детектора ИИ. Руководство ACU сообщило о намерении пересмотреть и улучшить систему академической проверки, чтобы избежать ситуаций, когда алгоритмы бездоказательно ставят под сомнение честность студентов.
Данный инцидент служит наглядным примером того, насколько рискованно слепо доверять технологическим средствам в вопросах, касающихся репутации и будущей карьеры людей. Алгоритмы пока неспособны объективно отличать творческую стилистику автора от обработанного с помощью ИИ текста, а отсутствие прозрачных процедур и права на эффективную защиту порождает возможные злоупотребления в виде необоснованных обвинений. Этот случай подчеркивает необходимость комплексного подхода и осторожности при интеграции искусственного интеллекта в сферы, связанные с этикой и ответственностью.