- Управляющий совет проекта Fedora утвердил правила использования ИИ-инструментов при разработке дистрибутива Fedora Linux.
- ИИ-инструменты допускаются с обязательным человеческим контролем, ответственность за качество кода лежит на разработчике.
- В правилах прописаны требования к маркировке изменений, созданных с помощью ИИ, а также ограничения по автоматизации рецензирования и управленческих решений.
Проект Fedora официально установил регламенты, регулирующие применение искусственного интеллекта в процессе разработки дистрибутива Fedora Linux. После двух недель обсуждений управляющий совет Fedora одобрил правила, направленные на интеграцию ИИ-инструментов с учётом этических, безопасностных и качественных соображений.
Основной подход заключается в том, что использование ИИ рассматривается как средство повышения эффективности разработки, но при этом все изменения, подготовленные с помощью ИИ-ассистентов, должны проходить обязательный контроль и нести ответственность, как если бы их создавал человек. Разработчик, применяющий ИИ, сохраняет статус автора кода и несёт полную ответственность за качество, проверку лицензионной совместимости и полезность изменений.
Любое значительное изменение, сгенерированное ИИ, должно сопровождаться пометкой с указанием названия используемого ИИ-инструмента, например, «Assisted-by: ChatGPTv5». В то же время использование ИИ для рутинных задач, таких как исправление грамматических ошибок, маркировать необязательно. В процессе рецензирования допускается использование ИИ как вспомогательного средства, однако автоматизация полного процесса либо принятие ИИ решения запрещены – окончательное слово остаётся за человеком.
Кроме того, правила регулируют применение ИИ в управленческих и административных процессах проекта: автоматизация рутинных задач, таких как фильтрация спама и создание заметок, разрешена, тогда как ИИ не может использоваться для принятия кадровых решений, оценки жалоб или определения статуса участников сообщества.
В случаях масштабных инициатив, способных существенно повлиять на работу проекта или вызвать резкий рост изменений, требуется отдельное обсуждение с управляющим советом Fedora. Нарушения политики использования ИИ нужно направлять в управляющий совет через private ticket. Для толкования терминов «может», «должен» и т.д. в документе применяется стандарт RFC 2119.
Стоит отметить, что аналогичные вопросы по применению ИИ в сфере безопасности недавно освещались автором утилиты curl Даниэлем Стенбергом. Он сообщил, что ИИ-инструменты помогли выявить множество ошибок в разных проектах, однако одновременно отчасти из-за потока автоматических отчётов об уязвимостях, сгенерированных ИИ, команда curl отказалась принимать такие отчёты через платформу HackerOne, так как они создают чрезмерную нагрузку. Это подчёркивает важность внимательного и ответственного использования технологий искусственного интеллекта.