- Команда проекта runc отметила существенный рост pull-request и отчетов об ошибках, сгенерированных искусственным интеллектом.
- Разработчики обсудили необходимость четкой политики обработки ИИ-сгенерированного кода и обращений, предложив возможные ограничения и требования к таким материалам.
- В индустрии программного обеспечения продолжается поиск баланса между использованием ИИ для повышения качества и рисками, связанными с ложными или избыточными данными, что отражается в подходах различных проектов, таких как Fedora и curl.
Открытый проект runc — инструмент командной строки для создания и запуска контейнеров Linux согласно спецификации OCI — столкнулся с заметным увеличением количества pull-request и баг-репортов, автоматически сгенерированных с помощью ИИ. Мейнтейнер проекта Алекса Сарай обрисовал ситуацию и предложил обсудить решения, которые позволят команде рационально фильтровать подобные обращения.
Основной вызов для разработчиков заключается в оценке достоверности и полезности таких ИИ-сгенерированных запросов. Сарай подчеркнул, что команда не должна безоговорочно принимать код или отчёты, созданные ИИ. Он предложил рассматривать их отдельно, либо вовсе помечать как спам и закрывать, поскольку часто подобные сообщения содержат избыточную и неточную информацию, затрудняющую работу.
Важным моментом является то, что при рассмотрении сообщений о проблемах разработчикам необходимо предполагать, что обвинения реальны, но в случае ИИ-сгенерированных данных это зачастую невозможно проверить из-за отсутствия контекста и реального подтверждения. Аналогично кода, созданного искусственным интеллектом, предъявляется требование — автор должен уметь объяснить внесённые изменения своими словами во время ревью.
При этом Сарай указал, что использование ИИ вполне оправдано для вспомогательных задач, таких как перевод на английский язык, исправление грамматических ошибок, автозаполнение шаблонного кода, что может значительно ускорить рутинные процессы.
Данная проблема не уникальна для проекта runc. В ноябре 2025 года японское сообщество Support.mozilla.org решило закрыть поддержку в связи с внедрением программного бота SumoBot, который машинно переводил и переписывал материалы, ранее созданные экспертами, что вызвало противоречивые оценки.
Аналогичная ситуация наблюдается в Fedora — там после продолжительных дискуссий было принято регулирование, позволяющее использовать ИИ-инструменты, но при обязательном контроле человека и ответственности разработчика за результат. Такая политика отражает тенденцию несколько снизить риск, стремясь не отказываться от потенциала ИИ.
В отличие от runc, проект curl продемонстрировал иной опыт. Его автор Даниэль Стенберг отметил, что благодаря инструментам с искусственным интеллектом исследователь безопасности Джошуа Роджерс выявил десятки реальных ошибок и уязвимостей. Хотя curl отказался принимать ИИ-сгенерированные уязвимости через платформу HackerOne из-за перегрузки команды, найденные Роджерсом баги были признаны ценными и помогли улучшить проект.
Таким образом, современные разработчики вынуждены балансировать между преимуществами и вызовами, которые создаёт появление ИИ в процессе создания и поддержания программного обеспечения. Опыт различных проектов свидетельствует о необходимости выработки прозрачных правил и стандартов работы с ИИ-генерированным контентом, чтобы сохранить качество и безопасность продуктов, не лишаясь ускоряющих инструментов.
