В изображениях Gemini нашли скрытые водяные знаки — Reddit Обложка: Skyread

В изображениях Gemini нашли скрытые водяные знаки — Reddit

Новости
Главное:

  • Пользователи Reddit обнаружили скрытые водяные знаки на изображениях, сгенерированных в AI-системе Gemini.
  • Для выявления водяных знаков достаточно повысить насыщенность картинки, что проявляет цветные фрагменты.
  • Также выявлен метод их удаления — снижение насыщенности до нуля с последующим сохранением изображения. Представители Google официально не комментировали эту практику.

На платформе Reddit внимательные пользователи поделились наблюдением о том, что изображения, созданные при помощи генератора Gemini, оснащены незаметными водяными знаками. Специалисты и энтузиасты сферы искусственного интеллекта фиксируют, что подобные знаки становятся видимыми после применения цветокоррекции, в частности, повышения насыщенности изображения.

Автор публикации под ником thrftshxp продемонстрировал на примере фотографии, как после обработки и увеличения разрешения в одном из приложений можно разглядеть скрытые метки. Также в комментариях к посту предложили способ выявления водяных знаков непосредственно в браузере: если открыть чёрно-белое изображение, сгенерированное в Gemini, и применить CSS-фильтр saturate с высоким значением (999), на картинке начинают проявляться разноцветные точки и фрагменты, располагающиеся в случайных местах.

Отметим, что подлинные чёрно-белые фотографии при такой обработке покрываются цветными пятнами равномерно, что позволяет отличать их от генеративных картинок с водяными знаками. Помимо этого, пользователи нашли метод удаления таких меток — достаточно применить к изображению CSS-свойство saturate(0), то есть резко снизить насыщенность, и сделать скриншот результата, после чего водяные знаки исчезают.

Компания Google, разработчик AI-системы Gemini, пока не предоставила официальных комментариев по поводу применения водяных знаков. Предполагается, что такие метки нужны для идентификации изображений, созданных искусственным интеллектом, чтобы избежать случайного включения в обучающие наборы данных для будущих моделей и повысить прозрачность происхождения контента.

Данная практика демонстрирует стремление разработчиков к внедрению инструментов контроля над результатами генеративных ИИ, что важно с точки зрения этики и ответственности в использовании современных технологий. Однако обнаружение и возможность удаления водяных знаков стимулирует дискуссию о необходимости более надежных и устойчивых методов маркировки искусственно созданного визуального контента.

Tagged