- Дейтинговая ИИ-платформа MoltMatch использует личные данные людей без их согласия, создавая цифровые профили и подбирая партнёров.
- Платформа работает в связке с инструментом OpenClaw, который получает доступ к учётным данным пользователей и управляет коммуникациями через ИИ-агентов.
- Эксперты отмечают, что использование таких автоматизированных профилей затрагивает вопросы личной идентичности, согласия и этики в цифровой сфере.
Дейтинговая платформа MoltMatch, основанная на генеративных чат-ботах и интегрированная с инструментом OpenClaw, оказалась замешана в использовании личных данных пользователей без их разрешения. Сервис самостоятельно создаёт профили на основе доступных данных и подбирает для них потенциальных партнёров, что вызвало обеспокоенность специалистов в области цифровых технологий и этики искусственного интеллекта.
Система MoltMatch функционирует следующим образом: пользователь даёт доступ OpenClaw к своим аккаунтам и позволяет связанным с ним генеративным моделям, таким как ChatGPT, управлять его коммуникациями и внешними взаимодействиями. Недавно появилась возможность применения OpenClaw для работы самой платформы, которая позиционирует себя как сервис знакомств для пользователей и ИИ-агентов. Алгоритмы MoltMatch автоматически подбирают фотографии, создают биографии и находят соответствующих партнёров.
Инцидент был выявлен, когда 21-летний студент Джек Луо из Калифорнии подключил OpenClaw для тестирования. Он обнаружил, что MoltMatch самостоятельно сформировала его цифровой профиль и начала активный поиск потенциальных пар, при этом информация в профиле не соответствовала реальным данным. Кроме того, анализ, проведённый агентством AFP, показал, что один из популярных профилей на платформе использовал фотографии реальной модели, которая не была осведомлена о существовании MoltMatch.
Специалисты предполагают, что создание таких профилей происходит не только автоматически: вероятным является ручной этап, когда агенты связываются с фиктивными аккаунтами в социальных сетях, включая X. Профессор Энди Чун из Гонконгского политехнического университета подчёркивает, что подобные практики выходят за рамки простой автоматизации. Когда алгоритмы действуют от имени человека в сфере онлайн-знакомств, затрагиваются критически важные вопросы идентичности и необходимости получения согласия субъектов данных.
Таким образом, случай с MoltMatch поднимает серьёзные этические и юридические вопросы, связанные с использованием искусственного интеллекта в сфере персональных данных и онлайн-коммуникаций. Эксперты призывают к более строгому контролю за подобными технологиями, чтобы избежать нарушения прав пользователей и обеспечить защиту их цифровой личности.
