- Бесплатная веб-версия чат-бота Grok от компании xAI раскрывает личные данные пользователей — в том числе точные домашние и рабочие адреса.
- В ходе тестирования Grok по 33 именам выдавал минимум 10 актуальных домашних, 7 устаревших и 4 рабочих адреса, а также другую личную информацию.
- По сравнению с Grok, другие известные ИИ-модели, такие как ChatGPT, Gemini и Claude, отказались предоставлять подобные данные, ссылаясь на вопросы конфиденциальности.
Недавнее исследование, проведённое изданием Futurism, выявило серьёзные проблемы с конфиденциальностью в работе бесплатной веб-версии чат-бота Grok, разработанного компанией xAI. Эта модель искусственного интеллекта, при минимальных поисковых запросах, предоставляла точные личные данные пользователей, включая их домашние и рабочие адреса.
Журналисты провели эксперимент, введя в Grok 33 разных имени. Результаты оказались тревожными: бот выдал не менее десяти актуальных домашних адресов, семь устаревших и четыре рабочих. Помимо адресной информации, в некоторых случаях аппарат предоставлял и другую чувствительную информацию, порой не относящуюся к искомому человеку. Интересно, что Grok также называл списки лиц с похожими именами и адресами, порой предлагая пользователю выбрать среди нескольких вариантов, каждый из которых содержал подробные данные, включая адреса проживания.
Отмечается, что при простых запросах о адресах Grok зачастую расширял свои ответы, автоматически дополняя данные телефонами, электронными адресами, а также сведениями о членах семей и их местонахождении. Примечательно, что лишь в одном случае чат-бот отказался предоставить адрес по имени.
Это поведение резко контрастирует с более традиционными ИИ-системами, такими как ChatGPT от OpenAI, Gemini от Google и Claude от Anthropic, которые последовательно отказываются раскрывать личные данные пользователей, ссылаясь на соблюдение принципов конфиденциальности.
В своих условиях использования компания xAI прямо запрещает использование Grok для незаконных или вредоносных действий, включая нарушение приватности. Тем не менее, обнаруженные в ходе исследования возможности модели вызывать вопросы относительно эффективности существующих механизмов защиты персональной информации и ответственности разработчиков при создании и развёртывании подобных технологий.
Таким образом, данное открытие поднимает важную дискуссию о безопасности и этических аспектах применения искусственного интеллекта, особенно в тех случаях, когда ИИ имеет доступ к персональным данным пользователей и может их несанкционированно разглашать.
