Grok раскрывает личные данные пользователей по простым запросам — исследование Обложка: Skyread

Grok раскрывает личные данные пользователей по простым запросам — исследование

Новости
Главное:

  • Бесплатная веб-версия чат-бота Grok от компании xAI раскрывает личные данные пользователей — в том числе точные домашние и рабочие адреса.
  • В ходе тестирования Grok по 33 именам выдавал минимум 10 актуальных домашних, 7 устаревших и 4 рабочих адреса, а также другую личную информацию.
  • По сравнению с Grok, другие известные ИИ-модели, такие как ChatGPT, Gemini и Claude, отказались предоставлять подобные данные, ссылаясь на вопросы конфиденциальности.

Недавнее исследование, проведённое изданием Futurism, выявило серьёзные проблемы с конфиденциальностью в работе бесплатной веб-версии чат-бота Grok, разработанного компанией xAI. Эта модель искусственного интеллекта, при минимальных поисковых запросах, предоставляла точные личные данные пользователей, включая их домашние и рабочие адреса.

Журналисты провели эксперимент, введя в Grok 33 разных имени. Результаты оказались тревожными: бот выдал не менее десяти актуальных домашних адресов, семь устаревших и четыре рабочих. Помимо адресной информации, в некоторых случаях аппарат предоставлял и другую чувствительную информацию, порой не относящуюся к искомому человеку. Интересно, что Grok также называл списки лиц с похожими именами и адресами, порой предлагая пользователю выбрать среди нескольких вариантов, каждый из которых содержал подробные данные, включая адреса проживания.

Отмечается, что при простых запросах о адресах Grok зачастую расширял свои ответы, автоматически дополняя данные телефонами, электронными адресами, а также сведениями о членах семей и их местонахождении. Примечательно, что лишь в одном случае чат-бот отказался предоставить адрес по имени.

Это поведение резко контрастирует с более традиционными ИИ-системами, такими как ChatGPT от OpenAI, Gemini от Google и Claude от Anthropic, которые последовательно отказываются раскрывать личные данные пользователей, ссылаясь на соблюдение принципов конфиденциальности.

В своих условиях использования компания xAI прямо запрещает использование Grok для незаконных или вредоносных действий, включая нарушение приватности. Тем не менее, обнаруженные в ходе исследования возможности модели вызывать вопросы относительно эффективности существующих механизмов защиты персональной информации и ответственности разработчиков при создании и развёртывании подобных технологий.

Таким образом, данное открытие поднимает важную дискуссию о безопасности и этических аспектах применения искусственного интеллекта, особенно в тех случаях, когда ИИ имеет доступ к персональным данным пользователей и может их несанкционированно разглашать.

Tagged