OpenAI применяет ChatGPT для контроля сотрудников через Slack и почту Обложка: Skyread

OpenAI применяет ChatGPT для контроля сотрудников через Slack и почту

Новости
Главное:

  • OpenAI внедрила кастомную версию ChatGPT для мониторинга переписки сотрудников в Slack, электронной почте и внутренних документах.
  • Искусственный интеллект анализирует утечки информации, сопоставляя тексты публикаций с внутренними файлами и доступом сотрудников, используя понимание контекста.
  • Инструмент появился в конце 2024 года на фоне волн утечек и скандала с соглашениями о неразглашении, однако пока нет подтверждений его успешного применения для поимки нарушителей.

Компания OpenAI начала использовать усовершенствованную версию ChatGPT в целях внутреннего контроля и безопасности информации. По данным издания The Information, адаптированный искусственный интеллект имеет доступ к переписке сотрудников в корпоративном мессенджере Slack, электронной почте и внутренним документам. Когда в СМИ появляется сообщение о возможной утечке, служба безопасности передаёт эту публикацию ИИ, который анализирует содержание и быстро определяет вероятного источника, сравнивая текст с внутренними данными и списком сотрудников, к ним имевших доступ.

В отличие от классических систем предотвращения утечек, основанных на поиске ключевых слов, данный инструмент применяет глубокое понимание контекста. Это позволяет обнаруживать скрытые утечки информации, даже если она была перефразирована. Искусственный интеллект выделяет уникальные формулировки, специальные данные и внутренние коды проектов, известные лишь узкому кругу сотрудников. По сведениям The Decoder, технология базируется на внутреннем ИИ-агенте OpenAI, который способен обрабатывать сложные текстовые данные, интегрируясь с различными корпоративными системами, такими как Slack и Google Docs.

Данный инструмент был разработан и внедрён в конце 2024 года после серии утечек информации, касающихся проектов Q* и Strawberry, а также на фоне конфликта с соглашениями о неразглашении (NDA). Ранее в 2024 году стало известно, что OpenAI требовала от увольняющихся сотрудников подписывать пожизненные NDA под угрозой потери прав на акции компании. Один из бывших сотрудников, Дэниел Кокотайло, отказался подписывать договор и был лишён своей доли. Эта ситуация вызвала публичное извинение Сэма Альтмана и последующую корректировку стандартных условий.

Хотя пока нет подтверждённых случаев, что ИИ-инструмент помог выявить конкретных нарушителей, появление такой системы уже заметно влияет на корпоративную культуру. По словам одного из инженеров, сотрудники теперь более тщательно пересматривают каждое сообщение, даже самое безобидное. Статистические данные отрасли указывают на то, что 83% компаний столкнулись с инсайдерскими атаками в 2024 году, при этом средние убытки от одного инцидента превышают 17 миллионов долларов. В этом контексте мотивация OpenAI к таким мерам безопасности очевидна.

Заметна и ирония ситуации: компания, которая интенсивно использует сбор данных из открытых источников для обучения своих моделей, теперь применяет собственный интеллект, чтобы предотвратить утечки внутренней информации. Этот шаг демонстрирует как серьёзность проблемы информационной безопасности в технологических компаниях, так и новые возможности ИИ в таких задачах.

Tagged