- Американская компания Anthropic ищет эксперта по химическому оружию и взрывчатым веществам для предотвращения злоупотреблений своим ИИ-программным обеспечением.
- Вакансия требует минимум пять лет опыта и знаний о радиоактивных средствах рассеивания, известных как «грязные бомбы».
- Подобные меры предпринимает и OpenAI, однако эксперты выражают опасения из-за отсутствия международного регулирования в использовании ИИ в военных целях.
Компания Anthropic, занимающаяся разработкой искусственного интеллекта, объявила о поиске специалиста, задача которого — минимизировать риск «катастрофического неправомерного использования» технологий, в частности предотвращать возможность создания и использования химического и радиоактивного оружия с помощью ИИ. Данная инициатива направлена на усиление защитных механизмов программного обеспечения и предотвращение ситуаций, когда ИИ-инструменты могут быть использованы злоумышленниками для получения опасной информации.
Соискатель на должность должен обладать не менее чем пятилетним опытом работы в сфере защиты от химического оружия и управления взрывчатыми веществами, а также иметь глубокие знания в области радиационных средств рассеивания, так называемых «грязных бомб». Это подтверждает серьезность требований и стратегию компании по обеспечению безопасности своих разработок.
Anthropic отмечает, что подобные меры безопасности уже практикуются в смежных отраслях, и она не единственная, кто расширяет штат профессионалов для контроля рисков. Так, компания OpenAI также разместила вакансию с похожими требованиями и предлагает вознаграждение почти вдвое выше, чем Anthropic, что свидетельствует о высокой конкуренции за экспертов в области биологической и химической безопасности при работе с ИИ.
Тем не менее, в профессиональной среде звучат предупреждения о том, что существующий подход несет определенные риски. Эксперты указывают, что предоставление ИИ доступа к информации о создании оружия даже с целью контроля может повысить вероятность нежелательного распространения таких знаний, особенно ввиду отсутствия четких международных договоренностей и регулирования в этом вопросе. К тому же, подобные работы часто ведутся без широкой огласки, что вызывает дополнительную обеспокоенность.
Индустрия искусственного интеллекта длительное время акцентирует внимание на потенциальных экзистенциальных угрозах, связанных с развитием технологий, однако реальные меры со стороны компаний и законодательных органов остаются ограниченными. Особое значение этому придается на фоне роста сотрудничества между ИИ-компаниями и американским правительством, включая контракты и применение ИИ-технологий в военных операциях на Ближнем Востоке.
Например, в конце прошлого месяца генеральный директор Anthropic, Дарио Амодей, отказался предоставить Министерству обороны США полный доступ к своим ИИ-системам, что привело к включению компании в список рисков для цепочки поставок США. В ответ Anthropic ведет судебные разбирательства, оспаривая данный статус. Руководство компании подчёркивает, что их технологии не предназначены для создания полностью автономного оружия или массового слежения, указывая на текущие технические ограничения.
OpenAI поддерживает подобную позицию, однако при этом заключила собственный контракт с правительственными структурами США, который ещё не вступил в силу. Пока же Пентагон использует систему Claude от Anthropic через платформу Palantir, что демонстрирует сложность и многослойность сотрудничества между военными и ИИ-разработчиками.