Deloitte компенсирует Австралии расходы из-за ошибок ИИ в отчетах Обложка: Skyread

Deloitte компенсирует Австралии расходы из-за ошибок ИИ в отчетах

Новости
Главное:

  • Deloitte выплатит министерству занятости Австралии компенсацию за неправильный отчёт, созданный с применением ИИ.
  • В отчёте, предназначенном для государственной системы отслеживания пособий, были обнаружены ошибки, в том числе ссылки на вымышленные научные статьи.
  • Deloitte открыто признала использование модели Azure OpenAI GPT-4o для исправления некоторых недостатков в отчёте, однако списывает ошибки на человеческий фактор.

Компания Deloitte, предоставляющая консалтинговые услуги, взяла на себя ответственность за ошибочный отчёт, подготовленный по заказу Министерства занятости и трудовых отношений Австралии. Документ был создан для Целевой системы соответствия (Targeted Compliance Framework) — государственной IT-платформы, которая контролирует соблюдение условий получения пособий, включая обязательные процедуры, такие как собеседования при трудоустройстве.

Отчёт стоил австралийскому правительству около 439 тысяч долларов (приблизительно 290 тысяч долларов США), но вскоре после публикации в нём были обнаружены многочисленные недочёты. В частности, появилось несколько ссылок на научные статьи, которые не существуют. Исправленная версия документа была размещена на официальном сайте министерства в конце сентября.

В ходе внутреннего расследования Deloitte признала, что в подготовке отчёта использовались возможности искусственного интеллекта — конкретно модель Azure OpenAI GPT-4o, размещённая на аккаунте Министерства занятости и трудовых отношений Австралии. Эта модель применялась для устранения некоторых пробелов в отчёте, связанных с отслеживаемостью и документацией. Несмотря на это, официально ошибки объяснили человеческим фактором.

Случай с Deloitte не единственный пример проблем, возникающих при использовании ИИ для деловой и журналистской деятельности. В мае американская газета Chicago Sun-Times признала, что её ежегодный летний список рекомендуемых книг был составлен с помощью искусственного интеллекта и включал вымышленные названия произведений. В частности, в перечне появилась несуществующая книга Tidewater Dreams, якобы написанная Исабель Альенде, хотя в её библиографии такой книги нет. Эти ситуации отражают растущие риски применения ИИ без должной проверки и контроля качества информации.

Таким образом, опыт Deloitte подчёркивает важность тщательной верификации данных, созданных с помощью искусственного интеллекта, особенно когда речь идёт о государственных системах и официальных документах. Публичное признание ошибок и компенсация убытков со стороны консультантов демонстрируют стремление к ответственности в условиях динамичного развития технологий и их интеграции в повседневную работу организаций.

Tagged