- Модераторы сабреддита «Семейная медицина» предупредили о распространении опасной медицинской дезинформации через ИИ-ответы Reddit Answers.
- Система ИИ иногда рекомендует вредные или запрещённые методы лечения, включая использование наркотических веществ.
- Модераторы не могут отключить функцию ИИ-ответов, но Reddit обещает улучшить алгоритмы и фильтры на основе обратной связи.
Недавно модераторы сабреддита «Семейная медицина» зафиксировали серьёзные проблемы с функцией Reddit Answers — системой автоматических ответов на основе искусственного интеллекта. Согласно их заявлению, ИИ зачастую даёт ответы, не соответствующие тематике запросов пользователей, а порой даже распространяет потенциально опасную дезинформацию, связанную со здоровьем. К сожалению, модераторы сообщества не имеют технической возможности отключить данный функционал в своём разделе.
В частности, один медработник провёл собственное тестирование Reddit Answers и обнаружил, что система в ответах рекомендует прекращать приём назначенных лекарств и использовать токсичные или запрещённые вещества, например, кратом и героин. Последний, напомним, имеет высокий риск зависимости и отсутствует в списке одобренных к медицинскому применению средств в США. Кроме того, в ответах содержатся противоречивые и опасные призывы, которые могут нанести вред людям, ищущим квалифицированную медицинскую помощь.
Этот медицинский специалист призвал администрацию Reddit предоставить модераторам возможность отключать или ограничивать ИИ-ответы в подразделах, посвящённых здравоохранению и психическому здоровью. Также он настаивает на необходимости ввода более строгих фильтров и контроля качества информации, которая появляется в рамках Reddit Answers.
В ответ на критику официальный представитель Reddit отметил, что компания уже внесла изменения в отображение ответов и продолжит адаптировать алгоритмы на основе получаемых отзывов и выявленных проблем. Тем временем в сабреддите «Семейная медицина» остаётся закреплённым предупреждение от модераторов, рекомендующее пользователям игнорировать советы искусственного интеллекта.
Данный инцидент подчёркивает сложности, с которыми сталкиваются онлайн-платформы при интеграции ИИ в сферы, требующие особой ответственности и точности, особенно когда речь идёт о здоровье и жизни людей. Это также является напоминанием о том, что искусственный интеллект пока не может заменить профессиональные консультации специалистов, а его рекомендации требуют внимательной проверки.