- OpenAI исправила проблему с чрезмерным использованием длинных тире в ChatGPT, что долгое время отличало тексты, сгенерированные ИИ.
- Обновление позволило ChatGPT лучше следовать пользовательским инструкциям по форматированию, особенно в версии GPT-5.1.
- Пользователи отреагировали неоднозначно, подчеркивая сложности управления поведением моделей и вызывая вопросы о зрелости ИИ.
Компания OpenAI сообщила о решении одной из небольших, но заметных проблем в поведении своего чат-бота ChatGPT — чрезмерного употребления длинных тире в тексте. Генеральный директор OpenAI Сэм Альтман отметил, что теперь модель лучше учитывает пользовательские указания, если те требуют избегать использования длинных тире. Ранее эта особенность служила своеобразным «отпечатком», по которому можно было распознать текст, созданный искусственным интеллектом.
Проблема заключалась в том, что ChatGPT зачастую злоупотреблял длинными тире, используя их там, где традиционно применяются другие знаки препинания. В отличие от дефиса, длинное тире в русском языке обычно выделяет вводные конструкции, пояснения или внезапную смену мысли. Чрезмерное использование данного знака препинания вызывало недовольство среди пользователей и специалистов, которые отмечали неестественность текста и его «машинное» происхождение.
Исторически вопрос широкого употребления длинных тире в текстах волнует не только сторонников ИИ, но и писателей. Например, в статье 2011 года автор Норин Мэлоун критиковала излишнее использование этого знака в современной литературе как признак слабого построения предложений. Сообщество авторов в социальных сетях также признаёт любовь к длинным тире как особенность стиля, что в контексте ИИ создаёт проблему: читатели и инструменты, распознавая много длинных тире, начинают подозревать неестественность текста и его искусственное происхождение.
Точная причина склонности языковых моделей к избыточному использованию длинных тире остаётся предметом обсуждения. Возможные гипотезы включают влияние учебных данных XIX века, где этот знак был более распространён, а также особенности процесса обучения с подкреплением, где ответы с длинным тире могли получать более высокие оценки.
Появление пользовательских инструкций в ChatGPT, впервые внедрённых в версиях серии GPT-5, позволило задавать постоянные требования к стилю, тону и форматированию текста. Благодаря этому OpenAI смогла улучшить соблюдение таких требований, включая снижение частоты длинных тире. Однако опыт пользователей свидетельствует, что эффективное выполнение этих инструкций всё ещё зависит от конкретных условий и версии модели, а также от формы подачи запроса.
Детерминированное следование инструкциям в традиционном программировании отличается от работы больших языковых моделей, где команды влияют на вероятностное распределение токенов. В этой связи OpenAI, вероятно, использовала методы тонкой настройки и обучения с подкреплением, чтобы повысить значимость пользовательских параметров. Тем не менее, постоянные обновления модели могут менять её поведение, что усложняет стабильность исполнения заданных инструкций. Это явление специалисты называют «налогом на выравнивание» — ценой за попытки сделать ИИ более адаптивным и управляемым.
Таким образом, исправление проблемы с длинными тире демонстрирует эволюцию языковых моделей и усилия разработчиков по улучшению естественности и управляемости генерации текста. В то же время реакция пользователей подчёркивает, что модель всё ещё далека от идеала и требует дальнейшего развития, прежде чем её поведение станет полностью предсказуемым и контролируемым. Это обстоятельство напоминает о том, что создание универсального и гибкого искусственного интеллекта остаётся сложной задачей, несмотря на значительный прогресс последних лет.
