Сработало, но не у всех. OpenAI научила ChatGPT не использовать длинное тире
ChatGPT (Фото: Viralyft/Unsplash)
OpenAI пока удалось решить одну небольшую, но заметную проблему: научить ChatGPT не злоупотреблять длинным тире.
Гендиректор компании Сэм Альтман сообщил об этом в заметке в X.
Он написал: «Если сказать ChatGPT в персональных инструкциях не использовать em-dash, наконец-то все работает как надо!» Альтман назвал это «маленькой, но приятной победой».
OpenAI также подтвердила обновление в Threads. Там ChatGPT попросили написать официальное извинение за то, что он «испортил длинное тире». В то же время сам текст извинения бот все равно не смог написать без этого знака.
Речь не о том, что ChatGPT научили корректнее использовать длинное тире или делать это реже автоматически. Пользователям просто дали возможность запретить боту применять этот символ. Это можно изменить в настройках персонализации.
Функция появилась после выхода новой модели GPT-5.1. В компании отмечали, что эта версия лучше выполняет инструкции и имеет больше возможностей персонализации. Отказ от длинного тире — лишь пример того, как пользователь может использовать эти функции. Это не является исправлением самой модели.
Однако такое решение работает не у всех. Некоторые пользователи в ответах к сообщению Альтмана жаловались, что даже после запрета их версия ChatGPT все равно вставляет длинные тире. Это показывает, насколько непрозрачными остаются большие языковые модели и почему общее решение таких проблем до сих пор сложно.
OpenAI, похоже, научила модель сильнее учитывать персональные указания. Благодаря этому в отдельных случаях ChatGPT перестает использовать длинное тире. Но компания все еще не знает, почему эта проблема возникла и почему может повторяться. Авторы предполагают, что именно поэтому OpenAI сейчас больше сосредотачивается на персонализации, а не на громких обещаниях об AGI.