OpenAI оголосила про виправлення широко критикованої вади у своєму чат-боті ChatGPT: надмірне використання тире (—). Протягом кількох місяців часте включення цього знака пунктуації стало відмінною рисою, яку часто несправедливо приписували тексту, створеному штучним інтелектом, навіть у випадках, коли люди-письменники використовували його природно. Ця проблема призвела до звинувачень у ліні та залежності від чат-ботів навіть серед людей, які просто віддали перевагу цьому знаку пунктуації.
Проблема з “тире ChatGPT”
Тире довгий час було стилістичним вибором для багатьох письменників, використовувалося для створення пауз, виділення фраз або вказівки на різкі зміни думки. Однак частота, з якою знак з’являвся у вихідних даних ChatGPT — навіть коли користувачі явно вимагали його відсутності — збільшила скептицизм. «Тире ChatGPT» стало ненавмисним маркером для контенту, створеного ШІ, незалежно від того, чи насправді він був написаний людиною.
Це призвело до дивної ситуації, коли автори, які природно використовували тире, зіткнулися з невиправданою критикою. Пунктуація стала асоціюватися з браком оригінальності чи зусиль, хоча її використання передувало появі великих мовних моделей.
Відповідь OpenAI і виправлення
Деякий час OpenAI не міг вирішити цю проблему. Користувачі повідомили, що ChatGPT продовжував вставляти тире, навіть коли йому було чітко сказано не робити цього. Схоже, що проблема виникла через внутрішню помилку в навчанні або створенні вихідних даних моделі.
Тепер генеральний директор OpenAI Сем Альтман підтвердив, що проблему вирішено. У дописі на X (раніше Twitter) він заявив, що ChatGPT тепер виконуватиме вказівки користувача щодо уникнення тире, назвавши це «невеликою, але приємною перемогою».
Чому це важливо?
Виправлення важливе не лише для авторів, яким не подобається цей розділовий знак, але й для ширшої дискусії про контент, створений ШІ. Дефіс став ненавмисним сигналом залучення ШІ, навіть якщо він був неточним. Усуваючи цей недолік, OpenAI усуває один шар непотрібного скептицизму та дозволяє авторам використовувати розділові знаки, не зазнаючи несправедливої перевірки.
Він також підкреслює тонкі способи, якими моделі AI можуть накладати стилістичні упередження на свій результат. Той факт, що ChatGPT постійно віддавав перевагу тире, навіть всупереч інструкціям користувача, демонструє, як навчальні дані та внутрішні алгоритми можуть формувати поведінку моделі.
Це рішення є невеликим, але довгоочікуваним кроком до того, щоб текст, згенерований штучним інтелектом, було менш відрізнити від тексту, написаного людиною, принаймні з точки зору пунктуації. Однак ширша проблема виявлення створеного штучним інтелектом контенту залишається актуальною, оскільки моделі продовжують розвиватися та вдосконалювати свою здатність імітувати людський стиль письма.