OpenAI ogłosiło naprawę szeroko krytykowanej wady swojego chatbota ChatGPT: nadmiernego używania myślnika (-). W ciągu kilku miesięcy częste umieszczanie tego znaku interpunkcyjnego stało się cechą wyróżniającą, często niesłusznie przypisaną tekstowi generowanemu przez sztuczną inteligencję, nawet w przypadkach, gdy autorzy używali go w sposób naturalny. Problem ten wywołał oskarżenia o lenistwo i uzależnienie od chatbotów, nawet wśród osób, które po prostu wolały ten znak interpunkcyjny.
Problem z „kreską ChatGPT”
Myślnik od dawna był wyborem stylistycznym wielu pisarzy, używanym do tworzenia pauz, podkreślania fraz lub wskazywania nagłych zmian w myślach. Jednak częstotliwość pojawiania się znaku w wynikach ChatGPT – nawet jeśli użytkownicy wyraźnie prosili o jego nieobecność – zwiększyła sceptycyzm. „Myślnik ChatGPT” stał się niezamierzonym znacznikiem treści generowanych przez sztuczną inteligencję, niezależnie od tego, czy faktycznie został napisany przez człowieka.
Doprowadziło to do dziwnej sytuacji, w której autorzy, którzy w naturalny sposób używali myślników, spotykali się z nieuzasadnioną krytyką. Interpunkcja jest kojarzona z brakiem oryginalności lub wysiłku, chociaż jej użycie poprzedza powstanie dużych modeli językowych.
Odpowiedź i naprawa OpenAI
Przez pewien czas OpenAI nie był w stanie rozwiązać tego problemu. Użytkownicy zgłosili, że ChatGPT nadal wstawia myślniki, nawet jeśli wyraźnie zakazano mu tego robić. Problem wydawał się wynikać z wewnętrznego błędu w szkoleniu lub generowaniu danych wyjściowych modelu.
Teraz dyrektor generalny OpenAI Sam Altman potwierdził, że problem został rozwiązany. W poście na X (dawniej Twitterze) stwierdził, że ChatGPT będzie teraz postępować zgodnie z instrukcjami użytkownika, aby unikać myślników, nazywając to „małym, ale miłym zwycięstwem”.
Dlaczego to jest ważne?
Korekta jest istotna nie tylko dla autorów, którym nie podoba się ten znak interpunkcyjny, ale także dla szerszej dyskusji na temat treści generowanych przez sztuczną inteligencję. Kreska em stała się niezamierzonym sygnałem zaangażowania sztucznej inteligencji, nawet jeśli była niedokładna. Eliminując tę wadę, OpenAI usuwa jedną warstwę niepotrzebnego sceptycyzmu i pozwala autorom używać interpunkcji bez narażania się na nieuczciwą kontrolę.
Podkreśla również subtelne sposoby, w jakie modele sztucznej inteligencji mogą narzucać stylistyczne uprzedzenia na swoje wyniki. Fakt, że ChatGPT konsekwentnie faworyzował myślniki, nawet wbrew instrukcjom użytkownika, pokazuje, jak dane szkoleniowe i algorytmy wewnętrzne mogą kształtować zachowanie modelu.
Decyzja ta jest małym, ale mile widzianym krokiem w kierunku uczynienia tekstu wygenerowanego przez sztuczną inteligencję mniej odróżnialnym od tekstu pisanego przez człowieka, przynajmniej pod względem interpunkcji. Jednak szersze wyzwanie, jakim jest wykrywanie treści generowanych przez sztuczną inteligencję, pozostaje nadal w miarę ewolucji modeli i poprawy ich zdolności do naśladowania ludzkiego stylu pisania.
