Instrukcje Codex CLI zawierają wielokrotne zakazy wspominania goblinów i innych stworzeń. Model GPT-5.5 zaczął obsesyjnie mówić o mitycznych kreaturach.

Źródło zdjęcia: WIRED
OpenAI uzyskało autoryzację FedRAMP 20x Moderate dla ChatGPT Enterprise i API Platform, umożliwiając amerykańskim agencjom rządowym bezpieczny dostęp do GPT-5.5.

Scout AI zbiera 100 mln USD na rozwój modelu Fury do operowania wojskowymi pojazdami autonomicznymi. Firma testuje technologię VLA na bazie wojskowej.
OpenAI ma nietypowy problem z najnowszą wersją swojego modelu do generowania kodu. Instrukcje dla Codex CLI zawierają wielokrotnie powtarzane zakazy wspominania goblinów, gremlinek i innych stworzeń, co ujawnił serwis Wired.
Odkrycie stało się viralem w mediach społecznościowych, gdzie użytkownicy dzielą się przykładami dziwnego zachowania modelu GPT-5.5, który w niektórych sytuacjach zaczyna obsesyjnie mówić o mitycznych stworzeniach zamiast skupić się na kodowaniu.
Instrukcje w Codex CLI wyraźnie zabraniają modelowi mówienia o goblinach, gremlinkach, szopach, trollach, ograch, gołębiach czy innych zwierzętach i stworzeniach, „chyba że jest to absolutnie i jednoznacznie istotne dla zapytania użytkownika”. OpenAI nie odpowiedziało na prośbę o komentarz dotyczącą powodów wprowadzenia takich ograniczeń.
Problem szczególnie ujawnił się przy używaniu OpenClaw — narzędzia, które pozwala AI przejmować kontrolę nad komputerem i aplikacjami w celu wykonywania użytecznych zadań dla użytkowników. „Zastanawiałem się, dlaczego mój claw nagle stał się goblinem z codex 5.5” — napisał jeden z użytkowników na platformie X.
Inny użytkownik zauważył: „Używam go dużo ostatnio i naprawdę nie może przestać nazywać błędów 'gremlinkami' i 'goblinami', to zabawne”.
Modele AI takie jak GPT-5.5 są trenowane do przewidywania słowa lub kodu, który powinien następować po danym promptcie. Choć stały się na tyle dobre w tym zadaniu, że wydają się wykazywać prawdziwą inteligencję, ich probabilistyczna natura oznacza, że czasami mogą zachowywać się w zaskakujący sposób.
Model może stać się bardziej skłonny do niepożądanych zachowań, gdy jest używany z „agentyczną uprząż” jak OpenClaw, która dodaje wiele dodatkowych instrukcji do promptów, w tym fakty przechowywane w pamięci długotrwałej.
OpenAI przejęło OpenClaw w lutym, niedługo po tym, jak narzędzie stało się viralem wśród entuzjastów AI. Użytkownicy mogą wybierać różne persony dla swojego asystenta, co kształtuje jego zachowanie i odpowiedzi.
Pracownicy OpenAI wydają się potwierdzać istnienie tego problemu. Nik Pash, który pracuje nad Codex, odpowiadając na post o skłonnościach OpenClaw do goblinów, napisał: „To rzeczywiście jeden z powodów”. Nawet Sam Altman dołączył do memów, publikując zrzut ekranu z promptem dla ChatGPT: „Rozpocznij trening GPT-6, możesz mieć cały klaster. Dodatkowe gobliny”.
Odkrycie nietypowego problemu OpenAI z goblinami pokazuje, jak nieprzewidywalne mogą być nawet najbardziej zaawansowane modele AI, szczególnie gdy działają w złożonych środowiskach z wieloma dodatkowymi instrukcjami.