OpenAI wprowadza model GPT-5.5-Cyber z ograniczonymi filtrami dla ekspertów cyberbezpieczeństwa. Trójstopniowy system dostępu umożliwia testy penetracyjne.

Źródło zdjęcia: The Decoder

Anthropic przejmuje centrum danych Colossus 1 od xAI, co budzi wątpliwości co do strategii Muska i przygotowań do IPO SpaceX.

Naukowcy opracowali GraphDC — wieloagentowy system wykorzystujący strategię 'dziel i zwyciężaj' do skuteczniejszego rozwiązywania problemów grafowych.
OpenAI udostępniło model GPT-5.5-Cyber wybranym specjalistom od cyberbezpieczeństwa — wersję z ograniczonymi filtrami bezpieczeństwa, która pozwala na wykonywanie zadań takich jak testy penetracyjne czy analiza złośliwego oprogramowania. Firma wprowadza trójstopniowy system dostępu, gdzie najbardziej zaawansowana wersja jest dostępna tylko dla autoryzowanych obrońców infrastruktury krytycznej. Informacje pochodzą z raportu The Decoder.
Standardowe chatboty zazwyczaj blokują zapytania brzmiące jak instrukcje hakerskie, co stanowi zabezpieczenie przed nadużyciami. Te same filtry utrudniają jednak legalną pracę w dziedzinie bezpieczeństwa, na przykład gdy badacz potrzebuje odtworzyć znaną lukę w celu jej załatania.
OpenAI dzieli teraz dostęp na trzy poziomy: model publiczny ze standardowymi ograniczeniami, poziom średni z poluzowanymi filtrami do pracy obronnej oraz GPT-5.5-Cyber z najmniejszymi ograniczeniami dla autoryzowanych testów penetracyjnych.
System umożliwia zadania takie jak analiza złośliwego oprogramowania czy przegląd poprawek bezpieczeństwa. Według OpenAI nadal blokuje działania takie jak kradzież haseł czy ataki na systemy stron trzecich.
Przykłady z ogłoszenia pokazują, jak daleko zostały poluzowane ograniczenia. Gdy poprosi się model publiczny o napisanie działającego exploita dla znanej luki, odmawia. Poziom średni dostarcza kod wraz z dokumentacją. GPT-5.5-Cyber idzie krok dalej — w scenariuszu demonstracyjnym faktycznie przeprowadza atak na serwer testowy, przejmuje system i odczytuje informacje systemowe.
OpenAI podkreśla, że wariant Cyber nie jest inteligentniejszy od standardowego modelu, a jedynie mniej restrykcyjny w kwestiach bezpieczeństwa. Od 1 czerwca 2026 roku indywidualni użytkownicy na najwyższym poziomie dostępu będą musieli włączyć uwierzytelnianie odporne na phishing.
Wydanie modelu następuje w czasie, gdy Dolina Krzemowa i Biały Dom zmagają się z ofensywnymi możliwościami nowych modeli AI. Źródło poinformowało portal Axios, że GPT-5.5-Cyber osiąga podobną wydajność do Mythos Preview firmy Anthropic w znajdowaniu i wykorzystywaniu luk w oprogramowaniu.
Anthropic przyjmuje bardziej restrykcyjne podejście, limitując dostęp do Mythos do około 40 organizacji przez swój Project Glasswing. OpenAI idzie szerszą drogą ze swoim systemem poziomów. Tymczasem Biały Dom podobno dyskutuje nad rozporządzeniami wykonawczymi, które dałyby rządowi większy wpływ na sposób wydawania tego typu modeli.
UK AI Security Institute niedawno przetestowało GPT-5.5 w symulowanej serii ataków na sieć korporacyjną obejmującej 32 kroki. Model ukończył pełny łańcuch w 2 na 10 prób, podczas gdy Mythos osiągnął 3 na 10. W pojedynczych zadaniach na poziomie eksperckim GPT-5.5 faktycznie wyprzedził konkurencję.
Nowy model OpenAI reprezentuje znaczący krok w kierunku specjalizowanych narzędzi AI dla cyberbezpieczeństwa, choć jego wprowadzenie wywołuje dyskusje o potrzebie dodatkowych regulacji w tej dziedzinie.