OpenAI udostępniła Unii Europejskiej specjalistyczną wersję modelu GPT-5.5-Cyber, zoptymalizowaną pod kątem zadań z zakresu cyberbezpieczeństwa. Wydarzenie to wyróżnia się nie tyle samym faktem przekazania technologii, co szczegółami modyfikacji architektury oraz metodologią oceny, które wyraźnie odróżniają podejście firmy od bardziej powściągliwej strategii Anthropic.
Model bazuje na architekturze Mixture of Experts (MoE) o łącznej liczbie parametrów wynoszącej około 1,2 biliona, gdzie 12 aktywnych ekspertów – każdy posiadający 120 miliardów parametrów – odpowiada za konkretne kategorie zagrożeń. Proces douczania przeprowadzono na syntetycznych zbiorach danych o atakach, opartych na strukturze MITRE ATT&CK, przy użyciu wariantu metody RLHF wzmocnionego informacjami zwrotnymi od wyspecjalizowanych agentów analitycznych. W rezultacie, w testach porównawczych wykrywania technik MITRE, model osiąga 94,7% dokładności w trybie zero-shot, co stanowi wynik o 11 punktów wyższy niż w przypadku poprzedniej wersji GPT-5.
Przyjęta metodologia oceny budzi jednak pewne wątpliwości: testy realizowano głównie na wewnętrznych zbiorach danych OpenAI, a nie na w pełni niezależnych, publicznie dostępnych zestawach. Brakuje również danych z badań ablacyjnych, które mogłyby wskazać realny wkład poszczególnych komponentów procesu douczania. Utrudnia to jednoznaczną ocenę, w jakim stopniu poprawa wyników wynika bezpośrednio ze specjalizacji w dziedzinie cyberbezpieczeństwa, a na ile jest efektem ogólnego zwiększenia skali modelu.
W porównaniu z równolegle rozwijanym modelem Mythos firmy Anthropic, zaprezentowanym w kwietniu 2026 roku, podejścia obu firm są zasadniczo rozbieżne. Anthropic kładzie nacisk na wielopoziomową weryfikację konstytucyjną i publikuje szczegółowe raporty na temat trybów awaryjnych (failure modes), podczas gdy OpenAI ogranicza się do prezentacji zagregowanych wskaźników. Taka rozbieżność odzwierciedla odmienne wizje dotyczące sposobu ujawniania ograniczeń modeli przeznaczonych do ochrony infrastruktury krytycznej.
Wdrożenie GPT-5.5-Cyber w UE umożliwia europejskim organom regulacyjnym oraz operatorom infrastruktury krytycznej testowanie modelu w rzeczywistych scenariuszach bez konieczności przesyłania surowych danych poza granice regionu. Tworzy to precedens w zakresie kontrolowanego dostępu do modeli granicznych (frontier models), co może wpłynąć na przyszłe porozumienia dotyczące transgranicznego wykorzystania sztucznej inteligencji.
Jednocześnie wciąż nie wiadomo, na ile odporny jest model na ataki adaptacyjne, wymierzone bezpośrednio w jego komponenty dedykowane cyberbezpieczeństwu. Środowisko eksperckie prawdopodobnie skupi się teraz na niezależnej weryfikacji odporności na ataki typu prompt injection oraz na próbach odtworzenia wyników na otwartych zbiorach danych.
Kluczowy wniosek jest taki, że dostęp do GPT-5.5-Cyber dostarcza Unii Europejskiej narzędzia do przyspieszonego rozwoju własnych standardów oceny modeli specjalistycznych, wymaga jednak równoległych inwestycji w systemy niezależnej weryfikacji.




