OpenAI, siber güvenlik görevlerine odaklanan uzmanlaşmış GPT-5.5-Cyber modeline erişim yetkisini Avrupa Birliği'ne devretti. Bu gelişme, yalnızca erişim sağlanmasıyla değil, şirketin yaklaşımını Anthropic'in daha temkinli stratejisinden ayıran mimari geliştirme detayları ve değerlendirme metodolojisiyle de öne çıkıyor.
Toplamda yaklaşık 1,2 trilyon parametreye sahip bir "uzmanlar karması" (MoE) yapısı üzerine inşa edilen modelde, her biri 120 milyar parametreli 12 aktif uzman birimi belirli tehdit sınıflarından sorumlu tutuluyor. İnce ayar süreci, özel analiz birimlerinden gelen geri bildirimlerle güçlendirilmiş bir RLHF varyantı kullanılarak MITRE ATT&CK çerçevesindeki sentetik saldırı veri setleri üzerinde gerçekleştirildi. Sonuç olarak model, MITRE tekniklerini tespit etme kıyaslamasında %94,7 sıfır örneklem (zero-shot) doğruluğuna ulaşarak bir önceki GPT-5 sürümünü 11 puan geride bırakıyor.
Ancak kullanılan değerlendirme metodolojisi bazı soru işaretlerini de beraberinde getiriyor; zira testler tamamen bağımsız kamuya açık veri setleri yerine ağırlıklı olarak OpenAI'ın dahili setleri üzerinde yürütüldü. Her bir ince ayar bileşeninin modele katkısını gösteren ablasyon çalışmalarına dair verilerin eksikliği dikkat çekiyor. Bu durum, performans artışının ne kadarının siber uzmanlaşmadan, ne kadarının ise genel ölçek büyümesinden kaynaklandığının anlaşılmasını zorlaştırıyor.
Anthropic’in Nisan 2026'da tanıttığı Mythos modeliyle yürütülen paralel çalışmalarla kıyaslandığında, izlenen yaklaşımlar temelden ayrışıyor. Anthropic çok katmanlı anayasal denetimlere vurgu yapıp başarısızlık modları hakkında ayrıntılı raporlar yayımlarken, OpenAI yalnızca toplu metrikleri paylaşmakla yetiniyor. Bu farklılık, kritik altyapılar için tasarlanan modellerin kısıtlamalarının nasıl açıklanması gerektiğine dair vizyon ayrılığını yansıtıyor.
GPT-5.5-Cyber'ın AB'de kullanıma sunulması, Avrupalı düzenleyicilerin ve kritik altyapı operatörlerinin, ham verileri bölge dışına çıkarmadan modeli gerçek senaryolarda test etmesine olanak tanıyor. Bu durum, yapay zekanın sınır ötesi kullanımına ilişkin gelecekteki anlaşmaları etkileyebilecek kontrollü bir "öncü model" (frontier model) erişim emsali oluşturuyor.
Bununla birlikte, modelin özellikle kendi siber bileşenlerini hedef alan adaptif saldırılara karşı ne kadar dirençli olduğu henüz netlik kazanmış değil. Uzman topluluğunun muhtemelen "prompt" enjeksiyonlarına karşı dayanıklılığın bağımsız olarak doğrulanmasına ve sonuçların açık veri setlerinde yeniden üretilmesine odaklanması bekleniyor.
Temel çıkarım şu ki; GPT-5.5-Cyber erişimi AB'ye uzmanlaşmış modeller için kendi değerlendirme standartlarını geliştirme noktasında hızlandırıcı bir araç sunsa da, bu süreç paralelinde bağımsız doğrulama yatırımlarının yapılmasını zorunlu kılıyor.




