OpenAI, ABD Savunma Bakanlığı (Pentagon) ile yaptığı anlaşma kapsamında yapay zekâ modellerini kurumun sınıflandırılmış (gizli) sistemlerinde kullanıma sunacağını duyurdu. Şirket, anlaşmanın “güvenlik kırmızı çizgileri” içerdiğini ve bu çerçevede bazı kullanım alanlarının net biçimde yasaklandığını belirtiyor.
Anlaşma neyi kapsıyor?
OpenAI CEO’su Sam Altman’ın açıklamasına göre anlaşma, OpenAI modellerinin ABD Savunma Bakanlığı’nın sınıflandırılmış ağları ve ilgili güvenli bulut ortamlarında belirli iş akışlarına entegre edilmesini kapsıyor. Kullanım senaryoları kamuya açık şekilde detaylandırılmasa da, odak noktasının yüksek güvenlik gerektiren alanlarda kurumsal üretkenlik ve operasyonel süreçlerde yapay zekâdan faydalanmak olduğu aktarılıyor.
“Kırmızı çizgiler” vurgusu: Gözetim ve otonom güç kullanımı
OpenAI, anlaşmada iki temel ilkenin öne çıktığını ifade ediyor:
- Yurtiçinde kitlesel gözetim (domestic mass surveillance) yasağı
- Güç kullanımında insan sorumluluğu (tam otonom ölümcül silah sistemleri gibi alanlarda insanın karar ve sorumluluğunun korunması)
Şirket, bu ilkelerin anlaşma metnine yansıtıldığını ve kamu otoritelerinin mevcut hukuk/politika çerçevesiyle uyumlu şekilde ele alındığını belirtiyor.
Arka plan: Pentagon–Anthropic geriliminin ardından geldi
Anlaşma, ABD’de savunma tarafının yapay zekâ tedarikinde “sınırlar ve güvenlik koşulları” tartışmasının büyüdüğü bir dönemde duyuruldu. Bazı haber akışlarına göre Pentagon’un rakip AI şirketi Anthropic ile yürüttüğü görüşmeler, modelin kullanım koşullarına ilişkin anlaşmazlıklar nedeniyle gündem olmuştu. OpenAI’nin duyurusu bu tartışmaların hemen ardından geldi.
Neden önemli?
Bu adım, gelişmiş yapay zekâ modellerinin yalnızca sivil kullanım senaryolarında değil, yüksek güvenlikli kamu altyapılarında da daha görünür şekilde konumlanmaya başladığını gösteriyor. Öte yandan “güvenlik kırmızı çizgileri” vurgusu, savunma tarafında AI kullanımının sınırlarına ilişkin tartışmanın önümüzdeki dönemde daha da büyüyeceğine işaret ediyor.


