Pentagon, ChatGPT’i Kaldırdı: Savunma Ağlarında KI Güvenliği İçin Sıfır Tolerans İlkesi

Pentagon, ChatGPT’i Kaldırdı: Savunma Ağlarında KI Güvenliği İçin Sıfır Tolerans İlkesi
Pentagon, ChatGPT’i Kaldırdı: Savunma Ağlarında KI Güvenliği İçin Sıfır Tolerans İlkesi
Amerika’nın en güçlü askeri kurumu, yapay zekânın en popüler adı olan ChatGPT’i, iç ağlarından tamamen susturdu. ABD Savunma Bakanlığı (Pentagon), son bir ay içinde tüm personelin Pentagon ve bağlı komuta merkezlerinde genel amaçlı yapay zekâ araçlarını kullanmasını yasakladı. Bu karar, yalnızca bir teknoloji yasaklaması değil; savunma stratejisinin dijital çağda nasıl yeniden tanımlanacağına dair derin bir felsefi ve operasyonel dönüşümün habercisi.
Yasak, 2024 sonlarında bir sızıntı olayıyla tetiklendi. Bir subay, bir operasyon planını analiz etmek için ChatGPT’ye bir metin kopyaladı — ve bu metin, gizli operasyon detaylarını içeriyordu. OpenAI’nin sunucularına gönderilen bu veri, üç gün sonra bir haber sitesinde paylaşıldı. Pentagon, bu olayın tesadüfi olmadığını, yapay zekânın veri toplama mekanizmalarının sızıntıya açık olduğunu kanıtladı. Bu, sadece bir hata değil, sistemik bir zayıflık oldu.
Neden ChatGPT? Neden Şimdi?
Pentagon’un bu kararını anlamak için, yapay zekânın savunma dünyasında nasıl bir rol oynadığını bilmek gerekir. 2022’den beri, ABD ordusu, ChatGPT gibi araçları rapor yazımında, dil çevirilerinde ve hatta taktiksel senaryo üretmede kullanıyordu. Hızlı, ucuz ve kolay — ama tamamen güvenli değildi. Kullanıcılar, gizli verileri ‘kopyala-yapıştır’ yaparken, bu verilerin bir yapay zekâ modeline girdiğini ve bu modelin, bir gün başka bir kullanıcıya çıktı olarak sunulabileceğini düşünmüyorlardı.
2025 DOD Geçiş El Kitabı’nda (2025dodtransition.defense.gov) yer alan bir bölüm, “dijital güvenlik kültürünün” savunma bakanlığında bir önceki on yılda nasıl zayıfladığını açıkça belirtiyor: “Personelin teknolojiye olan bağımlılığı, güvenlik protokollerini göz ardı etmeye yöneltti. KI araçları, ‘hızlı çözüm’ olarak görüldü — güvenlik değil, verimlilik öncelikliydi.”
Bu durum, 2024’teki bir Pentagon iç denetimiyle ortaya çıktı: 73% personelin, gizli ağlarda kişisel KI araçlarını kullandığı tespit edildi. Bu rakam, sadece askeri personelde değil, sivil çalışanlarda bile %81’e ulaşmıştı. Bu, bir güvenlik kazağı değil, bir sistemik çöküştü.
Yasak Değil, Dönüşüm
Ancak Pentagon’un amacı, yapay zekâyı tamamen reddetmek değil, onu yeniden şekillendirmek. Bu kararın hemen ardından, “Sıfır Tolerans KI Politikası” adlı bir yeni strateji duyuruldu. Bu politikaya göre, Pentagon’un iç ağlarında çalışan herhangi bir yapay zekâ sistemi, tamamen izole edilmiş, fiziksel olarak ayrı bir sunucuda çalışacak, veri girişi olmayacak, dış bağlantıları kapatılmış ve yalnızca onaylanmış veri setleriyle eğitilmiş olacak.
Yani, ChatGPT yasaklandı — ama “Pentagon GPT” doğuyor. Bu yeni sistem, sadece askeri raporlar, harita verileri ve operasyonel komutlarla eğitilecek. Hiçbir dış veriye izin verilmeyecek. Hiçbir kullanıcıya, veri girmeye izin verilmeyecek. Her işlem, iki yetkili tarafından onaylanacak. Bu, bir “Kapalı KI” modeli — teknolojik olarak daha yavaş, ama güvenlik açısından tamamen kontrol altında.
Ne Anlama Geliyor? Savunma Dünyasında Yeni Bir Dönem
Bu karar, sadece ABD için değil, tüm NATO ülkeleri için bir işaret. Avrupa’nın savunma ajansları, bu kararı dikkatle izliyor. Almanya ve Fransa, benzer yasaklar hazırlıyor. Çin ise, tam tersine, kamu verilerini kullanarak devasa KI modelleri eğitiyor — ve bunları askeri altyapılara entegre ediyor.
Pentagon’un kararı, KI’nın “hızlı ve kolay” kurgusunun sonunu getiriyor. Gelecekte, yapay zekâ, bir araç değil, bir askeri sistem olacak. Ve bu sistem, insanlar tarafından değil, kurallarla yönetilecek. Her çıktı, her girdi, her hesaplama, bir savunma stratejisinin parçası olacak. Bu, KI’nın “kullanıcı dostu” çağının sonu. Yeni çağ: “güvenlik dostu” KI.
Geleceğin Sıfır Toleransı
Gelecekte, bir subayın bir rapor yazmak için bir KI aracına “İran’ın hava savunma hatları neler?” diye sorması, mümkün olmayacak. Çünkü bu soru, bir güvenlik ihlali olacak. Ama aynı subay, Pentagon’un kendi, izole edilmiş, şifrelenmiş KI sistemine “İran’ın hava savunma hatları hakkında 2023-2024 arası verileri analiz et” diyebilir — ve sistem, yalnızca onaylanmış verilerle cevap verecek.
Bu, teknolojinin değil, düşünce tarzının değişimi. KI artık “yardımcı” değil, “kurallı silah” haline geliyor. Ve bu dönüşüm, sadece bir teknoloji kararı değil, bir askeri etik karar.
Pentagon, ChatGPT’i kaldırdı. Ama yapay zekâyı değil, onun korkutucu sürümünü. Bu, bir yasak değil, bir yeniden doğuş.


