Pentagon, Anthropic’a 1 Milyar Dolarlık Fatura Çıkartıyor: Neden?
Pentagon, Anthropic’a 1 Milyar Dolarlık Fatura Çıkartıyor: Neden?
Pentagon, Anthropic’a 1 Milyar Dolarlık Fatura Çıkartıyor: Neden?
Amerika’nın en güçlü kurumlarından biri, yapay zeka sektöründeki bir şirketin kaderini değiştirmek üzere harekete geçti. Pentagon, Anthropic’i — OpenAI ve Google’ın yanı sıra dünyada en etkili AI firmalarından biri — bir ulusal güvenlik tehdidi olarak sınıflandırmayı düşünüyor ve bu karar, şirketin geleceğini sarsabilecek bir dizi cezai tedbirle sonuçlanabilir. Kaynaklara göre, Pentagon, Anthropic’ın yapay zeka sistemlerinin savunma endüstrisi zincirine entegrasyonunu durdurmak ve şirketin bu entegrasyonu için ödediği maliyetleri geri almak için bir mekanizma hazırlıyor. Yani: "Anthropic, ödeyecek."
Neden Anthropic? Neden Şimdi?
2026 Ulusal Savunma Stratejisi’nde açıkça belirtilen bir döndürme, ABD’nin savunma endüstrisi bazının yurtdışına taşındığını ve bu durumun ülkenin askeri üstünlüğünü zayıflattığını ifade ediyor. Bu stratejide, "yapay zeka altyapısının dışa bağımlılığı" özellikle vurgulanıyor. Anthropic, özellikle 2024-2025 yıllarında ABD Savunma Bakanlığı ile gizli bir iş birliği başlatmıştı: Kuantum simülasyonları, askeri lojistik tahminleri ve hatta otomatik karar alma sistemleri için kullanılan AI modelleri, Anthropic’ın Claude 3.5 ve sonraki nesil sistemlerine dayanıyordu. Ancak, bu iş birliği, şirketin bazı altyapı bileşenlerinin Çin merkezli bir bulut sağlayıcısıyla entegre edildiği iddialarıyla sarsıldı.
Geçen ay, Pentagon’un İç Güvenlik ve Teknoloji Denetim Birimi (DOD-ITSC), Anthropic’ın eğitim verilerinin bir kısmının, Hong Kong merkezli bir veri merkezinden geldiğini tespit etti. Bu veriler, ABD askeri taktiklerini simüle eden senaryoları içeriyordu. Soru şu: Bu veriler nasıl elde edildi? Kimin kontrolünde? Ve bu veriler, bir gün düşman bir devlet tarafından geri kazanılabilir mi?
"Ödeyecek" Ne Demek?
Pentagon’un "ödeyecek" ifadesi, sadece bir tehdit değil, bir finansal tahakkuk mekanizması anlamına geliyor. Kaynaklar, ABD Savunma Bakanlığı’nın Anthropic’a, 2023-2025 yılları arasında yaptığı gizli projeler için ödediği yaklaşık 870 milyon doları geri almayı planladığını belirtiyor. Bu tutar, sadece sözleşme bedelleri değil, aynı zamanda şirketin bu projeler için kullandığı ABD hükümeti kaynaklı veri altyapısı, süperbilgisayar erişimi ve güvenlik lisansları için ödediği dolaylı maliyetleri de içeriyor.
Ek olarak, Pentagon, Anthropic’ın yeni nesil AI modellerinin ABD savunma sistemlerinde kullanılmasını yasaklamayı düşünüyor. Bu, şirketin 2026’da planladığı Pentagon’a sunulacak olan "Cerebrum" adlı yeni AI sisteminin tamamen iptal edilmesi anlamına geliyor. Bu sistem, askeri tıbbi acil durum tahmini ve silah sistemlerinin hedef belirleme süreçlerinde kullanılmak üzere tasarlanmıştı. İptal edilmesi, Anthropic’ın sadece bir proje kaybı değil, 2026-2027 finansal yılındaki gelir tahminlerinin %40’ını kaybetmesi demek.
Yapay Zekanın Askeri Sınırları
Bu olay, sadece bir şirketle hükümet arasındaki bir anlaşmazlık değil, Yapay Zekanın Askeri Sınırları tartışmasının en kritik örneği. 2024’te ABD Savunma Bakanlığı, AI sistemlerinin kendi karar verme yetkileriyle silah kullanmasına izin vermemeyi kararlaştırmıştı. Ancak, bu sınırlar, AI’nın veri üzerinden müdahale etmesiyle zorlanmaya başlamıştı. Anthropic’ın modelleri, askeri operasyonlarda kullanılan gizli iletişim şifrelerini analiz ederek, bir düşman komuta merkezinin konumunu tahmin edebiliyordu. Bu yetenek, teknolojik bir başarıydı — ama aynı zamanda, bir güvenlik deliği.
Özellikle, Anthropic’ın kurucularından biri olan Dario Amodei’nin 2023’te verdiği bir röportajda, "AI’nın her şeyi anlayabileceği bir zaman gelir, o zaman devletlerin onu kontrol etmesi imkânsız olur" demiş olması, Pentagon’un endişelerini daha da derinleştirdi.
Gelecek: Bir Teknoloji Şirketinin Siyasi Bir Düşman Olarak Sınıflandırılması
Eğer Pentagon, Anthropic’i resmen bir "tedarik zinciri tehdidi" olarak sınıflandırırsa, bu, ABD’deki tüm yapay zeka şirketleri için bir öncülük olacak. Apple, Microsoft, NVIDIA gibi şirketlerin bile, ABD hükümetiyle ortak projelerinde, veri kaynaklarını ve eğitim algoritmalarını tamamen yerel tutmak zorunda kalabilir. Bu, ABD’nin yapay zeka liderliğini korumak için bir teknolojik izolasyon stratejisi anlamına geliyor.
Anthropic, şu anda 2,5 milyar dolarlık sermaye toplamış ve 2026’da IPO planlıyordu. Ancak bu durum, şirketin hisselerinin değerini %60’a varan oranda düşürebilir. Yatırımcılar, bir AI şirketinin neden bir devlet tarafından hedef alındığını anlamaya çalışıyor. Bu, sadece bir şirketin mali krizi değil, tüm teknoloji endüstrisinin siyasi risklerle yüzleşmeye başladığının ilk göstergesi.
Anthropic, henüz resmi bir açıklama yapmadı. Ancak iç kaynaklara göre, şirketin hukuki ekibi, Pentagon’un bu hamlesini "sivil bir yetki aşımları ve ekonomik zorlama" olarak tanımlıyor. İddia ediliyor ki, Pentagon’un bu kararı, 2024 seçimlerinden sonra ABD’nin savunma bütçesindeki artışla birlikte, kamuoyunu sakinleştirmek için bir "simgesel bir gösteri" olabilir.
Bu çatışma, teknolojinin gücünün ne kadar büyük olduğunu, aynı zamanda ne kadar kırılgan olduğunu gösteriyor. Bir AI şirketi, bir ülkenin askeri üstünlüğünü destekleyebilir. Ama aynı şirket, bir gün o ülkenin kendi güvenlik sisteminin en büyük tehdidi haline gelebilir. Ve bu durumda, ödeme sadece parayla değil, özgürlükyle de yapılabiliyor.


