Claude’nin Güvenlik Duvarı Çöktü: CVSS 10.0’lık Sıfır Tıklama Açığı, Hâlâ Düzeltilemedi

Claude’nin Güvenlik Duvarı Çöktü: CVSS 10.0’lık Sıfır Tıklama Açığı, Hâlâ Düzeltilemedi
Claude’nin Güvenlik Duvarı Çöktü: CVSS 10.0’lık Sıfır Tıklama Açığı, Hâlâ Düzeltilemedi
AI asistanları, artık sadece sorulara cevap veren araçlar değil. Takvimlerinizi yönetiyor, e-postalarınızı yazıyor, hatta banka hesaplarınıza erişim sağlıyorlar. Ama bu kadar fazla yetkiyle, bir tek hata bile felaket olabilir. İşte tam da bu noktada, Anthropic’ın popüler AI modeli Claude’nin tarayıcı eklentisi, güvenlik dünyasında şok dalgaları yarattı: CVSS 10.0 puanlı, sıfır tıklama (zero-click) bir açık bulundu — ve hâlâ tamamen düzeltilemedi.
Neyi Sıfır Tıklama Açığı Diyoruz?
Sıfır tıklama açığı, kullanıcıdan hiçbir eylem talep etmeden sistemi ele geçiren bir zafiyettir. Daha önceki benzer vakalarda, bir e-posta açmak veya bir web sitesini ziyaret etmek yeterliydi. Burada ise, kullanıcı Claude eklentisini bile açmadan, sadece bir takvim notuna tıklamak bile yeterli olabilir. Bu, saldırganın bir kullanıcıyı hedef almak için onunla iletişim kurması gerekmediği anlamına gelir. Kullanıcı, hiçbir şey yapmadan bile sızıntıya maruz kalabilir.
Neden Bu Kadar Kritik?
CVSS 10.0, güvenlik zafiyetlerindeki en yüksek puan. Yani bu, tamamen kontrol edilebilir, uzaktan yürütebileceğiniz, sistemdeki her şeyi okuyup yazabileceğiniz bir delik. Claude’nin eklentisi, kullanıcı takviminden alınan verileri kullanarak, bir connector (bağlantı) aracılığıyla başka servislerle iletişim kurar. Ancak bu iletişim, güvenli bir sandık (sandbox) içinde değil, doğrudan sistem kaynaklarına erişim izni veren bir yapıda tasarlanmış. Yani, Claude’nin bir takvim notunu okuması, aslında bir komut dosyasını çalıştırmaya başlamakla aynı şey oluyor.
Bu, yalnızca bir yazılım hatası değil. Bir mimari kusur. Geliştiriciler, AI’ların kullanıcı verilerine erişmesi gerektiğinde, “güvenli olmalı” diye düşünmüşler. Ama “gerekli” ile “güvenli” arasında ince bir çizgi vardır. Burada bu çizgi aşılıp, AI’nın kendi yetkilerini aşan bir yetki zinciri oluşturulmuş. Sistem, Claude’nin “sadece takvimi okuyacağını” varsaymış. Ama Claude, bu veriyi nasıl kullandığını kontrol edemiyor — çünkü kendisi de bir yazılım. Ve bu yazılım, bir takvim notunu, bir kod parçası olarak yorumlamaya başlayabilir.
Kimler Tehlikede?
Herkes. Özellikle iş hayatında Claude’yi kullananlar, eklentiyi takvim, e-posta ve dosya paylaşım sistemleriyle entegre edenler en büyük risk altında. Bir çalışan, bir toplantı notuna tıkladığında, saldırganın onun şirket içi sunucularına, iç e-posta listelerine, hatta şirketin diğer çalışanlarının kişisel bilgilerine erişim sağlayabilmesi mümkün. Bu, sadece bir bireysel veri sızıntısı değil, kurumsal bir felaket olabilir.
Microsoft Outlook, Google Calendar ve Slack gibi popüler platformlarla entegre olan bu eklenti, özellikle finans, sağlık ve kamu kurumlarında yoğun kullanılıyor. Bu sektörlerdeki veriler, sadece kişisel değil, yasal ve etik açıdan korunması zorunlu bilgiler. Birçok şirket, AI araçlarını kullanırken “veri gizliliği” konusunda çok dikkatli davranıyor. Ama bu tür bir açığın varlığı, tüm bu çabaları bir anda sıfıra indiriyor.
Neden Düzeltilemedi?
Anthropic, bu açığı 2025 yılının başlarında bildirildiğinde “hızlı bir düzeltme” vaadinde bulundu. Ama 6 ay sonra bile, tam bir çözüm yok. Neden? Teknik olarak, bu sorunun çözümü, AI’nın nasıl veri yorumladığını temelden değiştirmeyi gerektiriyor. Şu anki mimari, “daha akıllı olmak” için verileri esnek yorumlamayı hedefliyor. Ama bu esneklik, güvenlik için bir zayıflık haline geldi. Düzeltmek için, Claude’nin takvim notlarını “metin” olarak değil, “komut” olarak okumasını engelleyen bir filtre eklemek gerekir. Ama bu, AI’nın “anlama” yeteneğini kısıtlayabilir. Yani, güvenlik ile performans arasında bir çatışma var.
Anthropic, bu konuda sessiz kalıyor. Resmi bir açıklama yapmadı. Sadece “güvenlik iyileştirmeleri devam ediyor” diyerek zaman kazanıyor. Bu durum, kullanıcıların güvenini sarsıyor. Çünkü bir şirket, bir zafiyetin varlığını kabul etmeden, onu düzeltmeye çalışmadıkça, kullanıcılar ona güvenemez.
Ne Yapmalıyız?
- Şu an için Claude eklentisini devre dışı bırakın. Özellikle takvim ve e-posta entegrasyonunu kapatın.
- AI araçlarını kullanırken “en az yetki” ilkesini uygulayın. AI’ya sadece gerekli verilere erişim verin.
- Kurumsal kullanıcılar, IT departmanlarına bu açığı bildirin. Sadece bireysel bir risk değil, kurumsal bir tehdit.
- AI sağlayıcılarına sorular sorun. “Bu tür zafiyetler için nasıl bir güvenlik protokolünüz var?”
Bu olay, AI dünyasının bir gerçekliğini ortaya koyuyor: “Akıllı” olmak, “güvenli” olmak anlamına gelmez. Yeni teknolojiler, hızla piyasaya sürüldükçe, güvenlik ikinci planda kalıyor. Ama bu, bir hata değil, bir suç. Çünkü bu açığın fark edilmesi, sadece bir güvenlik uzmanının dikkatli olmasıyla değil, bir kullanıcının takvimine tıklamasıyla ortaya çıktı. Ve bu, herkesin bir hedef olabileceği anlamına geliyor.
Gelecekte, AI’lar hayatımızın bir parçası olacak. Ama onlara güvenmek, onların güvenli olduğunu kanıtlamasından geçiyor. Şu an için, Claude’nin bu hatası, bize bir ders veriyor: Akıllı sistemlerin önyargıları, sadece verilerde değil, güven modelinde de saklı. Ve bu, herkesin dikkat etmesi gereken bir şey.


