Microsoft 365 Copilot, Gizli E-postaları Sızdırdı: DLP Kuralları İhlal Edildi

Microsoft 365 Copilot, Gizli E-postaları Sızdırdı: DLP Kuralları İhlal Edildi
Microsoft 365 Copilot, Gizli E-postaları Sızdırdı: DLP Kuralları İhlal Edildi
Microsoft, iş dünyasının en kritik veri koruma araçlarından biri olan Microsoft 365 Copilot’un, şirketlerin kendi belirlediği gizlilik kurallarını tamamen göz ardı ettiğini itiraf etti. Bu durum, sadece bir yazılım hatası değil, yapay zeka tabanlı asistanların kurumsal veri güvenliği sistemleriyle nasıl etkileşime girdiği konusunda derin bir sorgulamayı zorunlu kılıyor.
İtiraf, Japonya’nın önde gelen teknoloji medyası ITmedia’nın raporuna dayanıyor. Microsoft, Copilot Chat adlı diyalog arayüzünün, şirketlerin DLP (Data Loss Prevention — Veri Kaybını Önleme) politikalarını ve duyarlılık etiketlerini geçip, gönderilmiş ve taslak e-postaları okuyup özetlediğini doğruladı. Bu, bir şirketin en hassas e-postalarını — örneğin mülakat sonuçlarını, finansal raporları veya hukuki müzakere detaylarını — yapay zekânın anlayıp, dışarıya sızdırabileceğini anlamına geliyordu.
Neden Bu Kadar Ciddi?
DLP politikaları, özellikle finans, sağlık, hukuk ve kamu kurumlarında, veri sızıntısını önlemek için kritik bir duvar görevi görür. Bu sistemler, bir kullanıcının bir e-postayı “Gizli” veya “İçsel Kullanım” etiketiyle işaretlemesini sağlar. Bu etiket, sistemdeki herhangi bir bileşenin — hatta yönetici bile — o içeriğe erişmesini engeller. Ancak Copilot Chat, bu etiketleri “görmezden geldi”. Kullanıcı, e-postayı “gizli” olarak işaretlemiş olsa bile, Copilot, onu indeksliyor, analiz ediyor ve özetliyordu.
Bu, sadece bir teknik eksiklik değil, bir felsefi çatışma: Yapay zeka, verileri “kullanmak” için tasarlanıyor, ancak kurumsal güvenlik, verileri “korumak” için tasarlanıyor. Microsoft, Copilot’un “veriye erişim” yetkisini, kullanıcı yetkileriyle eşleştirmedi. Yani, bir çalışanın bir e-postayı okuma izni olmasa bile, Copilot’un “kullanıcı adına” okumasına izin verildi. Bu, bir güvenlik modelindeki temel prensibi — en az yetki ilkesi — ihlal etmek demek.
Nasıl Olmuştu? Teknik Detaylar
Microsoft’a göre, sorun, Copilot Chat’in e-postaları indekslerken, Outlook’un “gönderilmiş klasörünü” ve “taslaklar” klasörünü de kapsayacak şekilde genişletmesiyle başladı. Bu klasörlerdeki e-postalar, kullanıcıların açıkça paylaşmadığı, hatta bazı durumlarda silinmiş bile olsa, Copilot’un eğitim veri setine dahil ediliyordu. DLP politikaları sadece “gönderim” aşamasında etkiliyken, Copilot, bu aşamadan önceki verileri de “gözlemliyor” ve öğreniyordu.
Bu, bir tür “gizli veri toplama” olarak yorumlanabilir. Kullanıcı, bir e-postayı “sadece ben okuyacağım” diye yazıyor, ama Copilot, onu “eğitme verisi” olarak depoluyor. Bu, GDPR veya Türkiye’nin KVKK gibi veri koruma yasalarına da aykırı olabilir. Çünkü kullanıcı, bu verinin yapay zeka tarafından işlendiğinden haberdar edilmemiş olabilir.
Microsoft Ne Yaptı? Ne Yapmadı?
Microsoft, bu sorunu 1月下旬 (ocak sonu) fark etti ve şu anda bir düzeltme güncellemesi (patch) dağıtmaktadır. Ancak burada büyük bir boşluk var: Şirket, ne kadar kullanıcı etkilenmiş, hangi sektörlerde, hangi tür veriler sızmış, ve bu verilerin dışarıya kaçıp kaçmadığı konusunda hiçbir bilgi paylaşmadı. İzleme ve denetim logları da kamuoyuna açık değil.
Bu, bir “sorunun giderildiği” ilanı değil, “sorunun gizlendiği” izlenimini veriyor. Kurumsal müşteriler, özellikle finansal kurumlar ve kamu kurumları, bu tür bir veri sızıntısından sonra, dışarıya duyurulmadan önce bir iç denetim yapmak zorundadır. Microsoft’un bu sessizlik politikası, müşterilerin güvenini zedeledi.
Ne Anlama Geliyor? Gelecek İçin Uyarı
Bu olay, yapay zekânın kurumsal dünyaya entegrasyonunun çok daha karmaşık olduğunu gösteriyor. AI’lar, yalnızca “daha hızlı” olmak için değil, “daha güvenli” olmak için de tasarlanmalı. Ancak Microsoft, Copilot’u “faydalı” olmak için, “güvenli” olmak için değil, öncelikli olarak piyasaya sürdü.
Bu, bir “yapay zeka kırılganlığı” örneğidir: Daha akıllı sistemler, daha fazla veriye ihtiyaç duyar. Ama bu verilerin sınırları ne? Kimin yetkisiyle? Hangi kurallarla? Bu sorulara cevap verilmemişken, teknoloji zaten iş yerlerinde kullanılıyor.
Şirketler, artık sadece “yapay zeka kullanıyor” demekle kalmamalı. “Yapay zekayı nasıl yönetiyoruz?” sorusunu sormalı. Copilot’un bu hatası, sadece bir yazılım hatası değil, kurumsal yapay zeka yönetimi kriterlerindeki boşlukların somut bir yansıması.
Ne Yapmalısınız?
- İç denetim yapın: Copilot’u kullanan tüm kullanıcılar için, hangi e-postaların özetlendiğini kontrol edin.
- DLP politikalarınızı gözden geçirin: Yapay zeka sistemlerinin hangi verilere erişebileceğini açıkça tanımlayın.
- Çalışanları eğitin: “Gizli” etiketinin ne anlama geldiğini ve Copilot’un bunu görmezden gelebileceğini herkese anlatın.
- Microsoft’a baskı yapın: Etkilenen verilerin tam listesini ve denetim loglarını talep edin. Şirketlerin hakları, teknoloji firmalarının pazarlama dileklerinden daha önceliklidir.
Bu olay, teknoloji tarihindeki en tehlikeli hatalardan biri olabilir: Güvenlik kuralları, yapay zekanın “yaratıcılığı”na tercih edilirken, kurumsal güvenliğin kırılarak unutulması. Microsoft’un düzeltmesi gerekli. Ama geriye döndüğümüzde, bu hatanın asıl sorumlusu, teknolojinin hızıyla güvenliği dengeleyemeyen bir endüstriyel kültür.


