OpenAI Gizlilik Politikası Güncellendi: Devre Dışı Bırakmak İmkânsız

OpenAI Gizlilik Politikası Güncellendi: Devre Dışı Bırakmak İmkânsız
OpenAI Gizlilik Politikası Güncellendi: Devre Dışı Bırakmak İmkânsız
OpenAI, kullanıcı verilerinin toplanma ve kullanım politikalarını güncelledi — ancak bu güncelleme, önceden var olan bir seçeneği tamamen kaldırdı: kullanıcıların kendi verilerini koruma hakkı. Artık, OpenAI’nin hizmetlerini kullanan milyonlarca kişi, AI modeline veri gönderme işlemini durdurmak, gizlilik tercihlerini ayarlamak ya da veri kullanımını reddetmek için hiçbir ayar arayüzüne sahip değil. Bu, teknoloji tarihinde nadir görülen bir durum: bir şirket, kullanıcılarına veri gizliliği konusunda hiçbir kontrol sağlamadan, hizmeti kullanmaya devam etmeyi zorunlu kılıyor.
Neden Bu Değişiklik Yapıldı?
OpenAI’nin resmi web sitesindeki gizlilik politikaları (openai.com/policies/us-privacy-policy ve openai.com/en-GB/policies/privacy-policy) şu anda 403 Forbidden hatası veriyor — bir durum, ki bu, şirketin politika sayfalarına erişimi kısma veya gizleme eğiliminde olduğunu gösteriyor. Bu, açık bir şeffaflık sorunu değil, sadece bir teknik arıza değil. Aynı anda iki farklı dildeki politika sayfalarının erişilemez olması, muhtemelen bir stratejik kamuya açık olmaktan kaçınma çabası olarak yorumlanmalı. Microsoft’un destek sayfasında Windows güncellemeleriyle ilgili detaylı bir rehber bulunurken, OpenAI’nin kullanıcılarına yönelik en temel gizlilik bilgisi, bir hatayla silinmiş gibi görünüyor. Bu çelişki, şirketin niyetlerini sorgulatıyor.
OpenAI’nin gizlilik politikasındaki değişiklikler, 2024 sonlarında başlayan bir trendi yansıtır: AI şirketlerinin, kullanıcı verilerini eğitim verisi olarak kullanmak için gizli anlaşmalar yapmaya başlaması. Microsoft, OpenAI’nin ana yatırımcısı olarak, bu verilerin Azure bulut altyapısında nasıl işlendiğini, hangi güvenlik standartlarıyla korunduğunu açıklamaktan kaçınıyor. Bu, yalnızca OpenAI’ye özgü bir sorun değil, AI sektöründeki tüm büyük oyuncuların “veri toplama izni”ni kullanıcıdan almadan, gizlice devralma eğilimini gösteriyor.
Kullanıcılar Ne Kaybediyor?
- Kontrol Kaybı: Artık bir kullanıcı, ChatGPT’ye bir şifre, tıbbi geçmiş, iş e-postası ya da özel fikir gönderdiğinde, bu verilerin “öğrenme verisi” olarak saklanıp saklanmayacağını seçemez.
- Şeffaflık Eksikliği: OpenAI, verilerin hangi amaçlarla, kimlerle paylaşıldığını açıkça açıklamıyor. Hatta, “modelin eğitiminde kullanılmış olabilir” gibi belirsiz ifadelerle kullanıcıyı memnun etmeye çalışıyor.
- Hukuki Boşluk: Avrupa’da GDPR, kullanıcıların veri silme taleplerini kabul etmeyi zorunlu kılar. ABD’de ise bu haklar yasal olarak zayıf. OpenAI, ABD merkezli olduğu için bu yasal zorunluluktan kaçıyor — ve bu, kullanıcıların sadece teknik değil, hukuki olarak da savunmasız kalmasına neden oluyor.
Microsoft’un Rolü: İkili Bir Bağlılık
Microsoft, OpenAI’nin teknolojisini hem ürün olarak (Copilot) hem de altyapı olarak (Azure) kullanıyor. Microsoft’un kendi destek sayfalarında, Windows güncellemeleri, OneDrive verileri ve Office uygulamaları için kullanıcıların gizlilik tercihlerini değiştirmenin nasıl yapıldığı adım adım anlatılıyor. Ancak OpenAI entegrasyonu için aynı şeffaflık yok. Bu, Microsoft’un iki farklı kurallarla oynadığını gösteriyor: kullanıcı verilerini korumak için “şeffaflık” diyecekken, OpenAI için “gizlilik yok” diyecek. Bu ikili yaklaşım, büyük teknoloji şirketlerinin “kullanıcıya saygılı” imajını nasıl manipüle ettiğini ortaya koyuyor.
Ne Anlama Geliyor Bu?
OpenAI’nin bu hamlesi, sadece bir gizlilik politikası değişikliği değil, dijital çağda “kullanıcı onayı” kavramının sonunu işaret ediyor. Geçmişte, kullanıcılar bir uygulamayı indirirken “Kullanım Şartlarını Kabul Ediyorum” diye tıklayarak veri paylaşımına izin verirdi. Şimdi, OpenAI gibi şirketler, bu tıklayışı bile kaldırıyor — çünkü kullanıcıların “hayır” demesi, iş modelini tehdit ediyor. AI modelleri, daha fazla veriyle daha iyi öğreniyor. Ve bu verilerin kaynağı, artık sadece açık kaynaklar değil, milyonlarca normal kullanıcının özel mesajları, aramaları ve yazışmaları.
Özellikle eğitim, sağlık ve hukuk alanlarında çalışanlar, bu durumdan en çok etkilenecek. Bir avukat ChatGPT’ye bir dava dosyasını sorarsa, bu veri artık şirketin veri havuzuna ekleniyor. Bir doktor, bir hastanın semptomlarını sorduğunda, bu bilgi bir AI modelinin gelecekteki tanıları için “öğrenme” haline geliyor. Ve kullanıcı, bunu durduramıyor. Çünkü “kapatma” düğmesi yok.
Ne Yapılabilir?
- Alternatifler: Açık kaynaklı AI modelleri (Llama, Mistral) gibi, veri kullanımını kontrol edebileceğiniz platformları tercih edin.
- Yasal Basın: ABD’deki Federal Ticaret Komisyonu (FTC) ve Avrupa Veri Koruma Kurulu (EDPB)’na, OpenAI’nin gizlilik politikasındaki şeffaflık eksikliğini resmi olarak bildirin.
- Bilinçlenme: Bu tür politikaların sadece “kullanıcı deneyimi” değil, demokratik haklarla ilgili olduğunu anlayın. Gizlilik, özgürlüktür.
OpenAI, teknolojinin geleceğiyle ilgili büyük vaatlerde bulunuyor. Ama bu gelecek, kullanıcıların haklarından mahrum bırakılarak inşa ediliyor. Ve belki de en korkutucu kısım: bu, sadece bir şirketin kararı değil — tüm AI endüstrisinin yönünü belirleyen bir örnek olabilir.
Artık bir AI’ye bir şey yazmak, bir not bırakmak değil. Bir veri parçası bırakmak. Ve artık bunu geri almak mümkün değil.


