Yapay Zeka Fotoğrafları Nasıl Ayırt Edilir? Microsoft’un Çarpıcı Uyarısı ve Yasaların Yanlış Varsayımı

Yapay Zeka Fotoğrafları Nasıl Ayırt Edilir? Microsoft’un Çarpıcı Uyarısı ve Yasaların Yanlış Varsayımı
Yapay zeka tarafından üretilen derin sahtekârlıklar (deepfakes), sosyal medyada, siyasi kampanyalarda ve hatta mahkeme salonlarında artan bir tehdit haline geldi. Bu nedenle ülkeler, bu sahte medyayı tespit etmek için ‘AI media authentication’—yani yapay zeka medya kimlik doğrulama—teknolojilerine güvenmeye başladığında, Microsoft’un yeni bir raporu tüm bu güveni sarsıyor: Bu sistemler, şu anda güvenilir değil. Hiçbiri.
Ne Buldu Microsoft?
Microsoft’un araştırma ekibi, 2025 başlarında yayımlanan teknik raporda, 17 farklı AI medya doğrulama yöntemi üzerinde 1200’den fazla test gerçekleştirdi. Bu yöntemler arasında, piksel anormalliklerini tespit eden algoritmalar, ses dalgalarındaki tutarsızlıkları analiz eden sistemler, meta veri kontrolü ve hatta derin öğrenme tabanlı ‘kötü niyetli içerik algılama’ modelleri yer aldı.
Sonuç? Hiçbir yöntem, %95’in üzerinde doğruluk oranına ulaşamadı. Hatta en iyi performans gösteren bile, özellikle düşük kaliteli videolarda, çevrilen dillere sahip içeriklerde veya hafifçe manipüle edilmiş fotoğraflarda büyük oranda başarısız oldu. Bir diğer kritik bulgu: Aynı içerik, farklı platformlarda (örneğin Twitter, TikTok, YouTube) farklı şekilde sıkıştırıldığında, doğrulama sistemleri tamamen kafa karıştırılıyordu.
Microsoft, bu başarısızlıkların nedenini şu şekilde özetliyor: ‘AI’lar, gerçek medyanın yapısal özelliklerini o kadar iyi taklit ediyor ki, ‘sahtekârlık izleri’ artık gizli, geçici ve çok değişken hale geldi. Bu, bir ‘kimlik kartı’ gibi sabit bir işaret aramakla işe yaramaz.
Neden Bu Kadar Önemli?
Çünkü ülkeler, bu teknolojinin ‘çalıştığını’ varsayarak yasalar yapıyor. İngiltere, 2024’te yayımlanan ‘Sexual Offences (Deepfake) Bill’ ile, cinsel içerikli deepfakes’in üretimi ve paylaşımını suç ilan etti. AB’nin ‘AI Act’i de, özellikle ‘uygulama şeffaflığı’ kapsamında, AI tarafından üretilen içeriklerin ‘etiketlenmesini’ zorunlu kılıyor. Ancak bu yasalar, etiketlemenin nasıl yapılacağını, kimin kontrol edeceğini ve özellikle—hangi teknolojinin güvenilir olduğunu—hiç açıklamıyor.
Bu durum, bir ‘teknolojik korku’ üzerine kurulan yasal yapıyı ortaya çıkarıyor: ‘Eğer yapay zeka kötüyse, o zaman onu tespit edebilecek bir araç da olmalı.’ Ama Microsoft’un raporu, bu varsayımın bilimsel olarak geçersiz olduğunu gösteriyor. Yani, bir yandan yasalar, bir yandan da teknoloji, ‘sahte’yi tanımakta bile çökmüş durumda.
Kim Zarar Görecektir?
En büyük zarar görenler, zaten sesi olmayanlar olacak: Sivil toplum örgütleri, gazeteciler, siyasi muhalifler ve hatta sıradan vatandaşlar. Örneğin, bir kadın, eski bir sevgilisi tarafından paylaşılan bir deepfake pornografik videosuyla karşı karşıya kalıyor. Yasa, bu videonun yasak olduğunu söylüyor. Ama kimlik doğrulama sistemi, videoyu ‘gerçek’ olarak işaretliyor. Kadın, hukuki süreçte ‘kendini kanıtlamak’ zorunda kalıyor. Kimse, teknolojinin hatalı olduğunu kabul etmiyor. Çünkü sistemler, ‘güvenilir’ olarak satılıyor.
Bu durum, ‘teknolojik masumiyet’ kavramını sorguluyor: Bir sistem, ne kadar çok ‘bilimsel’ görünürse, o kadar çok hatalı olabilir. Microsoft, raporunda açıkça uyarıyor: ‘Bu teknolojiler, bir ‘çözüm’ değil, bir ‘gösteri’ haline geldi.’
Ne Yapılmalı?
Microsoft, önerilerinde ‘çoklu sistem entegrasyonu’ ve ‘insan-makine işbirliği’ modelini öne sürüyor. Yani, bir algoritma ‘şüpheli’ diye işaretlerse, bir insan uzmanı incelesin. Ancak bu, büyük ölçekli platformlar için maliyetli ve yavaş olacak. Twitter, Meta ve TikTok gibi şirketler, bu modeli uygulamak yerine, ‘otomatik etiketleme’ sistemlerini tercih ediyor. Çünkü insan gücü, karlılığı düşürüyor.
Yasama organları, teknolojiye değil, bilime odaklanmalı. Microsoft’un raporu, sadece bir teknik belge değil, bir ‘bilimsel uyarı’. Yasalar, teknolojinin ‘ne yapabildiğini’ değil, ‘ne yapamadığını’ bilmeli. Yoksa, yapay zekanın yarattığı sahtekârlıkları yasaklamak, aslında sahtekârlıklara yasal bir kapak örtüsü sermek olacak.
Gelecek İçin Bir Uyarı
Gelecekte, bir fotoğrafın ‘gerçek’ olup olmadığını sormak, birinin ‘şahit’ olup olmadığını sormaktan daha zor olacak. Çünkü artık, ‘gerçek’ kavramı, bir algoritmanın kararına bağlı. Microsoft’un raporu, bu döngüyü kırmak için bir fırsat sunuyor: Teknolojiye güvenmek yerine, onu sorgulamak. Yasalara güvenmek yerine, onları bilime göre yeniden inşa etmek.
Bu, sadece bir teknik mesele değil. Bu, demokrasinin temelindeki gerçeklik kavramının nasıl korunacağıyla ilgili bir savaş.


