Yapay Zeka ve Gerçeklik Krizi: Doğrulama Araçları Yetersiz Kalıyor
Yapay Zeka ve Gerçeklik Krizi: Doğrulama Araçları Yetersiz Kalıyor
Devlet Kurumları Yapay Zeka İçerik Üreticilerini Kullanıyor
ABD İç Güvenlik Bakanlığı'nın (DHS), kamuoyuyla paylaştığı içerikleri düzenlemek amacıyla Google ve Adobe'ye ait yapay zeka video üreticilerini kullandığı ilk kez doğrulandı. Bu gelişme, göçmenlik ajanslarının kitlesel sınır dışı etme gündemini desteklemek için sosyal medyayı yoğun şekilde kullandığı bir döneme denk geliyor. Paylaşılan içeriklerin bir kısmının yapay zeka ile üretildiği düşünülüyor.
Manipüle Edilmiş İçerikler ve Kamuoyu Tepkisi
Konuyla ilgili iki farklı kamuoyu tepkisi dikkat çekiyor. İlk tepki grubu, Beyaz Saray'ın 22 Ocak'ta, bir ICE protestosunda gözaltına alınan bir kadının dijital olarak değiştirilmiş ve kadını histerik ve ağlarken gösteren bir fotoğrafını paylaşmasından sonra bu habere şaşırmadıklarını ifade etti. Beyaz Saray'ın iletişimden sorumlu yardımcı direktörü, fotoğrafın değiştirilip değiştirilmediği sorusuna yanıt vermezken, "Memler devam edecek" açıklamasını yaptı.
İkinci tepki grubu ise, haber kuruluşlarının da benzer uygulamalarda bulunduğunu öne sürerek, DHS'nin yapay zeka kullanımını haber yapmanın anlamsız olduğunu savundu. Bu görüşü savunanlar, MS Now (eski MSNBC) haber ağının, Alex Pretti'yi daha yakışıklı göstermek için yapay zeka ile düzenlenmiş bir görselini yayınladığı gerçeğine işaret etti. MS Now sözcüsü, görselin düzenlendiği bilinmeden yayınlandığını ifade etti.
İçerik Doğrulama Sistemleri Yetersiz Kalıyor
Adobe gibi şirketlerin öncülük ettiği ve büyük teknoloji firmalarının benimsediği 'İçerik Özgünlük Girişimi' gibi sistemler, içeriğin ne zaman, kim tarafından üretildiğini ve yapay zeka kullanılıp kullanılmadığını açıklayan etiketler eklemeyi amaçlıyordu. Ancak Adobe, bu etiketleri yalnızca içerik tamamen yapay zeka tarafından üretilmişse otomatik olarak uyguluyor. Diğer durumlarda etiketleme, içerik üreticisinin inisiyatifine bırakılıyor.
Ayrıca, X (eski Twitter) gibi platformlar bu etiketleri kaldırabiliyor veya göstermeyi tercih etmeyebiliyor. Pentagon'un resmi görselleri paylaşmak için kullandığı DVIDS web sitesinin bu etiketleri göstereceği duyurulmuş olmasına rağmen, sitenin incelenmesi bu tür etiketlerin bulunmadığını ortaya koydu.
Sahte İçeriğin Etkisi Kalıcı Olabiliyor
Communications Psychology dergisinde yayınlanan yeni bir araştırma, durumun vahametini gözler önüne seriyor. Araştırmada katılımcılara bir suça itiraf eden bir 'deepfake' (derin sahte) videosu izletildi. Araştırmacılar, katılımcılara kanıtın sahte olduğu açıkça söylense bile, bireyin suçluluğunu değerlendirirken bu kanıta güvendiklerini tespit etti. Başka bir deyişle, insanlar baktıkları içeriğin tamamen sahte olduğunu öğrenseler bile, ondan duygusal olarak etkilenmeye devam ediyor.
Dezenformasyon uzmanı Christopher Nehring, araştırma bulguları hakkında, "Şeffaflık yardımcı olur, ancak tek başına yeterli değildir. Deepfake'ler konusunda ne yapacağımıza dair yeni bir ana plan geliştirmeliyiz" yorumunu yaptı.
Gerçek Sonrası Dönemde Yeni Mücadele Alanları
İçerik üretmek ve düzenlemek için yapay zeka araçları daha gelişmiş, kullanımı daha kolay ve maliyeti daha düşük hale geliyor. ABD hükümetinin bu araçları kullanmak için giderek daha fazla ödeme yapmasının nedeni de bu. Uyarılar, ana tehlikenin kafa karışıklığı olacağı bir dünyaya hazırlanmak üzerine odaklanmıştı. Ancak girilmekte olan dünya, manipülasyonun ortaya çıkarılmasından sonra bile etkisini sürdürdüğü, şüphenin kolayca silah haline getirilebildiği ve gerçeğin ortaya konmasının bir 'sıfırlama düğmesi' işlevi görmediği bir dünya olarak tanımlanıyor. Gerçeğin savunucularının ise çoktan geride kaldığı ifade ediliyor.
Bu gelişmeler, yapay zekanın görsel iş birliği ve kodlama gibi alanlarda nasıl entegre edildiğine dair tartışmaları da beraberinde getiriyor. Örneğin, Miro'nun duyurduğu yapay zeka kodlama araçlarını görsel iş birliğiyle birleştiren MCP sunucusu gibi gelişmeler, teknolojinin üretkenlik araçları olarak benimsenme hızını gösteriyor.


