X'in Açık Kaynak Algoritması Şeffaflık Sağlamıyor, Araştırmacılar Uyarıyor

X'in Açık Kaynak Algoritması Şeffaflık Sağlamıyor, Araştırmacılar Uyarıyor
X'in Açık Kaynak Algoritması Şeffaflık Sağlamıyor, Araştırmacılar Uyarıyor
X'in mühendislik ekibi geçen ay platformun 'Senin İçin' algoritmasının kodunu yayınladığında, Elon Musk bu hamleyi şeffaflık zaferi olarak nitelendirmişti. Musk, "Algoritmanın aptal olduğunu ve büyük geliştirmelere ihtiyaç duyduğunu biliyoruz, ancak en azından onu gerçek zamanlı ve şeffaflıkla daha iyi hale getirmek için verdiğimiz mücadeleyi görebilirsiniz" demiş ve "Başka hiçbir sosyal medya şirketi bunu yapmıyor" ifadelerini kullanmıştı.
Ancak araştırmacılar, X'in büyük sosyal ağlar arasında öneri algoritmasının unsurlarını açık kaynak yapan tek platform olmasına rağmen, yayınlanan içeriğin 2026'da X'in nasıl çalıştığını anlamaya çalışanlar için gerçekten faydalı bir şeffaflık sunmadığını belirtiyor.
"Sansürlü" Kod ve Yanıltıcı Şeffaflık İddiası
Cornell Üniversitesi'nde bilgisayar bilimi yardımcı doçenti John Thickstun, Engadget'a yaptığı açıklamada, kodun 2023'te yayınlanan önceki versiyon gibi X'in algoritmasının "sansürlü" bir versiyonu olduğunu söylüyor. Thickstun, "Bu yayınlarla ilgili beni rahatsız eden şey, kod yayınlayarak şeffaf oldukları izlenimini vermeleri ve birilerinin bu yayını bir tür denetim veya gözetim çalışması yapmak için kullanabileceği hissini uyandırmaları" diyor ve ekliyor: "Gerçek şu ki bu hiç mümkün değil."
Kodun yayınlanmasıyla birlikte, X kullanıcıları platformda görünürlüklerini artırmak isteyen içerik üreticiler için ne anlama geldiğine dair uzun thread'ler paylaşmaya başladı. Örneğin, 350.000'den fazla görüntülenen bir gönderi, kullanıcılara X'in "sohbet eden insanları ödüllendireceğini" ve "X'in titreşimlerini yükselteceğini" tavsiye ediyor. 20.000'den fazla görüntülemeye sahip başka bir gönderi ise video paylaşmanın çözüm olduğunu iddia ediyor.
Ancak Thickstun, viral olmak için sözde stratejiler üzerinde fazla düşünülmemesi konusunda uyarıyor: "Yayınlananlardan bu sonuçları çıkaramazlar."
Grok Benzeri Dil Modeli ve Artan Opaklık
Graz Üniversitesi'nde doktora araştırmacısı Ruggero Lazzaroni, mevcut algoritma ile 2023'te yayınlanan versiyon arasındaki en büyük farklardan birinin, yeni sistemin gönderileri sıralamak için Grok benzeri büyük bir dil modeline dayanması olduğunu açıklıyor. Lazzaroni, "Önceki versiyonda bu sabit kodlanmıştı: bir şeyin kaç kez beğenildiğini, kaç kez paylaşıldığını, kaç kez yanıtlandığını alıyordunuz... ve buna dayanarak bir puan hesaplıyordunuz, ardından gönderiyi puana göre sıralıyordunuz" diyor. "Şimdi puan, gerçek beğeni ve paylaşım sayılarından değil, Grok'un bir gönderiyi beğenip paylaşma olasılığınızın ne kadar yüksek olduğu düşüncesinden türetiliyor."
Thickstun, bunun algoritmayı öncekinden daha da opak hale getirdiğini söylüyor: "Karar vermenin çok daha fazlası... verileri üzerinde eğittikleri kara kutu sinir ağlarının içinde gerçekleşiyor. Bu algoritmaların karar verme gücü giderek sadece kamuoyunun görüş alanından değil, aynı zamanda bu sistemler üzerinde çalışan dahili mühendislerin bile görüş veya anlayışından uzaklaşıyor, çünkü bu sinir ağlarına kaydırılıyor."
Eksik Bilgiler ve Güvenlik Gerekçesi
Yayın, 2023'te kamuoyuna açıklanan algoritmanın bazı yönleri hakkında daha az detay içeriyor. O zaman şirket, hangi gönderilerin daha yüksek sıralanması gerektiğini belirlemek için çeşitli etkileşimleri nasıl ağırlıklandırdığına dair bilgileri dahil etmişti. Örneğin, bir yanıt 27 retweet "değerindeydi" ve orijinal yazardan yanıt alan bir yanıt 75 retweet değerindeydi. Ancak X artık bu faktörleri nasıl ağırlıklandırdığına dair bilgileri sansürlemiş ve bu bilgilerin "güvenlik nedenleriyle" hariç tutulduğunu belirtmiş.
Eğitim Verisi Eksikliği ve Denetim Sorunu
Kod ayrıca algoritmanın eğitildiği veriler hakkında, araştırmacıların ve diğerlerinin onu anlamasına veya denetimler yapmasına yardımcı olabilecek hiçbir bilgi içermiyor. Carnegie Mellon Üniversitesi'nde iş teknolojileri yardımcı doçenti Mohsen Foroughifar, "Gerçekten görmek istediğim şeylerden biri, bu model için kullandıkları eğitim verisinin ne olduğu" diyor ve ekliyor: "Bu modeli eğitmek için kullanılan veri doğası gereği önyargılıysa, model, model içinde ne tür şeyleri dikkate aldığınızdan bağımsız olarak, yine de önyargılı olabilir."
Sosyal medya platformları için alternatif öneri algoritmalarını araştıran AB fonlu bir proje üzerinde çalışan Lazzaroni, X öneri algoritması üzerinde araştırma yapabilmenin son derece değerli olacağını söylüyor. Lazzaroni'nin çalışmasının çoğu, farklı yaklaşımları test etmek için gerçek dünya sosyal medya platformlarını simüle etmeyi içeriyor. Ancak X tarafından yayınlanan kodun, öneri algoritmasını gerçekten yeniden üretmek için yeterli bilgiye sahip olmadığını belirtiyor: "Algoritmayı çalıştırmak için koda sahibiz, ancak algoritmayı çalıştırmak için ihtiyaç duyduğunuz modele sahip değiliz."
Sosyal Medyadan Yapay Zekaya Uzanan Sorunlar
Araştırmacılar X algoritmasını inceleyebilseydi, sadece sosyal medya platformlarını etkilemekten daha fazla içgörü sağlayabilirdi. Sosyal medya algoritmalarının nasıl davrandığına dair ortaya atılan birçok soru ve endişe, yapay zeka sohbet robotları bağlamında yeniden ortaya çıkması muhtemel. Thickstun, "Sosyal medya platformlarında ve öneri sistemlerinde gördüğümüz birçok zorluk, bu üretken sistemlerde de çok benzer şekilde ortaya çıkıyor" diyor. "Yani sosyal medya platformlarıyla yaşadığımız zorluk türlerini, GenAI platformlarıyla etkileşimde yaşayacağımız zorluk türlerine ileriye doğru tahmin edebilirsiniz."
Sosyal medyadaki en toksik davranışların bir kısmını simüle etmek için çok zaman harcayan Lazzaroni daha da net konuşuyor: "Yapay zeka şirketleri, karı maksimize etmek için büyük dil modellerini kullanıcı katılımı için optimize ediyor, gerçeği söylemek veya kullanıcıların zihinsel sağlığını önemsemek için değil. Ve bu tam olarak aynı sorun: daha fazla kar ediyorlar, ancak kullanıcılar daha kötü bir toplum elde ediyor veya bundan daha kötü bir zihinsel sağlık elde ediyor."
X'in açık kaynak hamlesi, şeffaflık iddialarının ötesinde, teknoloji devlerinin algoritmik sistemlerini ne ölçüde kamu denetimine açmaya istekli olduğu konusunda daha geniş bir tartışmayı alevlendiriyor. Araştırmacılar, gerçek hesap verebilirlik için kodun ötesinde, eğitim verileri, ağırlıklandırma mekanizmaları ve model mimarileri de dahil olmak üzere tam şeffaflık gerektiğini vurguluyor.


