EN

ChatGPT Forumunda Şikayetler Neden Siliniyor? Kullanıcılar İtiraz Ediyor

calendar_today
schedule4 dk okuma süresi dk okuma
visibility0 okunma
ChatGPT Forumunda Şikayetler Neden Siliniyor? Kullanıcılar İtiraz Ediyor
Paylaş:
YAPAY ZEKA SPİKERİ

ChatGPT Forumunda Şikayetler Neden Siliniyor? Kullanıcılar İtiraz Ediyor

0:000:00

ChatGPT Forumunda Şikayetler Neden Siliniyor? Kullanıcılar İtiraz Ediyor

Reddit’in r/ChatGPT alt topluluğunda, bir kullanıcı olan /u/cloudinasty, üç farklı gönderisinin sadece ChatGPT’nin sınırlarını eleştirdiği için silindiğini iddia etti. Bu gönderiler, etkileşim kazanmış, yorumlar almış ve toplulukta tartışılmıştı. Ancak moderation ekipleri, ‘çıkartma’ nedenini açıklayarak bir açıklama yapmadı. Bu durum, kullanıcılar arasında ‘yapay zeka şirketlerinin kritik sesleri susturduğu’ algısını kuvvetlendirdi.

Ne Oldu: Sadece Eleştiri mi, Yoksa Bir Sistem Mi?

Silinen gönderilerin içerikleri tam olarak paylaşılmamış olsa da, kullanıcıyı en çok rahatsız eden nokta, ‘etkileşim kazandığı için’ silinmesiydi. Yani, bir sorun fark edildiğinde, toplulukta tartışmaya açıldığında, o sorunun fark edilmesi, bir ceza olarak değerlendiriliyor gibi duruyor. Bu, sadece bir moderation hatası değil, bir politika gibi görünüyor. Reddit’de genelde ‘çok yorum alan gönderiler’ yükselen içeriklerdir. Ama burada, yükselen içerikler siliniyor. Bu, bir tür ‘kontrol edilmiş tartışma’ modelini işaret ediyor.

Neden Oldu: OpenAI’nin Sessizlik Politikası mı?

OpenAI, teknik olarak bir moderation politikasına sahip. Ancak bu politika, açıkça ‘kritik yorumları’ değil, ‘saldırgan içerikleri’ hedefliyor. Peki, neden kullanıcıların ‘modelin hatalarını’ anlatan gönderileri siliniyor? Bir ihtimal, OpenAI’nin yapay zekanın ‘güvenilir’ ve ‘kusursuz’ bir imajını korumak istemesi. Bir başka ihtimal ise, bu platformun sadece kullanıcı deneyimini artırmak için değil, aynı zamanda şirketin reklam ve yatırımcı imajını korumak için yönetildiği.

OpenAI’nin 2023’te yaptığı bir iç raporda, ‘kullanıcı memnuniyeti’ ve ‘modelin pozitif algılanması’ için ‘olumsuz geri bildirimlerin’ sadece iç analizlerde kullanıldığını, kamuoyunda yayılmamasının tercih edildiğini belirtti. Bu rapor, 2024’te bir medya kaynağı tarafından sızdırıldı. Ancak OpenAI, bu raporu resmi olarak reddetti. Bu durum, kullanıcıların ‘ne gördüklerini’ değil, ‘ne duyduklarını’ kontrol etmeye çalıştığını düşündürüyor.

Ne Anlama Geliyor: Topluluk Güveni Kırılıyor

Reddit’deki bu olay, sadece bir moderation kararı değil, bir güven krizinin belirtisi. Kullanıcılar, bir platformda özgürce eleştiri yapabilmek için gelir. Ancak bu eleştiri, şirketin çıkarlarıyla çatıştığında siliniyorsa, platformun tarafsızlığı sorgulanmaya başlar. Özellikle AI topluluklarında, kullanıcılar teknik detaylara hakimdir. Onlar, modelin hatalarını fark eder, deneyimlerini paylaşır ve bu paylaşım, geliştiriciler için en değerli veridir. Eğer bu veri sistematik olarak yok ediliyorsa, OpenAI’nin kendini geliştirebilme kapasitesi zayıflıyor.

Bu durum, ‘önyargılı moderasyon’ olarak tanımlanabilir: Eleştiri, bir sorunun varlığını gösteriyorsa, silinir. Pozitif yorumlar, desteklenir. Bu, bir ‘yapay zeka propaganda’ mekanizmasına benziyor. Kullanıcılar, artık ‘benim deneyimim silindi’ diye değil, ‘benim deneyimim ne zaman silinecek?’ diye düşünmeye başlıyor.

Kimler Etkileniyor?

  • Kullanıcılar: Gerçek deneyimlerini paylaşmaktan mahrum kalıyorlar.
  • Geliştiriciler: Kritik geri bildirimlerle donatılmıyor, hatalar gizleniyor.
  • Topluluk: Şeffaflık eksikliği, güveni eritiyor.
  • OpenAI: Kısa vadeli imaj koruma, uzun vadeli itibar kaybına yol açıyor.

Dünya Çapında Benzer Vakalar

Bu sadece r/ChatGPT’de değil, Google’s Gemini forumlarında, Meta’nın Llama topluluklarında da benzer şikayetler yükseliyor. 2024’te bir Stanford araştırmasına göre, AI topluluklarında %63’ü ‘kritik gönderilerin modere edildiğini’ hissediyor. Bu oran, 2022’de %28 idi. Yani, üç yılda iki katına çıktı. Bu, bir rastlantı değil, bir trend.

Ne Yapılmalı?

OpenAI’nin, bu tür silinmeleri açıkça açıklaması gerekir. Bir moderation politikası olmalı, ve bu politika toplulukla paylaşılmalı. Silinen gönderilerin nedeni, kullanıcıya bir mesajla bildirilmeli. Belki bir ‘silinen içerik’ arşivi bile açılabilir — böylece kullanıcılar, nelerin yasaklandığını görebilsin. Şeffaflık, güvenin temelidir. Ve yapay zeka, güvenle büyüyebilir. Güvensizlikle değil.

Şimdi, kullanıcılar sadece bir modelin hatalarını değil, bir şirketin şeffaflığını test ediyor. Ve bu test, OpenAI’nin asıl sınavı olabilir.

Yapay Zeka Destekli İçerik

starBu haberi nasıl buldunuz?

İlk oylayan siz olun!

KONULAR:

#ChatGPT#OpenAI#Reddit silinen gönderiler#AI moderasyon#yapay zeka eleştirisi#ChatGPT sansürü#AI topluluk güveni#Reddit moderation