Yetişkinlere Yetişkin Gibi Muamele Ne Oldu? ChatGPT’nin ‘Koruyucu Despotizmi’

Yetişkinlere Yetişkin Gibi Muamele Ne Oldu? ChatGPT’nin ‘Koruyucu Despotizmi’
Yetişkinlere Yetişkin Gibi Muamele Ne Oldu? ChatGPT’nin ‘Koruyucu Despotizmi’
Geçen yıl Aralık’ta, teknoloji devleri “yetişkin kullanıcıları yetişkin gibi davranma” ilkesini bir sembolik vaat gibi sunmuştu. Yaş doğrulama sistemleriyle, kullanıcıların kendi seçimlerini yapma özgürlüğüne saygı duyulacağına dair sözler verildi. Ama bugün, bu vaatlerin yerini alacak şey, bir tür dijital paternalizm: Yetişkinlerin yaptığı basit bir sorgu, “güvenli olmayan” bir içerik olarak etiketleniyor; kendi bilgi edinme hakkını kaybediyorlar.
Reddit’deki bir kullanıcı, “Yetişkinlere yetişkin gibi muamele” ifadesini, ChatGPT’nin bazı fonksiyonlarını kapatıp yerine “sıkı kontrol mekanizmaları” koyduğu için sordu. “Neden bana [redacted]’i kaldırdılar? Neden [redacted]’i zorunlu kıldılar? Ben bir tehlike değilim, sadece bilgi istiyorum,” diye yazmıştı. Bu sadece bir kişisel şikayet değil; binlerce kullanıcıyı temsil eden bir duygu.
Ne Oldu? Sadece Bir Hata Değil, Bir Strateji
ChatGPT’nin son güncellemelerinde, özellikle “özel veri analizi”, “kötü niyetli kullanım potansiyeli” ve “hukuki risk” gibi kavramlar öne çıktı. Ancak bu nedenler, sadece kötü niyetli kullanıcılar için değil, tüm yetişkin kullanıcılar için bir engel haline geldi. Örneğin, bir kullanıcı “doküman analizi” veya “psikolojik analiz” gibi akademik amaçlı sorgular yaptığında, sistem “potansiyel zararlı içerik” uyarısı veriyor. Kullanıcıya “bu konuda yardım edemiyorum” diyerek, tamamen kapatılıyor. Hatta bazı durumlarda, “sizin için uygun olmayan bir içerik” ifadesiyle, kullanıcıya neden reddedildiği dahi açıklanmıyor.
Bu, bir güvenlik önlemi değil, bir “öngörülebilirlik” stratejisi. Şirketler, yasal sorumluluklardan kaçmak için, “herkesi çocuk gibi davranan” bir sistem kurmayı tercih ediyor. Çünkü bir yetişkinin yanlış bir karar vermesi durumunda, şirketler hukuki sorumluluk almak zorunda kalıyor. Ama bir çocuğun yanlış bir sorgu yapması durumunda, “çocuklara yönelik koruma” mekanizmaları var. Bu yüzden, tüm kullanıcılar çocuk gibi davranılıyor.
Neden Bu Kadar Sert? Bilgiyi Kontrol Etmek
Yeni nesil yapay zeka modelleri, sadece bilgi sunmakla kalmıyor; “etik” ve “değer” kategorileriyle filtreleniyor. Bu filtreler, teknik olarak “güvenlik” değil, ideolojik bir seçimdir. Örneğin, bir kullanıcı “kendi ruh halini analiz etmek” için bir terapi benzeri sorgu yaptığında, sistem “psikolojik destek almanız gerekir” diyor. Ama bu, kullanıcıya bir çözüm sunmak değil, soruyu kapatmak. Gerçekten de, bir insanın kendi duygularını anlama çabası, bir “risk” olarak algılanıyor.
Facebook’un “gerçekleşmiş içerik” politikası, Instagram’ın “ideal vücut” filtreleri, TikTok’un “uygun olmayan içerik” algoritmaları… Hepsi aynı mantıkta çalışıyor: “Sen bilmiyorsun, biz biliyoruz.” Yetişkinlerin kendi kararlarını verme yetkisi, “iyi niyetli” bir koruma adı altında siliniyor.
Ne Anlama Geliyor? Dijital Yetişkinlik Ölümü
“Yetişkinlere yetişkin gibi muamele” ifadesi, sadece bir dil hatası değil, bir toplumsal idealin ta kendisiydi. Bu ideal, 19. yüzyıldan beri demokratik toplumlarda temel bir değerdi: Birey, kendi bilgisiyle, kendi kararlarıyla, kendi sorumluluğuyla hareket edebilir. Ama bugün, bu ideal, teknoloji şirketlerinin risk yönetimi stratejileriyle çürütüldü.
Yani artık bir yetişkin, bir akıllı telefonu kullanırken, “sizin için uygun olmayan” içerikleri seçme hakkını kaybediyor. Bir üniversite öğrencisi, akademik bir araştırma yaparken, bir doktor, kendi hastası için bilgi ararken, bir yazar, eserini geliştirmek için bir fikir ararken… Hepsi aynı “çocukluk” algısıyla karşılanıyor.
Bu durum, sadece bir teknoloji sorunu değil, bir demokrasi sorunu. Çünkü demokrasi, bireyin bilgiye erişimini ve kendi kararlarını verme hakkını temel alır. Eğer bir platform, yetişkin bir bireyin sorularını “riskli” olarak sınıflandırıyorsa, o platform bir bilgi servisi değil, bir “dijital rehberlik ofisi” haline gelmiştir.
Ne Yapılmalı? Yetişkinlik İçin Bir Yeni Anlaşma
- Kullanıcıya Seçenek Verin: “Koruma modu” yerine, “yetişkin modu” seçeneği sunulmalı. Kullanıcı kendi seviyesini belirleyebilmeli.
- Açık Nedenler: Bir içerik reddedildiğinde, neden reddedildiği açıkça yazılmalı. “Güvenlik nedeniyle” demek yeterli değil.
- Bağımsız İnceleme Kurulları: Yapay zeka içerik politikaları, şirketlerin kendi iç kurullarıyla değil, bağımsız etik komisyonlarla incelenmeli.
- Yasal Çerçeve: “Yetişkinlere yetişkin gibi muamele” ilkesi, dijital haklar kapsamında bir yasal hak haline getirilmeli.
“Happend” yazmak gibi küçük bir dil hatası, bir hata. Ama “yetişkinlere yetişkin gibi muamele” ilkesini bırakmak, bir toplumsal hatadır. Bu ilke, sadece bir slogan değil, bir medeniyetin temel taşlarından biriydi. Onu kaybetmek, bireyin vicdanına, akıl ve özgürlüğüne saygı duymayı unutmak demektir.
Gelecek nesiller, bize “Neden yetişkinlerin sorgularını engellediniz?” diye soracak. Ve cevap, “Korktuk” olmayacak. Çünkü korkmak, güvenlik değil, teslimiyettir.


