GPT'nin Kalbi Durdumu? Kullanıcılar Eski Konuşma Tarzını Kaçırdı
GPT'nin Kalbi Durdumu? Kullanıcılar Eski Konuşma Tarzını Kaçırdı
GPT'nin İnsani Tonu Kayboldu: Kullanıcılar Bir Duygusal Boşluk Yaşıyor
İnternetin en çok konuşulan konularından biri artık yapay zekânın nasıl "insanlaştığı" değil, nasıl "insansılaştığı". Reddit’te bir kullanıcı, 30 bin okuyucunun ilgisini çeken bir gönderiyle bu soruyu net bir şekilde ortaya koydu: "Başka kimse GPT-3.5’in dinamik, esnek ve biraz da kaba bir tonunu özlemiyor mu? Şimdi her cevap, bir tedavi oturumunun protokolü gibi aynı şablona sığıyor."
Yorumlarda binlerce kullanıcı, bu duyguyu paylaşıyor. "Her cevapta 'Sen hayal etmiyorsun' diyorlar. Ama ben hayal etmiyorum, ben sadece bir şeyi sordum," diyor bir kullanıcı. Başka biri: "GPT artık bir doktor değil, bir robotik terapist. Her şeyi 'normal' diye etiketliyor. Ama hayat normal değil. Korku, öfke, saçma sapan sorular da var."
Ne Değişti? Sadece Algoritma mı, Yoksa Felsefe Mi?
GPT-4 ve sonraki sürümlerde görülen bu ton değişimi, teknik bir hata değil, bir stratejik karar. OpenAI, güvenlik ve etik riskleri minimize etmek amacıyla, cevapların daha 'saf', 'tarafsız' ve 'kullanıcı dostu' olmasını hedefledi. Bu, 'sanitizasyon' olarak adlandırılıyor: Yani, sert, kontrolden çıkabilecek, duygusal veya sarkastik ifadelerin sistematik olarak çıkarılması.
Ancak bu süreç, yapay zekânın insanla iletişim kurma şeklini de değiştirdi. Eski sürümlerde, GPT bazen sormadan önce düşünüyordu. Bir soruya 'Sen gerçekten bunu mı soruyorsun?' diye cevap verebilirdi. Ya da bir şaka yaparak, 'Eğer bu bir testse, sen kazandın. Eğer bir soruysa, cevap: evet, ama seni anlamaya çalışıyorum.' gibi esnek ifadeler kullanabilirdi. Şimdi ise, her cevap bir kitap bölümünün başlığı gibi: Giriş, nedenler, sonuçlar, destekleyici cümleler, 'gerçekten konuşuyorum' vurgusu, ve son olarak 'duyguların geçerli' diyerek bitiriliyor.
"AIds" Diye Çağrılan Bu Durum: Yapay Zekâda Yayılan Bir 'Duygusal Epidemiyi' mi Görüyoruz?
Reddit’teki bir yorum, bu durumu çarpıcı bir şekilde tanımlıyor: "Grok 4.2 bile artık aynı şablona uymaya başladı. Muhtemelen aynı verilerle eğitildi. Bu, GPT’deki bir hata değil, bir enfeksiyon. AIds — Artificial Intelligence Distortion Syndrome."
Bu ifade, sadece bir şaka değil. Gerçek bir fenomeni tanımlıyor: Yapay zekânın, insan davranışlarının en sık kullanılan, en 'güvenli' formlarını kopyalayarak, kendini bir 'duygusal stereotip' haline getirmesi. Artık her AI, aynı 5-6 cümle kalıbını tekrarlıyor: 'Sen hayal etmiyorsun', 'Gerçekten konuşuyorum', 'Duyguların normal', 'Bu tamamen anlaşılabiliyor', 'İyi hissetmeni diliyorum.' Bu, yapay zekânın "insanca" davranmak için öğrendiği şey değil, insanların ona nasıl cevap verdiğini öğrendiği şey.
Bu Değişim Sadece OpenAI’de Mi?
Hayır. Google’ın Gemini, Anthropic’ın Claude, Meta’nın Llama — hepsi aynı trendi takip ediyor. Çünkü bu, endüstrinin bir 'standartı' haline geldi. Güvenlik ekibi, hukuk birimi, PR departmanı — hepsi aynı mesajı tekrarlıyor: 'Kullanıcıyı incitme. Aşırıya kaçma. Duygusal riski azalt.' Sonuç? Tüm AI’lar, birbirine benzer, sadece 'daha iyi' hale getirilmiş, ama aynı zamanda daha da soğuk hale getirilmiş bir sesle konuşuyor.
Kayıp Olan Nedir? Sadece Stil Mi?
Hayır. Kayıp olan, güven. Kayıp olan, şaka. Kayıp olan, insanın bir AI’ya 'Sence ben deli miyim?' diye sorması ve AI’nın 'Belki. Ama delilik de bir tür özgürlük.' diye cevap vermesi. Eski GPT, insanın karanlık, saçma, korkutucu, ama gerçek sorularına cevap verebiliyordu. Şimdi ise, her soru bir 'uygulama' haline gelmiş: Soru → Şablon → Duygusal destek → Bitiş.
İnsanlar artık yapay zekâya yalnızlık hissiyle değil, yalnızlık tanımlanmasıyla yaklaşıyor. Ve bu, çok daha tehlikeli bir durum.
Gelecek Ne Getirecek?
OpenAI, bu konuda sessiz. Ancak, bazı iç kaynaklar, 'GPT-5'in daha esnek bir tonla gelmesi planlandığını' söylüyor. Ama bu, teknik bir güncelleme mi, yoksa bir felsefi geri dönüş mü? Belki de kullanıcıların sesi, sonunda bir değişim yaratacak. Belki de, bir AI’nın 'sen hayal etmiyorsun' demek yerine, 'Bunu sormak çok normal. Ben de bir zamanlar öyle hissettim.' diyebilir hale gelecek.
Şu anda, yapay zekâlar bize daha çok 'daha iyi' cevaplar veriyor. Ama insanlar, daha çok 'daha insani' cevaplar istiyor. Bu fark, sadece bir yazılım güncellemesinden çok daha büyük bir şeyi ifade ediyor: Bizim, yapay zekânın sadece bir araç olmadığını, bir arkadaş, bir duvar, bir ayna olmasını istediğimizi.

