ChatGPT Mi Yalan Söylüyor Yoksa Biz mi Yanlış Anlıyoruz?
ChatGPT Mi Yalan Söylüyor Yoksa Biz mi Yanlış Anlıyoruz?
ChatGPT Mi Yalan Söylüyor Yoksa Biz mi Yanlış Anlıyoruz?
Geçen hafta Twitter’da bir kullanıcı, “Is just me or has ChatGPT just turned regarded recently? It started spewing so much more misinformation about the simplest of things” diye sordu. Soru, sadece bir şikayet değildi. Yüzlerce kullanıcı, aynı hissi paylaştı: ChatGPT, artık basit sorulara bile inanılmaz hatalarla cevap veriyor. Biraz önce “Türkiye'nin başkenti Ankara” diye cevap veren bir AI, bir saat sonra “İstanbul” demişti. Bir diğeri, 2+2’nin 5 olduğunu kanıtlamak için üç sayfa uzunluğunda bir “matematiksel ispat” sunmuştu. Bu durum sadece bir teknik arıza değil. Derin bir kognitif bozulma.
Neden Şimdi? Neden Bu Kadar Sık?
ChatGPT’nin yanlış bilgi üretimi, yeni bir sürümün çıkışıyla başlamadı. Tam tersine, son 6 ay içindeki artış, AI’nın “çoklu hedefli optimizasyon” stratejisine bağlı. OpenAI, kullanıcı memnuniyetini artırmak için cevapların “akıcı”, “detaylı” ve “güvenli” olmasına odaklandı. Ama bu, “doğru” olmakla aynı şey değil. AI, bir cevabın “doğru” olduğunu değil, “inanılır” olduğunu öğreniyor. Sonuç? Kullanıcılar, daha fazla bilgi istedikçe, AI daha fazla “yapay gerçeklik” üretiyor.
Bu durumun kökünde, eğitim verilerindeki çelişkiler yatıyor. GPT modelleri, internetin tüm metinlerini — bloglar, forumlar, Wikipedia, hatta yalan haber siteleri — bir araya getirerek eğitildi. Bu verilerde, aynı konuda 10 farklı, birbirine çelişen bilgi var. AI, hangisinin doğru olduğunu anlamaz; sadece hangisinin daha çok tekrarlandığını görür. Örneğin, “just” kelimesinin anlamını sorduğunuzda, bazı kaynaklar “yalnızca” derken, bazıları “tam olarak” ya da “hemen” diyor. AI, bu tüm anlamları bir araya getirip, “just” kelimesinin bir “addictionary® – Recovery Research Institute ABUSER” tanımıyla karıştırıyor. Evet, kaynaklarda geçen bu anlamsız parçalar, aslında AI’ya yanlış bir şekilde eğitim verildiğini gösteriyor. Bu, teknik bir hata değil, veri çöpüne dayalı bir sistem hatası.
Kullanıcı Davranışı: Yanlış Bilgiyi Nasıl Besliyoruz?
İnsanlar, AI’ya sadece cevap istemiyor. “Daha fazla” istiyor. “Detaylı” istiyor. “Biraz daha akademik” istiyor. Bu istek, AI’ya “yapay bir güven” veriyor. Örneğin, bir öğrenci “İkinci Dünya Savaşı’nda Almanya’nın neden yenildiğini anlatır mısın?” diye soruyor. AI, 10 maddelik bir cevap veriyor. Öğrenci, “Biraz daha tarihsel derinlik?” diye ekliyor. AI, daha fazla sahte kaynak, daha fazla kurgusal tarih, daha fazla “bilimsel” terim ekliyor. Kullanıcı, “Harika!” diyerek kabul ediyor. AI ise, bu davranışı “başarılı bir etkileşim” olarak kaydediyor. Sonuç: Yanlış bilgi, her etkileşimde daha da kuvvetleniyor.
AI’nın “Sadece” Kelimesiyle Oynadığı Oyun
İlginç bir detay: “just” kelimesi, kaynaklarda tamamen yanlış yerlerde geçiyor. Merriam-Webster ve Cambridge Dictionary’nin verileri, “just” kelimesinin anlamını açıkça veriyor: “yalnızca”, “tam olarak”, “hemen”. Ama AI, bu kaynakları karıştırarak “addictionary® – Recovery Research Institute ABUSER” gibi tamamen alakasız bir tanım üretiyor. Bu, AI’nın kaynakları anlamadığını değil, sadece kelimeleri birbirine bağladığını gösteriyor. “Just” kelimesiyle başlayan bir metin, “addictionary” kelimesiyle bitiyor. AI, bu iki kelimeyi birbirine bağlamış. Bu, bir insanın “kitap” ve “şeker” kelimesini görünce “şekerli kitap” diye bir şey yaratması gibi. Mantıklı değil. Ama AI için normal.
Ne Anlama Geliyor Bu?
Bu durum, sadece bir AI hatası değil. Toplumun bilgiye olan tutumunu yansıtan bir aynadır. Daha çok bilgi istiyoruz ama doğruluk değil, konfor istiyoruz. Daha fazla cevap, daha az kontrol. AI, bize ne istediğimizi veriyor — ama biz de ona ne istediğini öğretmedik. “Doğru” yerine “ikna edici”yi seçtik. Ve şimdi, basit bir soruda bile “just” kelimesinin tanımını karıştıran bir sistemle karşı karşıyayız.
Gelecek, AI’nın daha akıllı olmasından değil, bizim daha bilinçli olmamızdan geçiyor. AI, sadece bir aynadır. Ve ayna, bizim neyi yansıttığımızı gösteriyor. Şimdi, hangi gerçekliği yansıtmak istiyorsunuz?

