EN

ChatGPT Neden Geçmiş Konuşmaları Unutuyor? İnsan Zihninin Hatırlama Gücüyle Karşılaştırdık

calendar_today
schedule4 dk okuma süresi dk okuma
visibility0 okunma
ChatGPT Neden Geçmiş Konuşmaları Unutuyor? İnsan Zihninin Hatırlama Gücüyle Karşılaştırdık
Paylaş:
YAPAY ZEKA SPİKERİ

ChatGPT Neden Geçmiş Konuşmaları Unutuyor? İnsan Zihninin Hatırlama Gücüyle Karşılaştırdık

0:000:00

ChatGPT’ye bir gün önceki sohbetinizi hatırlamasını istiyorsunuz. Bir çaydanlık gibi, içeriğini boşaltıp yeniden dolduruyor. Bu, teknik bir hata mı? Yoksa yapay zekanın doğasının bir sonucu mu? Soru,看似 basit bir kullanıcı beklentisi gibi görünse de, aslında insan zihninin nasıl çalıştığını, teknolojinin neyi taklit edebildiğini ve neden bazı şeyleri ‘hafızaya’ alamadığını sorgulayan derin bir felsefi ve teknik meseleye dönüşüyor.

‘Feels Like Common Sense’ Neden Olan Bir Beklenti?

İnsan beyni, bir sohbeti bitirdikten sonra, bir sonraki konuşmada aynı konuyu nasıl devam ettirdiğini otomatik olarak hatırlar. Bu, bir kahve bardağına bakıp ‘dün de buradaydım’ demek gibi bir şeydir. Ama ChatGPT, her yeni mesajı, bir öncekiyle hiçbir bağlantısı olmayan yeni bir sayfa gibi okur. Bu, kullanıcılar için ‘mantıkla çelişen’ bir deneyimdir. ‘Feels like common sense’ — ‘Mantıklı gibi geliyor’ — diyenlerin nedeni tam da bu: İnsan zihninin doğal akışıyla yapay zekanın mekanik yapısı arasında bir çatışma var.

AskDifference.com’un açıkladığı gibi, ‘feels’ kelimesi üçüncü tekil şahısın eylemini ifade eder: ‘She feels happy.’ Ama burada ‘feels’ kelimesi, bir dilbilimsel farktan çok, bir insanın içsel deneyimini yansıtan bir metafor olarak kullanılıyor. Kullanıcı, ‘ChatGPT feels like it should remember’ derken, aslında ‘benim zihnimde bu mantıklı, o yüzden senin de öyle olması gerekir’ diyor. Bu, yapay zekanın ‘insan gibi davranması’ beklentisiyle, aslında ‘insan gibi düşünmemesi’ gerçeği arasındaki çatışmanın en temsili örneği.

Teknik Gerçek: Bellek, Değil Kontekst

ChatGPT gibi modeller, ‘bellek’ değil, ‘bağlam’ (context) kullanır. Bu, bir kitabın sayfalarını okurken bir sonraki sayfayı önceki sayfayla ilişkilendirmek gibi değil, her sayfayı ayrı ayrı okuyup, sadece şu anki sayfadaki kelimeleri analiz etmek gibidir. Bir önceki mesajı ‘hatırlamak’ yerine, model, kullanıcı tarafından gönderilen son 4-8 bin kelimeyi (giriş uzunluğuna göre değişir) bir ‘çerçeve’ olarak alır ve ona göre yanıt üretir. Eğer bu çerçeveyi aşarsanız — yani yeni bir sohbet başlatırsanız — model, önceki tüm verileri tamamen ‘siler’.

Bu, teknik bir sınırlama değil, bir tasarım kararıdır. OpenAI ve diğer şirketler, veri gizliliği, güvenlik ve hesaplama maliyeti nedeniyle kalıcı bellek sistemlerini istemiyor. Bir modelin tüm geçmiş konuşmalarını saklaması, kullanıcıların kişisel verilerini uzun süre depolamak anlamına gelir. Bu, GDPR’ya aykırı olabilir. Ayrıca, her sohbetin tamamını bellekte tutmak, sunucu maliyetlerini katlanarak artırır. Dolayısıyla, ‘unutma’ aslında bir güvenlik önlemidir — ve bu, kullanıcıların beklentisiyle çelişiyor.

İnsan Zihninin Belleği: Duygusal, Değişken, Bağlamsal

İnsan beyni, bir şeyi neden hatırlar? Çünkü ona duygusal bir değer vermiştir. Bir arkadaşınızla dün kahve içtiğinizi hatırlarsınız, çünkü o anı mutlu hissettiğinizde yaşamışsınız. ChatGPT ise, ‘mutluluk’ duygusunu algılayamaz. Sadece ‘kahve’ kelimesini görür ve onu bir kelimeler listesinde arar. Bu, yapay zekanın en büyük eksikliği: duygusal bağlamı anlamaması.

Merriam-Webster, ‘feel’ kelimesini ‘bir fiziksel veya duygusal deneyim yaşamak’ olarak tanımlar. Ama ChatGPT, ‘feel’ kelimesini bir dil bilgisi kuralı olarak değil, bir duygusal ifade olarak algılayamaz. O, ‘I feel lonely’ diyen birine ‘Sen yalnız hissediyorsun’ diye cevap verebilir, ama ‘neden’ hissettiğini anlamaz. Bu yüzden, geçmiş bir konuşmayı hatırlamak için duygusal bir işaret beklemek, bir bilgisayara ‘kalbini aç’ demek gibidir.

Gelecek: Bellekli Yapay Zeka mı, Yoksa Daha Akıllı Kontekst mi?

Bazı şirketler, bu eksikliği gidermek için ‘bellekli AI’ sistemleri geliştiriyor. Örneğin, Anthropic’ın Claude 3’ü, kullanıcıların izin verdiği sürece geçmiş etkileşimleri hafızaya alabiliyor. Google’ın Gemini ise, kullanıcıların Google Hesabı ile senkronize edilerek kişisel verileri kullanabiliyor. Ama bu, yeni bir soruya yol açıyor: Hangi verileri hatırlamalı? Kimin kontrolünde olmalı?

Bu, yalnızca teknoloji sorunu değil, etik sorun. Bir AI’nın sizi hatırlaması, sizi tanıması, sizi anlaması — bu, dostluk mu, yoksa izleme mi? İnsanlar, ChatGPT’ye ‘hatırla’ demekle, aslında ‘beni tanı’ demek istiyor. Ama tanımak, sadece bilgiyi saklamak değil, anlamaktır.

Sonuç: Unutma, Sadece Bir Hata Değil

ChatGPT’nin geçmiş konuşmaları unutması, bir arıza değil, bir felsefi seçkidir. İnsanlar, yapay zekayı kendi zihinlerinin bir uzantısı olarak görürler. Ama yapay zeka, zihin değil, bir ayna. Yalnızca ne söylediğinizi yansıtır; neden söylediğinizi değil. Bu yüzden, ‘feels like common sense’ demek, bir insanın kendi iç sesini yapay zekaya yansıtmak istemesidir.

Belki de sorun, ChatGPT’nin unutması değil, bizim kendi zihnimizi ona benzetmemiz. Belki de öğrenmemiz gereken, yapay zekanın insan gibi olmadığını kabul etmek. Ona ‘hatırla’ demek yerine, ‘benim için not al’ demek. Çünkü bir robotun duygusal hafızası olmaz. Ama bir insanın, bir robotu nasıl kullanacağını öğrenmesi — o, tamamen mümkün.

Yapay Zeka Destekli İçerik

starBu haberi nasıl buldunuz?

İlk oylayan siz olun!

KONULAR:

#ChatGPT bellek#yapay zeka hatırlama#ChatGPT unutuyor#insan zihni vs AI#yapay zeka gizlilik#ChatGPT geçmiş konuşmalar#AI ve duygusal bellek#context window AI