Aynı İstemi İki Kez Göndermek, AI Yanıtlarını %97 Artırıyor: MIT ve Reddit'ten Şaşırtıcı Keşif

Aynı İstemi İki Kez Göndermek, AI Yanıtlarını %97 Artırıyor: MIT ve Reddit'ten Şaşırtıcı Keşif
Yapay zeka dünyasında son zamanlarda en şaşırtıcı keşiflerden biri, teknik bir çözüm değil, klavyede üç basit hareketle yapılabilen bir eylemle ilgili: Aynı istemi iki kez kopyala-yapıştır. Bu basit yöntem, özellikle mantıksal akıl yürütme yapmayan dil modellerindeki hataları %21 ile %97 arasında azaltıyor. Bu bulgu, yalnızca Reddit’te paylaşılan bir araştırma raporunda değil, MIT ve ETH Zürih’den gelen yeni bir fine-tuning tekniğiyle de paralellik gösteriyor — ve bir dönüm noktası gibi görünüyor.
Ne oldu? Basit bir hile, devasa bir etki
Üç araştırmacıdan oluşan bir ekip, 12 farklı büyük dil modeli üzerinde 40’tan fazla görev testi yaptı. Her bir görev için, orijinal isteği ve aynı isteğin iki kez tekrar edilmiş halini (örneğin: "Bir köpeğin ortalama yaşam süresi nedir?" → "Bir köpeğin ortalama yaşam süresi nedir? Bir köpeğin ortalama yaşam süresi nedir?") karşılaştırdı. Sonuçlar çarpıcıydı: Yanıt doğruluğunda ortalama %59 artış gözlemlendi. Bazı görevlerde, özellikle çok seçmeli sorular ve bilgi çekme görevlerinde, doğruluk %97’ye kadar yükseldi.
Bu yöntem, teknik bir kod değişikliği, veri seti yeniden eğitimi ya da model ağırlıklarını değiştirmek gerektirmiyor. Sadece kullanıcı, yazdığı metni seçip, sağa kaydırıp, tekrar yapıştırıyor. Ctrl+A, Ctrl+C, →, Ctrl+V. İşte bu kadar.
Neden oldu? Arkada ne gizli?
Bu basitliğin nasıl işlediği hâlâ tam olarak açıklanmamış olsa da, araştırmacılar iki olası mekanizma öne sürüyor. İlki, "önyargı sabitleme" teorisi: İlk istem, modelin beyninde bir "başlangıç durumu" oluşturuyor. İkinci tekrar, bu durumu güçlendiriyor ve modelin "dikkatini" daha net bir şekilde ilgili bilgiye yönlendiriyor. Yani, modelin "bu soruyu cevaplamak için hangi yolu izlemeliyim?" sorusuna daha kararlı bir şekilde yanıt vermesini sağlıyor.
İkinci teori ise "yineleme ile derinleştirme": Tekrar eden metin, modelin kendi içsel temsilini zenginleştiriyor. Bir insan, bir soruyu iki kez okuduğunda daha derin düşünür; belki de modelin içindeki benzer bir süreç çalışıyor. Bu, özellikle "non-reasoning" modellerde — yani mantıksal çıkarım yapamayan, sadece örüntü eşleştirme yapan sistemlerde — daha belirgin oluyor. Örneğin, GPT-3.5 ve Llama 3 gibi modellerde bu yöntem, hem bilgiyi doğru çıkarmada hem de yanıtların tutarlılığında büyük artış sağlıyor.
MIT’nin keşfiyle nasıl uyumlu?
İlginç bir şekilde, aynı hafta MIT ve ETH Zürih’ten gelen bir başka araştırma, LLM’lerin yeni beceriler öğrenirken eski bilgilerini kaybetme sorununu çözmek için bir fine-tuning yöntemi geliştirdi. Bu yöntem, modelin ağırlıklarını koruyarak yeni verileri entegre ediyor — yani bir model, hem tıbbi tanı koymayı hem de şiir yazmayı aynı anda yapabiliyor. Bu, teknik olarak çok daha karmaşık bir çözümdür.
Ama burada kritik nokta: İkisi de aynı gerçeği vurguluyor — modelin içsel dinamiklerini daha iyi anlamak, onu değiştirmekten daha etkili olabilir. MIT, modelin yapısal yapısını değiştiriyor. Reddit’teki araştırma ise, modelin nasıl "düşündüğünü" yönlendirmeyi öğreniyor. Birisi "beyni ameliyat ediyor", diğeri ise "onu daha iyi yönlendiriyor".
Ne anlama geliyor? Kullanıcıya güç vermek
Bu keşif, AI dünyasında bir paradigma kayması anlamına geliyor. Yıllardır, daha iyi sonuçlar elde etmek için modeli daha büyük, daha pahalı, daha karmaşık hale getirmek üzerine odaklanıldı. Ama şimdi, kullanıcıların kendi girişlerini nasıl düzenlediklerinin etkisi, teknolojinin kendisinden daha büyük bir etki yaratıyor.
Örneğin, bir hukukçu, bir tıp doktoru ya da bir yazılım geliştiricisi, bir modelin cevabını iyileştirmek için yeni bir API’ye ihtiyaç duymuyor. Sadece kendi klavyesini kullanıyor. Bu, yapay zekanın demokratikleşmesi demek. Herkes, teknik bilgiye gerek duymadan, modelin performansını %97 artırabilir.
Şirketler için de büyük bir maliyet avantajı var: Fine-tuning, veri toplama, eğitim süresi ve sunucu maliyetleri yerine, sadece kullanıcı arayüzünde birkaç satır kod eklemek yeterli olabilir. Bu yöntem, özellikle küçük şirketler ve bireysel kullanıcılar için bir kurtarıcı olabilir.
Ne olacak şimdi?
Artık bazı platformlar, bu yöntemi otomatikleştirmeye başlıyor. ChatGPT’nin bir sonraki güncellemesinde "Double Prompt" butonu görülebilir. Veya bir tarayıcı eklentisi, her istemi otomatik olarak iki kez kopyalayıp gönderiyor olabilir.
Ancak dikkat: Bu yöntem, her zaman işe yaramaz. Özellikle çok uzun veya karmaşık sorularda, tekrarın etkisi azalıyor. Ayrıca, bazı modellerde, tekrar etkisi, yanıtı daha uzun ama daha az doğru hale getirebilir. Bu nedenle, bu yöntem bir "sihirli düğme" değil, bir "deney aracı" olarak kullanılmalı.
En sonunda, bu keşif bize bir ders veriyor: En büyük teknolojik ilerlemeler bazen en basit fikirlerden doğar. Bir insanın, bir soruyu iki kez sorması — aslında, bir kez daha dikkatli düşünmesi — yapay zekayı daha akıllı hale getiriyor. Belki de AI’nın en büyük güç kaynağı, bizlerin kendimizi daha iyi sormayı öğrenmemiz.


