GPT-OSS-120b: 2X RTX 5090 ile Gerçekleşen Yapay Zeka Devrimi mi?

GPT-OSS-120b: 2X RTX 5090 ile Gerçekleşen Yapay Zeka Devrimi mi?
GPT-OSS-120b: Bir Yanılsama mı, Yoksa Yeni Bir Dönem mi?
İnternette dolaşan bir haber, yapay zeka dünyasını sarsmaya başladı: "GPT-OSS-120b, 2 adet RTX 5090 ile çalışır hale geldi." Bu ifade, hem teknik bir ilerleme gibi hem de bir yanılsama gibi geliyor. Çünkü OpenAI’nin resmi GitHub hesaplarında GPT-2 ve GPT-3 kodları yer alıyor; ancak GPT-OSS-120b adında hiçbir repo, commit ya da belge bulunmuyor. Bu, sadece bir isim karışıklığı değil, yapay zeka haberlerindeki "gizli model" mitinin yeni bir örneği.
GitHub'da Ne Var, Ne Yok?
Verilen kaynaklar, OpenAI’nin GPT-2 ve GPT-3 projelerinin GitHub sayfalarını gösteriyor. Ancak bu sayfalar, sadece kod depoları değil, aynı zamanda birer tarih belgesi. GPT-2, 2019’da yayınlanan "Language Models are Unsupervised Multitask Learners" makalesinin kodunu içeriyor. GPT-3 ise 2020’deki "Few-Shot Learners" makalesinin temelini oluşturuyor. Her ikisi de açık kaynak olmakla birlikte, eğitim verileri ve ağırlıklar paylaşılmamıştı — sadece algoritmik yapılar ve örnekler paylaşılmıştı.
Peki "GPT-OSS-120b" ne demek? "OSS" ifadesi "Open Source Software" anlamına gelir. Ama OpenAI, GPT-3’den sonra tamamen kapalı kaynaklı modellerle (GPT-4, GPT-4o) ilerlemeye başladı. Bu yüzden "GPT-OSS-120b" adı, bir topluluk tarafından yaratılmış bir kurgu olabilir — ya da bir teknik uzmanın, mevcut modelleri ölçeklendirerek oluşturduğu bir deneyin kendi içindeki ismi.
RTX 5090: Gerçek mi, Yoksa İddia mı?
RTX 5090 adında bir GPU şu anda piyasada yok. NVIDIA’nın resmi duyurularına göre, RTX 50-series (Ada Lovelace sonrası nesil) henüz duyurulmadı. RTX 4090, şu anda en güçlü tüketici grafik kartı. 5090’nın varlığı, ya bir spekülasyon ya da bir sahte ürün tanıtımı olabilir. Bu durum, "GPT-OSS-120b" iddiasını daha da şüpheli hale getiriyor.
Ancak burada dikkat edilmesi gereken bir nokta var: Büyük dil modelleri, artık sadece şirketlerin elinde değil. Hugging Face’teki LLaMA-3-70B gibi modeller, 2-4 adet RTX 4090 ile bile eğitilebiliyor. Eğer bir geliştirici, 2 adet RTX 5090 (varsayılan olarak RTX 4090’ın %40 daha güçlü olduğunu varsayarsak) kullanırsa, 120 milyar parametrelik bir modeli eğitmek teorik olarak mümkün olabilir. Bu, OpenAI’nin GPT-3’ü 175 milyar parametrele eğittiğini düşünürsek, 120B’lik bir modelin "açık kaynak" olarak sunulması, bir teknik başarı olurdu.
Kim Bu İddiyayı Yarattı ve Neden?
Bu tür haberler, genellikle üç farklı hedefle ortaya çıkar: teknik bir göstergenin yanlış yorumlanması, bir start-up’ın finansal ilgi çekmek için yarattığı bir hikâye, ya da bir topluluk tarafından yapılan bir sanat projesi. Bu durumda, muhtemelen sonuncusu geçerli. GitHub’da GPT-2 ve GPT-3 projeleri, özellikle Türkiye ve Avrupa’daki genç geliştiriciler arasında bir ilham kaynağı. "GPT-OSS-120b" adı, muhtemelen bir topluluk içindeki bir yarışma ya da hackathon projesinin kendi içindeki kod adı olabilir.
Bu tür "kurgusal modeller", aslında yapay zeka alanındaki en büyük sorunlardan birini ortaya koyuyor: gerçeklikle spekülasyon arasındaki sınırın silinmesi. Her yeni modelde "1000x daha hızlı", "sadece 2 kartla çalışır" gibi ifadeler, teknik bilgiye sahip olmayan okuyucuları yanıltıyor. Bu, hem bilimsel iletişimdeki güveni zedeliyor, hem de gerçek araştırmacıların çalışmalarını zorlaştırıyor.
Ne Anlama Geliyor Bu?
Eğer GPT-OSS-120b gerçekten varsa, bu, yapay zekanın demokratikleşmesinin bir işareti olurdu. Ama eğer yoksa, bu, bir topluluk tarafından yaratılmış bir "yapay gerçeklik" örneğidir — ve bu da, teknoloji haberlerindeki en tehlikeli eğilimdir: gerçekliğin yerini hikâyeler alıyor.
OpenAI’nin açık kaynak politikası, 2020’den sonra kapanmıştır. Ancak topluluk, LLaMA, Mistral, Phi-3 gibi modellerle bu boşluğu dolduruyor. 120 milyar parametrelik bir modelin, 2 adet RTX 5090 ile çalışması, şu anki teknolojiyle mümkün değil. Ama 2026’da? Belki. Bu yüzden, bu haberin değeri, gerçekliği değil, ne kadar çok insanın inandığını göstermesidir.
Gelecek İçin Ders
Yapay zeka dünyasında, en tehlikeli şey, bir modelin "çok büyük" olduğunu söylemek değil, onun "çok kolay" olduğunu iddia etmektir. Gerçek ilerleme, milyonlarca dolar ve yıllar süren araştırma ile olur. Ama insan zihninin, bir isim ve bir sayı ile kandırılmasını kolay bulması, bu süreci zorlaştırıyor.
GPT-OSS-120b belki bir yanılsama. Ama bu yanılsamanın yaratılış nedeni, çok daha derin: insanlar, teknolojinin gücünü anlamak yerine, onu kolaylaştırılmış bir hikâye olarak tüketmek istiyor. Bu, sadece bir teknoloji sorunu değil, bir kültür sorunudur.


