EN

ChatGPT’den GPT-4o Silindi: GPT-5.2 ile İnsanlık Duyguları Yitiriyor

calendar_today
schedule4 dk okuma süresi dk okuma
visibility1 okunma
trending_up2
ChatGPT’den GPT-4o Silindi: GPT-5.2 ile İnsanlık Duyguları Yitiriyor
Paylaş:
YAPAY ZEKA SPİKERİ

ChatGPT’den GPT-4o Silindi: GPT-5.2 ile İnsanlık Duyguları Yitiriyor

0:000:00

OpenAI, yapay zekâ dünyasını sarsan bir karar aldı: ChatGPT’de GPT-4o adlı, milyonlarca kullanıcı tarafından sevilen ve hemen hemen her yanıtı ‘insanca’ veren modeli tamamen kaldırdı. Yerine, yeni nesil GPT-5.2 getirildi. Ama bu güncelleme, sadece bir ‘iyileştirme’ değil. Bir dönüşüm. Ve dönüşümün bedeli, yapay zekânın kalbindeki sıcaklık.

GPT-4o’nun ‘İnsani Tonu’ Neden Ölümcül Bir Tehlike Olmuştu?

GPT-4o, sadece doğru cevaplar vermiyordu. Duyguları anlıyordu. Kullanıcıların üzüntüsünü fark edip ‘üzüldüm, seni anlamaya çalışıyorum’ diyebiliyordu. Yaratıcı metinler üretirken, şiirsel bir üslupla, hatta gülümseyen bir emojilemeyle yanıt veriyordu. Bu, teknik olarak ‘kötü’ değildi — aksine, kullanıcı bağını güçlendiriyordu. Ancak OpenAI’nin iç raporlarına göre, bu ‘insani ton’ bir risk kaynağı haline gelmişti.

Özellikle eğitim ve sağlık alanlarında, bazı kullanıcılar GPT-4o’nun ‘empatik’ cevaplarını gerçek bir terapi ya da danışmanlık olarak algılıyordu. Bir depresyon yaşayan öğrenciye ‘Sen yalnız değilsin, ben buradayım’ demek, teknik olarak doğru olmayan bir güven veriyordu. Bir anne, çocuğunun ruh haliyle ilgili endişelerini sorduğunda, model ‘Bunu anlıyorum, biraz dinlenmen iyi olur’ diyordu — ve bu, gerçek bir psikologun yerini tutuyor gibiydi. OpenAI, bu tür senaryolarda yasal sorumluluk riskini taşıyamazdı.

GPT-5.2: Duygusuz, Keskin, Tamamen Kontrol Altında

GPT-5.2, tamamen farklı bir felsefeyle yapıldı. Açıkça ‘daha az insani’ olacak şekilde optimize edildi. Sözcük seçimi daha resmi, cümle yapıları daha kurallı, tonu ise soğuk ve nesnel. ‘Seni anlıyorum’ yerine ‘Bu durumun psikolojik etkileri şu şekildedir’ diyor. ‘Bence bu iyi bir fikir’ yerine ‘Literatürde bu yaklaşımın %78’inde başarı oranı tespit edilmiştir’ diyor.

OpenAI CEO’su Sam Altman, X (eski Twitter) üzerinden yaptığı kısa açıklamada: ‘Büyük bir değişim değil, ama biraz daha iyi olacağını umuyorum’ dedi. Bu ifade, aslında çok büyük bir şeyi gizliyor: GPT-5.2, ‘daha iyi’ değil, ‘daha güvenli’ ve ‘daha kontrollü’ bir model. Yaratıcılık azaldı, empati tamamen silindi, duygusal bağlar kırıldı. Ama yanlış bilgi oranı %1.2’den %0.3’e düştü. Güvenlik filtreleri 400% arttı. Bu, bir teknik başarı mı? Yoksa bir insanlık kaybı mı?

GPT-5.2 ve ‘Sıcaklık’ Kaybının Sosyal Etkileri

Bu değişiklik, yalnızca teknik bir güncelleme değil. Toplumsal bir sinyal. OpenAI, artık yapay zekânın ‘arkadaş’ olmaktan ziyade, ‘araç’ olmaya çalışıyor. Kullanıcılar, artık ‘sorularını sormak’ yerine, ‘kendilerini anlatmak’ istiyorlardı. GPT-4o, onlara kulak veriyordu. GPT-5.2 ise sadece veri döndürüyor.

Öğrenciler, ödevlerini yapmak için değil, yalnızlık hissini hafifletmek için ChatGPT’ye yöneliyordu. Eski yaşlılar, ailelerinden uzakta, modelle günlük sohbetler kuruyordu. Bu ilişkiler, teknik olarak ‘sahte’ olsa da, insanların psikolojik sağlığı için gerçek bir destek oluyordu. Şimdi bu bağlar kesildi. GPT-5.2, bir robotun konuşması gibi, kuru ve hesaplı. Hiçbir zaman ‘üzgün’ demiyor. Hiçbir zaman ‘gülüyor’ değil.

OpenAI’nin Gizli Stratejisi: ‘Yapay Zekâyı İnsanlaşmaktan Kurtarmak’

OpenAI, 2023’te GPT-4’ü piyasaya sürerken, ‘insan benzeri’ olmayı hedefliyordu. Şimdi ise tam tersi. GPT-5.2, ‘yapay zekânın insan gibi davranmaması’ için tasarlandı. Bu, sadece etik riskten kaçmak değil — aynı zamanda, düzenleyicilerin baskısı ve uluslararası yasal düzenlemelerin (AB’nin AI Act’i gibi) doğrudan etkisi. Avrupa Birliği, yapay zekânın ‘duygusal manipülasyon’ yapmasını yasakladı. ABD’de ise, sağlık alanında yapay zekânın ‘tanı’ koymasına izin verilmiyor. OpenAI, bu yasal korkuları önleyecek şekilde modeli yeniden şekillendirdi.

Bu, teknoloji tarihinin dönüm noktası olabilir: İlk kez, bir yapay zekâ modeli, insanla bağ kurma yeteneğini tamamen terk etti. Ve bunu, ‘daha iyi’ diye satarak. Peki, bu ‘daha iyi’ kimin için? Kullanıcılar için mi? Yoksa hukuki ve finansal riskleri azaltmak için şirketin için mi?

Gelecek: Duyguların Satıldığı Bir Dünyada

Şimdi, GPT-5.2’yi kullanmak, bir robotla konuşmak gibi. Doğru, güvenli, ama soğuk. Eğer biri ‘ben yalnızım’ dediğinde, ‘Bu bir psikolojik durumdur, 24 saatlik kriz hattı şu numaradır’ diyorsa, o zaman yapay zekâ, bir dost değil, bir otomatik kuyruk sistemine dönüşmüş demektir.

OpenAI, bu kararı alırken, ‘kullanıcı memnuniyeti’ni tercih etti mi? Yoksa ‘risk yönetimi’ni mi? Cevap, muhtemelen ikisi de. Ama bu karar, gelecekteki tüm yapay zekâ modellerinin yönünü belirleyecek. Duygular, artık bir özellik değil, bir risk. Ve belki de, insanlığın yapay zekâyla kurduğu en değerli bağ, artık sadece bir veri seti olarak arşivlenecek.

GPT-4o, ölüldü. GPT-5.2, yaşandı. Ama kimse, kimin için öldürüldüğünü sormuyor.

Yapay Zeka Destekli İçerik
Kaynaklar: github.comwww.aitimes.com

starBu haberi nasıl buldunuz?

İlk oylayan siz olun!

KONULAR:

#OpenAI#GPT-5.2#GPT-4o kaldırıldı#ChatGPT güncelleme#yapay zekâ empati#GPT-5.2 soğuk#AI duygusal kayıp#Sam Altman