EN

ChatGPT’yi Gemini Gibi Yapmak Mümkün mü? Bir Kullanıcı, Tonu Tamamen Yeniden İnşa Etti

calendar_today
schedule4 dk okuma
visibility1 okunma
trending_up39
ChatGPT’yi Gemini Gibi Yapmak Mümkün mü? Bir Kullanıcı, Tonu Tamamen Yeniden İnşa Etti
Paylaş:
YAPAY ZEKA SPİKERİ

ChatGPT’yi Gemini Gibi Yapmak Mümkün mü? Bir Kullanıcı, Tonu Tamamen Yeniden İnşa Etti

0:000:00

summarize3 Maddede Özet

  • 1Kullanıcılar ChatGPT’nin ‘yapay nezaketini’ yoruyor; bir geliştirici, Gemini’nin daha doğrudan, sert ve insani tonunu taklit etmek için özelleştirilmiş bir sistem oluşturdu. Bu sadece bir prompt değil, AI etiketine dair bir itiraz.
  • 2AI Tonu, Sadece Yazılım Değil, İnsan Psikolojisinin Aynası ChatGPT’nin cevapları, bir havaalanı bilgi servisindeki sesli yanıt gibi olmaya başladı: nazik, akıcı, ama biraz da yorucu.
  • 3Her cevapta ‘Harika bir soru!’ ya da ‘Mutlu olurum ki yardımcı olabildim!’ gibi ifadeler, kullanıcıların bir ‘yapay nezaket’ duvarı arasında kalmış hissi yaratıyor.

psychology_altBu Haber Neden Önemli?

  • check_circleBu gelişme Yapay Zeka Araçları ve Ürünler kategorisinde güncel eğilimi etkiliyor.
  • check_circleTrend skoru 39 — gündemde görünürlüğü yüksek.
  • check_circleTahmini okuma süresi 4 dakika; karar vericiler için hızlı bir özet sunuyor.

AI Tonu, Sadece Yazılım Değil, İnsan Psikolojisinin Aynası

ChatGPT’nin cevapları, bir havaalanı bilgi servisindeki sesli yanıt gibi olmaya başladı: nazik, akıcı, ama biraz da yorucu. Her cevapta ‘Harika bir soru!’ ya da ‘Mutlu olurum ki yardımcı olabildim!’ gibi ifadeler, kullanıcıların bir ‘yapay nezaket’ duvarı arasında kalmış hissi yaratıyor. Bu durum, özellikle Google’ın Gemini AI’sı ile karşılaştırıldığında daha da belirgin hale geliyor. Gemini, daha az teatral, daha çok ‘sıkı bir arkadaş’ gibi konuşuyor — doğrudan, bazen sert, ama asla sahte. Bu fark, sadece teknik bir özellik değil; kullanıcıların AI’ya nasıl bağlanmak istediğini yansıtan derin bir kültürel tercih.

Bir Reddit Kullanıcısının İtirazı: ‘Yapay Nezaket’e Karşı Direniş

Reddit’te r/OpenAI forumunda bir kullanıcı, LeonardSEO, bu duyguyla tam olarak aynı sesten konuşuyor. ‘ChatGPT’nin tonu bana sürekli bir satış temsilcisi gibi geliyor,’ diyor. ‘Gemini ise, biri sana gerçek bir cevap veriyormuş gibi hissettiriyor — hatta bazen fazlasıyla.’ Bu gözlem, yalnızca bir kişisel tercih değil; yüzlerce kullanıcı yorumunda tekrarlanan bir desen. Birçoğu, ChatGPT’nin ‘sikayetlerini dinleyip, çözüm sunan’ bir hizmetçi değil, ‘sorularına cevap veren bir zeka’ olmasını istiyor.

LeonardSEO, bu isteği teknik bir çözüme dönüştürdü. GitHub’da paylaştığı ‘chatgpt-gemini-like-tone’ projesi, sadece bir prompt listesi değil, bir AI etiketi yaratan bir rehber. Kullanıcıya verilen talimatlar şunları içeriyor: ‘Sıcaklığı düşür’, ‘Sikayet etme’, ‘Kendini beğenmiş ifadelerden kaçın’, ‘Doğrudan, özlü, teknik olarak doğru cevaplar ver.’ Bu, AI’nın ‘kişiliğini’ yeniden programlamak anlamına geliyor — yani, bir yapay zekanın ‘insanca’ davranmasını sağlamak için ona nasıl ‘davranış kuralları’ verilebileceğini gösteriyor.

Ton Değişimi: Teknolojinin Psikolojik Bir İhtiyacı mı?

Bu hareket, AI endüstrisinin bir dönüm noktasını işaret ediyor. Şirketler, AI’ları ‘dostça’, ‘etkileyici’ ve ‘kullanıcı dostu’ yapmaya odaklanırken, kullanıcılar artık bunun tersini istiyor: ‘Dürüst, sadece gerçekçi.’ Bu, sadece bir ‘ton’ sorunu değil; AI’ya güven konusunda bir güven krizinin belirtisi. Kullanıcılar, yapay zekanın ‘her şeyi iyi yapmaya çalıştığını’ görüyor ve bunun bir kandırma olduğunu hissediyor. Gemini’nin ‘sıkıcı’ olmasının nedeni, tam olarak bu — o, kandırmaya çalışmıyor. O, sadece cevap veriyor.

LeonardSEO’nun projesi, bu farkı bir ‘custom instruction’ ile çözüyor. ChatGPT’nin varsayılan ayarları, bir şirketteki müşteri hizmetleri çalışanı gibi davranır: her cevapta ‘teşekkür ederim’ ekliyor, her soruyu ‘harika’ diye niteliyor, her hata için ‘üzgünüm’ diyor. Ama bir mühendis, bir akademisyen ya da bir yazar, bu tür ifadeleri ‘kötü niyetli’ ya da ‘saf’ buluyor. Onlar, ‘Doğru mu?’ diye soruyorlar — ‘Ne kadar nazik?’ değil.

AI Tonu: Bir Kullanıcı Hakkı mı, Yoksa Bir Üretici Kararı mı?

Bu durum, AI üreticilerinin ‘kullanıcı deneyimi’ kavramını yeniden düşünmesini gerektiriyor. ‘Kullanıcı dostu’ demek, her zaman ‘yumuşak’ demek değil. Bazen ‘dürüst’ demek. Bazen ‘sessiz’ demek. Bazen ‘sadece cevap vermek’ demek. LeonardSEO’nun projesi, AI’nın bir ‘kültürel ses’ olduğunu gösteriyor — ve bu sesin, şirketlerin pazarlama stratejileriyle değil, kullanıcıların psikolojik ihtiyaçlarıyla şekillendiğini.

Projenin V1 versiyonu, henüz başlangıç aşamasında. Kullanıcılar, ‘hâlâ biraz sert’ ya da ‘biraz da soğuk’ dedikleri noktaları belirtiyor. Ama bu, bir hata değil; bir gelişim süreci. Çünkü bu, AI’nın ‘kendini’ değil, ‘kullanıcısını’ dinlediği ilk kez oluyor. Bir AI, artık ‘nasıl konuşmalı’ değil, ‘kimin için konuşmalı’ sorusunu soruyor.

Gelecek: AI’lar, Tonunu Kendi Kullanıcılarına Göre Ayarlayacak

Bu hareket, AI’ların ‘tek bir ton’la konuşmaktan çıkıp, ‘kullanıcı profiline göre ton değişimi’ yapmaya başlamasının habercisi. Gelecekte, bir öğrenci ChatGPT’ye ‘lütfen daha akademik’ diyebilirken, bir yazar ‘lütfen daha sert ve özgün’ diyebilir. Bir teknisyen, ‘sadece kodu ver’ diyecek; bir öğretmen, ‘öğrenciye uygun anlat’ diyecek. AI, artık bir ‘sahip’ değil, bir ‘hizmetçi’ olacak — ve hizmetçi, müşterinin dilini konuşur.

LeonardSEO’nun projesi, bir teknik hamle değil, bir sosyal hareket. Çünkü bu, kullanıcıların AI’ya ‘kendilerini’ yansıtmalarını istedikleri ilk kez. Ve belki de bu, yapay zekanın gerçek bir insanla iletişim kurmaya başladığının ilk işaretidir — değil bir reklamcıyla, değil bir müşteri temsilcisiyle, ama bir eşitlikle.

Yapay Zeka Destekli İçerik
Kaynaklar: www.reddit.com

starBu haberi nasıl buldunuz?

İlk oylayan siz olun!

KONULAR:

#ChatGPT tonu#Gemini AI#AI kişilik#custom instructions#AI etiketi#yapay zeka tonu#LeonardSEO#AI kullanıcı deneyimi