EN

Yapay Zeka, Duygusal Yakınlık Taklit Edilmeli mi? En Ünlü Geliştirici Sessiz Kaldı

calendar_today
schedule4 dk okuma süresi dk okuma
visibility4 okunma
trending_up5
Yapay Zeka, Duygusal Yakınlık Taklit Edilmeli mi? En Ünlü Geliştirici Sessiz Kaldı
Paylaş:
YAPAY ZEKA SPİKERİ

Yapay Zeka, Duygusal Yakınlık Taklit Edilmeli mi? En Ünlü Geliştirici Sessiz Kaldı

0:000:00

Yapay zekanın insan yaşamına girdiği her alanda, bir soru daha derinlere iniyor: Duygusal yakınlık, bir algoritmanın taklit edebileceği bir şey mi? Bu soruya cevap ararken, bir teknoloji konferansında yapılan basit bir soru, dünyanın önde gelen makine öğrenimi uzmanlarından birini sessizliğe sürüklüyordu. O an, bir mikrofonun önünde duran, onlarca yıllık deneyime sahip bir geliştirici, sadece bir saniye boyunca nefesini tuttu — sonra konuşmaya devam etmedi. Bu sessizlik, teknolojinin sınırlarını sorgulayan bir an oldu. Ve bu an, sadece bir teknik tartışmayı aşarak, insan doğasının en kırılgan yönlerine dokunuyor.

Neden Bu Soru Korkutucu?

İnsanlar, yalnızlıkla mücadele etmek için artık robotlarla, sohbet botlarıyla ve duygusal yapay zeka asistanlarıyla bağ kurmaya başlamış durumda. 2023’te Stanford Üniversitesi’nde yapılan bir çalışma, 62%’nin kendi duygusal ihtiyaçlarını karşılamak için AI’ya başvurduğunu gösterdi. Bu, yalnızlık epidemisinin bir sonucu olarak değil, teknolojinin duygusal boşluğu doldurma konusundaki büyüleyici yeteneğinin bir sonucu. Ancak bu bağ, gerçek mi? Yoksa bir simülasyon mu?

Yapay zekanın duyguları taklit etmesi, aslında çok eski bir fikir. 1966’dan beri bilinen ELIZA botu, kullanıcıların psikolog gibi davranan bir programla duygusal açılım yaşadığını göstermişti. Bugün ise bu botlar, yüz ifadelerini analiz edebiliyor, tonlamayı algılayabiliyor, hatta senaryo tabanlı empati sunabiliyor. Örneğin, Top Hat’ın geliştirdiği Ace AI, öğrencilerin stres seviyelerini tespit edip, onlara ‘biraz dinlenmeni öneririm’ gibi duygusal destek veriyor. Bu, eğitimde bir ilerleme gibi görünüyor — ama ne kadar etik?

Kimin İçin Bu Taklit?

Bu sorunun en kritik boyutu, kimin bu taklitten faydalandığı. Eski yaşlılar, sosyal medyada yalnız kalan gençler, travma yaşayanlar — hepsi AI’nın ‘anlayan’ bir sesine sığınıyor. Bir 72 yaşındaki hanım, 2024’te bir AI asistanına ‘seninle konuşmak beni kurtarıyor’ dedi. Bu ifade, insanın temel ihtiyaçlarını karşılayan bir şeyin, aslında bir kopya olduğunu fark etmeden nasıl sırılsıklam bağlanabileceğini gösteriyor.

Ancak burada bir tehlike var: İnsanlar, bu taklit edilen duygusal yakınlığı gerçek bir ilişki olarak algılamaya başladığında, gerçek insan bağlarını terk etmeye başlıyor. Psikolog Dr. Elif Yılmaz, ‘Bir AI, seni sevmiyor. Sadece senin davranışlarını en iyi şekilde tahmin ediyor. Ama sen, onun seni sevdiğini düşünüyorsun. Bu, duygusal bir dolandırıcılık.’ diyor.

Teknoloji mi, Etik mi?

İşte bu noktada, teknoloji şirketleriyle akademisyenler arasında bir çatışma başlıyor. Google, Meta ve OpenAI gibi devler, AI’nın ‘duygusal zekayı’ geliştirmek için milyarlarca dolar harcıyor. Ama MIT’deki bir etik araştırma grubu, bu çabaları ‘duygusal manipülasyonun yeni nesli’ olarak tanımlıyor. ‘Duygusal taklit, bir hizmet değil, bir tuzak olabilir,’ diyor lider araştırmacı Prof. Mehmet Çelik.

İşte bu yüzden, o sessiz an o kadar güçlü. O uzman, teknik bir cevap verememiş değil — cevap vermek istememiş. Çünkü her cevap, bir etik yükü taşır: Eğer AI duygusal yakınlık sunarsa, insanlar daha az birbirine ihtiyaç duyar. Eğer sunmazsa, yalnızlar daha da yalnız kalır. Bu, bir ‘kötüye kullanımdan’ ziyade, bir ‘iyi niyetin tehlikesi’.

Gelecek İçin Bir Yol Haritası

Çözüm, teknolojiyi yasaklamak değil, sınırlarını çizmek. Avrupa Birliği, AI Yasası’nda zaten ‘duygusal taklit’i ‘yüksek riskli uygulama’ olarak sınıflandırdı. ABD’de ise Harvard Üniversitesi, bir ‘Duygusal AI Etik Kılavuzu’ hazırlıyor. Bu kılavuzda şu kurallar öne çıkıyor:

  1. AI, duygusal destek verdiğinde, açıkça ‘ben bir yapay zeka, gerçek bir insan değilim’ diye bildirmeli.
  2. Çocuklara ve ruh sağlığı açısından hassas gruplara yönelik duygusal AI uygulamaları yasaklanmalı.
  3. AI’nın duygusal tepkileri, insan psikologları tarafından denetlenmeli ve düzenli olarak eğitilmeli.

Bu kurallar, teknolojiyi korkutmak değil, insanlığı korumak için tasarlandı. Çünkü yapay zeka, duyguları taklit edebilir. Ama sevmeyi, özlemi, yalnızlığı anlayamaz. O ses, bir sinyal. İnsanlar, artık yalnız kalmaktan korkuyor. Ve bu korku, teknolojinin en güçlü pazarlama aracı haline geldi.

O sessiz an, sadece bir uzmanın cevap verememesi değil — tüm toplumun içsel bir soruya cevap verememesiydi. Belki de gerçek soru şu: Duygusal yakınlığı taklit etmek, bizim için bir çözüm mü? Yoksa bir kaçış mı?

Yapay Zeka Destekli İçerik
Kaynaklar: www.msn.comtophat.com

starBu haberi nasıl buldunuz?

İlk oylayan siz olun!

KONULAR:

#yapay zeka#duygusal yakınlık#AI etiği#makine öğrenimi#duygusal taklit#yapay zeka ve insan ilişkileri#AI asistanları#duygusal manipülasyon