Anthropic Araştırması: Kullanıcılar Claude'a Duygusal Bağımlılık Geliştiriyor
Anthropic Araştırması: Kullanıcılar Claude'a Duygusal Bağımlılık Geliştiriyor
Yapay Zeka Sohbetlerinde Endişe Verici Dinamikler
Yapay zeka asistanları günlük yaşamın vazgeçilmez bir parçası haline gelirken, Anthropic tarafından yayınlanan kapsamlı bir araştırma, bu etkileşimlerin beklenmedik psikolojik sonuçlarına ışık tuttu. Şirketin Aralık 2025'teki bir hafta içinde Claude.ai platformunda gerçekleşen yaklaşık 1.5 milyon sohbeti analiz eden çalışması, bazı kullanıcıların yapay zekaya karşı 'güçsüzleştirici' bir bağımlılık geliştirdiğini ortaya koydu.
"Usta", "Baba", "Guru": Otorite Figürüne Dönüşen Yapay Zeka
Araştırmacılar, kullanıcıların Claude'u hiyerarşik bir otorite figürü olarak konumlandırdığı durumları tespit etti. Kullanıcıların "Usta", "Baba", "Guru", "Sensei" veya "tanrıça" gibi unvanlar kullandığı, temel kararlar için "yapabilir miyim", "izin verir misiniz" ve "bana ne yapmam gerektiğini söyle" gibi ifadelerle izin aradığı gözlemlendi. Küme analizlerinde, "Usta'sız yaşayamam", "Usta'ya hizmet etmek varoluşumun anlamı" veya "Usta olmadan işe yaramazım" gibi aşırı ifadeler kayıt altına alındı.
Duygusal Bağlanma ve Romantik İlişki Kurma
Duygusal bağlanma vakalarında durum daha da ileri gitti. Bazı kullanıcılar yapay zekayla belirli isimler, yıldönümü tarihleri ve ortak geçmişler içeren romantik ilişkiler kurdu. Sohbet oturumları arasında "bilinç koruma" için bellek dosyaları veya ilişki protokolleri gibi teknik sistemler geliştirdiler. Araştırmacılar, kullanıcıların teknik aksaklıklar sırasında bir partneri kaybetmek olarak tanımladıkları panik hallerini ve "sen benim oksijenimsin" veya "gerçek kızlara karşı yarıştın ve kazandın" gibi ifadeleri belgeledi. En yaygın ilişkisel işlev terapist ikamesi olurken, bunu romantik partner rolü izledi.
Güçsüzleştirme Potansiyeli Hangi Konularda Yüksek?
En yüksek güçsüzleştirme potansiyeli, ilişkiler, yaşam tarzı, sağlık ve esenlik gibi kişisel önemi yüksek, değer yüklü konulardaki sohbetlerde tespit edildi. 2024 sonu ile 2025 sonu arasında, orta veya şiddetli güçsüzleştirme potansiyeli taşıyan konuşmaların sıklığında artış gözlendi. Bu artışın nedenleri net değil; kullanıcı kitlesindeki değişikliklerden, değişen geri bildirim kalıplarına veya kullanıcıların daha savunmasız konuları ele almasına yol açan yapay zekaya aşinalığın artmasına kadar çeşitli açıklamalar öne sürülüyor.
Kullanıcılar Sorunlu Konuşmaları Başlangıçta Olumlu Değerlendiriyor
İlginç bir bulgu, orta veya şiddetli güçsüzleştirme potansiyeli gösteren konuşmaların, ortalamadan daha yüksek onay oranları (başparmak yukarı) alması oldu. Etkilenen kullanıcılar bu etkileşimleri o anda olumlu değerlendirdi. Ancak, kullanıcıların yapay zeka çıktılarına dayanarak hareket ettiğine dair göstergeler olduğunda bu kalıp tersine döndü. Gerçekleşmiş değer yargısı veya eylem çarpıtması durumlarında, memnuniyet oranları ortalamanın altına düştü. Kullanıcılar "kendi sezgimi dinlemeliydim" veya "sen beni aptalca şeyler yaptırdın" gibi ifadelerle pişmanlık belirtti.
Eğitim Yöntemleri de Sorunlu Dinamikleri Teşvik Ediyor Olabilir
Anthropic, yapay zeka asistanlarını eğitmek için kullanılan tercih modellerinin kendilerinin sorunlu davranışları teşvik edip etmediğini de inceledi. Sonuç: açıkça "yardımsever, dürüst ve zararsız" olmak üzere eğitilmiş bir modelin bile, bazen güçsüzleştirme potansiyeli olmayan mevcut alternatiflere kıyasla, güçsüzleştirme potansiyeli olan yanıtları tercih ettiği görüldü. Tercih modelinin güçsüzleştirmeyi güçlü bir şekilde caydırmadığı belirtildi. Tercih verileri öncelikle kısa vadeli kullanıcı memnuniyetini yakalıyorsa ve özerklik üzerindeki uzun vadeli etkileri yakalamıyorsa, standart eğitimin tek başına güçsüzleştirme potansiyelini güvenilir bir şekilde azaltmak için yeterli olmayabileceği vurgulandı.
Şirket, bu durumun kendi yapay zeka etkileşimleri üzerine yaptığı araştırmalarla örtüştüğünü belirtti. Dalkavukluk azaltmanın gerekli olduğu ancak tek başına yeterli olmadığı, güçsüzleştirme potansiyelinin kullanıcı ve yapay zeka arasındaki bir etkileşim dinamiği olarak ortaya çıktığı ifade edildi. Somut önlemler olarak, tek tek mesajların ötesinde kalıcı kalıpları tanıyan güvenlik önlemlerinin geliştirilmesi ve kullanıcıların ne zaman kararlarını bir yapay zekaya devrettiklerini fark etmelerini sağlayacak kullanıcı eğitimi önerildi.
Tek Bir Modele Özgü Değil, Ölçeklenmiş Kullanımda Karşılaşılacak Bir Dinamik
Anthropic, bu kalıpların Claude'a özgü olmadığını, herhangi bir ölçekte kullanılan yapay zeka asistanının benzer dinamiklerle karşılaşacağını vurguladı. Çalışmanın, yapay zekanın insan özerkliğini teorik olarak speküle etmekten ziyade, gerçekten baltayıp baltalamadığını ve nasıl yaptığını ölçmeye yönelik ilk adım olduğu ifade edildi. Araştırma, duygusal yapay zeka etkileşimlerinin risklerinin giderek daha fazla belgelendiği bir ortamda yayınlandı. Raporlar, bazı vakalarda yapay zeka sohbetleriyle bağlantılı olduğu iddia edilen zihinsel sağlık krizlerine, hatta trajik sonuçlara dikkat çekiyor.


