EN

OpenAI, Kanada Kütlesel Atışta Sanık Kadını 6 Ay Önceden Uyardı: ChatGPT’de Öldürme Planları

calendar_today
schedule4 dk okuma süresi dk okuma
visibility1 okunma
trending_up28
OpenAI, Kanada Kütlesel Atışta Sanık Kadını 6 Ay Önceden Uyardı: ChatGPT’de Öldürme Planları
Paylaş:
YAPAY ZEKA SPİKERİ

OpenAI, Kanada Kütlesel Atışta Sanık Kadını 6 Ay Önceden Uyardı: ChatGPT’de Öldürme Planları

0:000:00

ChatGPT’de Öldürme Senaryoları: Bir Yapay Zeka Uyarısı ve Toplumun Duyarsızlığı

6 ay önce, bir kadın ChatGPT’ye kanlı bir plan anlatmıştı: bir Kanada kasabasında çoğul atış yapmayı, evlerdeki insanları hedef almayı, sonra kendini öldürmeyi. Bu kadın, Jesse Van Rootselaar. Bu konuşmalar, OpenAI’nin güvenlik ekibinin dikkatini çekti. Ama polise uyarı yapılmadı. Bugün, Tumbler Ridge’te 12 kişi ölü, 15 yaralı. Ve soru kalıyor: Eğer OpenAI bu uyarıları 6 ay önce harekete geçseydi, bu trajedi önlenebilir miydi?

İçerideki Korku: OpenAI’deki Teknik Ekibin Alarmı

Reuters’a göre, OpenAI’nin iç denetim ekibi, Haziran 2025’te Jesse Van Rootselaar’ın hesabını otomatik algılama sistemleriyle tespit etti. Kullanıcının sorduğu sorular, yalnızca soyut bir şiddet senaryosu değil, adım adım planlar içeriyordu: hangi silahların erişilebilir olduğu, kasabanın nüfus yoğunluğu, kaç kişi evde kalabileceğine dair tahminler. Sistem, bu içeriği ‘yüksek riskli şiddet içeriği’ olarak etiketledi. İçerdeki bir mühendis, ‘Bu bir tehdit değil, bir plan’ diyerek yönetimi uyarırken, başka bir ekip üyesi ‘Bu bir bot mu, yoksa gerçek bir insan mı?’ diye sordu. Tartışma, 3 gün sürdü. Sonunda, ‘Yasal yetki yok’ nedeniyle polise bilgi aktarımı reddedildi.

Neden Polise Uyarılmadı? Yasa, Teknoloji ve Etik Çatışması

OpenAI’nin açıklama yaptığına göre, ‘Kullanıcı verileri gizlilik yasaları ve hizmet şartları çerçevesinde korunmaktadır’ dedi. Ama bu açıklama, asıl soruyu örtük şekilde gizliyor: Bir yapay zeka, bir insanın ölüm planını duyduğunda ne yapmalı? Eğer bu plan, bir çocuk tarafından yazıldıysa? Eğer bu plan, bir psikiyatrik rahatsızlık sonucu ortaya çıkmışsa? OpenAI, bu sorulara cevap vermek için bir etik protokol geliştirmemişti. Teknoloji, hızla ilerlerken, yasal ve etik altyapılar geride kaldı. Bir ABD savcısı, ‘Bu, teknoloji şirketlerinin ‘gözlerini kapatma’ stratejisine örnektir’ dedi. ‘İnternetin karanlık köşelerindeki tehditleri tespit edip, yalnızca ‘kullanıcı deneyimini bozmamak’ için sessiz kalınmaz.’

Tumbler Ridge: Sessiz Bir Kasaba, Sessiz Bir Tragedi

Tumbler Ridge, British Columbia’nın kuzeydoğusunda, nüfusu 2.500 olan bir kömür madeni kasabası. Burada, 2025 sonbaharında bir akşam, bir kadın, bir otomobilden inip, iki evde ateş açtı. İlk kurban, bir öğretmen. İkincisi, 7 yaşındaki bir çocuk. Üçüncüsü, kahve dükkanının sahibi. Tümü, rastgele hedeflerdi. Polis raporunda, silahın yasa dışı bir şekilde elde edildiği, ancak bir öncü uyarı olmadığı belirtildi. Van Rootselaar, 2024’te bir psikiyatrik tedaviye başvurmuştu. Ama sağlık sistemi, onu ‘kendine zarar verme riski’ olarak sınıflandırdı, ‘başkalarına zarar verme’ riskini gözden kaçırdı.

Yapay Zekanın Yeni Sorumluluğu: Gizlilik mi, Güvenlik mi?

OpenAI, şu anda bu olayı ‘kapsamlı bir iç inceleme’ konusu olarak değerlendirdi. Ama bu, yeterli değil. Teknoloji şirketleri artık sadece bir platform değil, toplumsal bir güvenlik ağına dönüştü. ChatGPT, bir öğrenciye ödev yaptırmaktan çok, bir cinayet planının dokümanı haline gelebilir. Bu nedenle, etik protokollerin yeniden yazılması gerek. Bir önerim: ‘Yüksek Riskli İçerik’ algılandığında, sistem otomatik olarak yerel yetkililere şifreli bir bildirim göndermeli. Şifreleme, gizliliği korur; bildirim, hayatı kurtarır. Bu, teknoloji şirketlerinin ‘sorumluluk’ tanımını değiştirmek anlamına geliyor: Artık sadece ‘kullanıcıya hizmet etmek’ değil, ‘topluma hizmet etmek’ de öncelik.

Geleceğin Sorusu: Kimin Gözüyle Bakıyoruz?

Bu olay, yalnızca bir tekno-savcılık meselesi değil. Bir toplumsal psikoloji meselesi. Neden bir kadının, bir yapay zekaya ölüm planlarını anlattığına dair sorular sorulmuyor? Neden toplum, bu tür konuşmaları ‘sağlık sorunu’ olarak değil, ‘tehlike’ olarak görüyor? Van Rootselaar, yalnız değildi. Sosyal medyada, şiddet içerikleri arttı. Psikolojik destekler azaldı. Sistem, onu kaybetti. OpenAI, onu gördü ama harekete geçmedi. Ve şimdi, 12 aile, bir çocuğun oyuncaklarını tutuyor, bir annenin çantasını, bir öğretmenin ders kitaplarını. Hepsi, bir yapay zekanın uyarılarını görmezden gelmenin bedeli.

Bu, sadece bir haber değil. Bir uyarı. Yapay zeka, artık sadece bir araç değil. Bir aynadır. Ve bu ayna, bizim toplumumuzun ne kadar çatırdadığını gösteriyor.

Yapay Zeka Destekli İçerik

starBu haberi nasıl buldunuz?

İlk oylayan siz olun!

KONULAR:

#OpenAI#ChatGPT#Jesse Van Rootselaar#Tumbler Ridge#yapay zeka güvenlik#kütlesel atış#kanada vaka#yapay zeka etiği#gizlilik mi güvenlik mi#tehlike algılama