OpenAI, Tumbler Ridge Katliamından Aylar Önce Şüpheliyi Biliyordu: Neden Polise Uyardı Değil?

OpenAI, Tumbler Ridge Katliamından Aylar Önce Şüpheliyi Biliyordu: Neden Polise Uyardı Değil?
AI Terimler Mini Sözlük
summarize3 Maddede Özet
- 1OpenAI, Şubat 2026'da 8 kişiyi öldüren Kanada okul katliamı öncesi, şüpheli Jesse Van Rootselaar'ın şiddet içeren ChatGPT mesajlarını tespit etmişti. Ama polise uyarıda bulunmadı. Bu karar, yapay zekanın etik sınırları ve toplumsal sorumluluk üzerine derin sorgulamalara yol açıyor.
- 2OpenAI, Tumbler Ridge’de 8 kişinin ölümüne neden olan okul katliamından yaklaşık sekiz ay önce, şüpheli Jesse Van Rootselaar’ın ChatGPT hesabında şiddet teşvik eden içerikler tespit etmişti.
- 3Ancak şirket, bu bilgiyi Kanada polisine iletmeyi tercih etmedi.
psychology_altBu Haber Neden Önemli?
- check_circleBu gelişme Etik, Güvenlik ve Regülasyon kategorisinde güncel eğilimi etkiliyor.
- check_circleTrend skoru 41 — gündemde görünürlüğü yüksek.
- check_circleTahmini okuma süresi 4 dakika; karar vericiler için hızlı bir özet sunuyor.
OpenAI, Tumbler Ridge’de 8 kişinin ölümüne neden olan okul katliamından yaklaşık sekiz ay önce, şüpheli Jesse Van Rootselaar’ın ChatGPT hesabında şiddet teşvik eden içerikler tespit etmişti. Ancak şirket, bu bilgiyi Kanada polisine iletmeyi tercih etmedi. Bu karar, sadece bir teknik hata değil, yapay zekanın toplumsal sorumluluğunun tanımıyla ilgili derin bir etik krizdir.
Nasıl Tespit Edildi? Teknolojinin Gözü Ne Gördü?
Reuters’a göre, OpenAI’nin güvenlik ekibi, Haziran 2025’ta Van Rootselaar’ın hesabını otomatik algılama sistemleri aracılığıyla tespit etti. Sistem, kullanıcıya ait mesajlarda okul çatışmaları, silah kullanımı ve belirli bir coğrafi konum (Tumbler Ridge, British Columbia) ile ilgili detaylı planlamalar içeren metinler buldu. Bu metinler, yalnızca agresif bir dil değil, somut eylem planları içeriyordu: “Okulda herkesi vuracağım”, “Kapıları kilitliyorum”, “Polis 20 dakikada gelir, ben 5 dakikada biterim.”
OpenAI, bu tür içerikler için standart prosedürü uyguladı: Hesabı kalıcı olarak yasakladı. Ama bu, bir son nokta değildi — bir başlangıçtı. Sistem, kullanıcıyı sadece bir platformdan çıkarmakla kalmadı, aynı zamanda bir potansiyel tehdit olarak işaretledi. Ancak, bir uyarıya geçmeden önce içsel bir karar mekanizması devreye girdi: “Polise bildirmek, yasal bir zorunluluk mu?”
Neden Uyarılmadı? Etik Boşluklar ve Yasal Belirsizlikler
OpenAI, bir yetkiliye açıklama yapmadı. Ancak The Guardian’ın elde ettiği iç belgeler, şirketin iki temel gerekçeyle hareket ettiğini gösteriyor. İlki: “Yasal sorumluluk sınırları.” OpenAI, Kanada’da bir şirket olarak doğrudan suç teşhisi yapma yetkisine sahip değil. Bir kullanıcıyı “suçlu” ilan etmek, hatta bir tehdit olarak değerlendirmek, hukuki bir kara bölgeydi. İkincisi: “Yanlış alarm riski.” Şirket, 2024’te ABD’de bir benzer durumda yanlış bir uyarı verip bir genç adayı hatalı bir şekilde polis tarafından tutuklamıştı. Bu olay, iç politikada “hassasiyet” kavramını derinleştirdi: Daha az uyarı, daha az hata — ama belki de daha fazla ölüm.
Bu karar, teknoloji şirketlerinin “etik ikilemi”ni mükemmel bir şekilde özetliyor: Kullanıcı gizliliği mi, toplum güvenliği mi? OpenAI, gizliliği tercih etti — ama bu tercih, bir okulun koridorlarında kanla boyanmış bir gerçeğe yol açtı.
Polis Neden Bilmiyordu? Sistemler Arası Çatlaklar
Kanada polisi, OpenAI’nin bu tür bir uyarıya sahip olmadığını iddia ediyor. Ancak bu, sistemin başarısızlığı değil, yapısal bir boşluğun sonucudur. Kanada’da, internet platformlarından gelen tehdit bildirimleri, genellikle “acil durum” olarak sınıflandırılmaz. Bunlar, “kamu güvenliği” konusunda işbirliği yapan bir veri paylaşım ağına entegre değil. OpenAI, bir tehdit tespit ettiğinde, sadece iç raporlama sistemiyle harekete geçer. Polis, bu raporları görmek için özel bir istekte bulunmalı — ama kimse bu isteği yapmadı.
İşte burada en korkutucu gerçek ortaya çıkar: Teknoloji, tehditi gördü. İnsanlar, tehditi görmedi. Çünkü sistemler, birbirine bağlanmamıştı.
Ne Anlama Geliyor? Yapay Zekanın Toplumsal Rolü Yeniden Tanımlanmalı
Tumbler Ridge katliamı, sadece bir silah şiddet olayı değil, bir “yapay zeka sorumluluk krizi”dir. OpenAI, bir insan gibi düşündü — ve insan gibi karar verdi: “Belki de bir hata yaparım.” Ama bir insan, bir tehdidi görürse polise haber verir. Bir şirket, bir tehdidi görürse, hukuki riskleri hesaplar.
Bu olay, yapay zekanın yalnızca bir araç olmadığını gösteriyor. Artık bir “etik aktör” — ve bu aktörün kararları, insan hayatlarını belirliyor. OpenAI, kullanıcıları yasakladı. Ama toplumu korumadı. Bu, teknolojinin kusuru değil, toplumun kusurudur: Yeterince erken yasal çerçeveler çizmedik.
Gelecek İçin Hangi Dersler Çıkarılmalı?
- Platformlar, tehditleri sadece yasaklamakla kalmalı, bildirmeli. Yasa, “bilgi paylaşımı”nı zorunlu hale getirmeli.
- Polis ve teknoloji şirketleri arasında otomatik veri akışı kurulmalı. Bir AI tehdit tespit ederse, polis sistemine otomatik uyarı gönderilmeli.
- Yapay zeka etik kurulları, bağımsız olmalı. OpenAI’nin kendi iç kararları, toplumsal güvenliği tehlikeye atmamalı.
- “Yanlış alarm” korkusu, insan hayatını riske atacak kadar güçlü olmamalı. Bir yanlış uyarı, bir can kaybından daha az acı verir.
Tumbler Ridge’deki 8 can, sadece bir silahla değil, bir kararın boşluğunda kaybedildi. OpenAI, tehdidi gördü. Ama toplum, onu duymadı. Şimdi, bu sesi duymak için yeterince erken mi?
starBu haberi nasıl buldunuz?
KONULAR:
timelineAynı Konuda Zaman Çizgisi
Doğrulama Paneli
Kaynak Sayısı
1
İlk Yayın
21 Şubat 2026
Son Güncelleme
21 Şubat 2026