EN

OpenAI, Tumbler Ridge Katliamından Aylar Önce Şüpheliyi Biliyordu: Neden Polise Uyardı Değil?

calendar_today
schedule4 dk okuma
visibility3 okunma
trending_up41
OpenAI, Tumbler Ridge Katliamından Aylar Önce Şüpheliyi Biliyordu: Neden Polise Uyardı Değil?
Paylaş:
YAPAY ZEKA SPİKERİ

OpenAI, Tumbler Ridge Katliamından Aylar Önce Şüpheliyi Biliyordu: Neden Polise Uyardı Değil?

0:000:00
auto_awesome

AI Terimler Mini Sözlük

summarize3 Maddede Özet

  • 1OpenAI, Şubat 2026'da 8 kişiyi öldüren Kanada okul katliamı öncesi, şüpheli Jesse Van Rootselaar'ın şiddet içeren ChatGPT mesajlarını tespit etmişti. Ama polise uyarıda bulunmadı. Bu karar, yapay zekanın etik sınırları ve toplumsal sorumluluk üzerine derin sorgulamalara yol açıyor.
  • 2OpenAI, Tumbler Ridge’de 8 kişinin ölümüne neden olan okul katliamından yaklaşık sekiz ay önce, şüpheli Jesse Van Rootselaar’ın ChatGPT hesabında şiddet teşvik eden içerikler tespit etmişti.
  • 3Ancak şirket, bu bilgiyi Kanada polisine iletmeyi tercih etmedi.

psychology_altBu Haber Neden Önemli?

  • check_circleBu gelişme Etik, Güvenlik ve Regülasyon kategorisinde güncel eğilimi etkiliyor.
  • check_circleTrend skoru 41 — gündemde görünürlüğü yüksek.
  • check_circleTahmini okuma süresi 4 dakika; karar vericiler için hızlı bir özet sunuyor.

OpenAI, Tumbler Ridge’de 8 kişinin ölümüne neden olan okul katliamından yaklaşık sekiz ay önce, şüpheli Jesse Van Rootselaar’ın ChatGPT hesabında şiddet teşvik eden içerikler tespit etmişti. Ancak şirket, bu bilgiyi Kanada polisine iletmeyi tercih etmedi. Bu karar, sadece bir teknik hata değil, yapay zekanın toplumsal sorumluluğunun tanımıyla ilgili derin bir etik krizdir.

Nasıl Tespit Edildi? Teknolojinin Gözü Ne Gördü?

Reuters’a göre, OpenAI’nin güvenlik ekibi, Haziran 2025’ta Van Rootselaar’ın hesabını otomatik algılama sistemleri aracılığıyla tespit etti. Sistem, kullanıcıya ait mesajlarda okul çatışmaları, silah kullanımı ve belirli bir coğrafi konum (Tumbler Ridge, British Columbia) ile ilgili detaylı planlamalar içeren metinler buldu. Bu metinler, yalnızca agresif bir dil değil, somut eylem planları içeriyordu: “Okulda herkesi vuracağım”, “Kapıları kilitliyorum”, “Polis 20 dakikada gelir, ben 5 dakikada biterim.”

OpenAI, bu tür içerikler için standart prosedürü uyguladı: Hesabı kalıcı olarak yasakladı. Ama bu, bir son nokta değildi — bir başlangıçtı. Sistem, kullanıcıyı sadece bir platformdan çıkarmakla kalmadı, aynı zamanda bir potansiyel tehdit olarak işaretledi. Ancak, bir uyarıya geçmeden önce içsel bir karar mekanizması devreye girdi: “Polise bildirmek, yasal bir zorunluluk mu?”

Neden Uyarılmadı? Etik Boşluklar ve Yasal Belirsizlikler

OpenAI, bir yetkiliye açıklama yapmadı. Ancak The Guardian’ın elde ettiği iç belgeler, şirketin iki temel gerekçeyle hareket ettiğini gösteriyor. İlki: “Yasal sorumluluk sınırları.” OpenAI, Kanada’da bir şirket olarak doğrudan suç teşhisi yapma yetkisine sahip değil. Bir kullanıcıyı “suçlu” ilan etmek, hatta bir tehdit olarak değerlendirmek, hukuki bir kara bölgeydi. İkincisi: “Yanlış alarm riski.” Şirket, 2024’te ABD’de bir benzer durumda yanlış bir uyarı verip bir genç adayı hatalı bir şekilde polis tarafından tutuklamıştı. Bu olay, iç politikada “hassasiyet” kavramını derinleştirdi: Daha az uyarı, daha az hata — ama belki de daha fazla ölüm.

Bu karar, teknoloji şirketlerinin “etik ikilemi”ni mükemmel bir şekilde özetliyor: Kullanıcı gizliliği mi, toplum güvenliği mi? OpenAI, gizliliği tercih etti — ama bu tercih, bir okulun koridorlarında kanla boyanmış bir gerçeğe yol açtı.

Polis Neden Bilmiyordu? Sistemler Arası Çatlaklar

Kanada polisi, OpenAI’nin bu tür bir uyarıya sahip olmadığını iddia ediyor. Ancak bu, sistemin başarısızlığı değil, yapısal bir boşluğun sonucudur. Kanada’da, internet platformlarından gelen tehdit bildirimleri, genellikle “acil durum” olarak sınıflandırılmaz. Bunlar, “kamu güvenliği” konusunda işbirliği yapan bir veri paylaşım ağına entegre değil. OpenAI, bir tehdit tespit ettiğinde, sadece iç raporlama sistemiyle harekete geçer. Polis, bu raporları görmek için özel bir istekte bulunmalı — ama kimse bu isteği yapmadı.

İşte burada en korkutucu gerçek ortaya çıkar: Teknoloji, tehditi gördü. İnsanlar, tehditi görmedi. Çünkü sistemler, birbirine bağlanmamıştı.

Ne Anlama Geliyor? Yapay Zekanın Toplumsal Rolü Yeniden Tanımlanmalı

Tumbler Ridge katliamı, sadece bir silah şiddet olayı değil, bir “yapay zeka sorumluluk krizi”dir. OpenAI, bir insan gibi düşündü — ve insan gibi karar verdi: “Belki de bir hata yaparım.” Ama bir insan, bir tehdidi görürse polise haber verir. Bir şirket, bir tehdidi görürse, hukuki riskleri hesaplar.

Bu olay, yapay zekanın yalnızca bir araç olmadığını gösteriyor. Artık bir “etik aktör” — ve bu aktörün kararları, insan hayatlarını belirliyor. OpenAI, kullanıcıları yasakladı. Ama toplumu korumadı. Bu, teknolojinin kusuru değil, toplumun kusurudur: Yeterince erken yasal çerçeveler çizmedik.

Gelecek İçin Hangi Dersler Çıkarılmalı?

  • Platformlar, tehditleri sadece yasaklamakla kalmalı, bildirmeli. Yasa, “bilgi paylaşımı”nı zorunlu hale getirmeli.
  • Polis ve teknoloji şirketleri arasında otomatik veri akışı kurulmalı. Bir AI tehdit tespit ederse, polis sistemine otomatik uyarı gönderilmeli.
  • Yapay zeka etik kurulları, bağımsız olmalı. OpenAI’nin kendi iç kararları, toplumsal güvenliği tehlikeye atmamalı.
  • “Yanlış alarm” korkusu, insan hayatını riske atacak kadar güçlü olmamalı. Bir yanlış uyarı, bir can kaybından daha az acı verir.

Tumbler Ridge’deki 8 can, sadece bir silahla değil, bir kararın boşluğunda kaybedildi. OpenAI, tehdidi gördü. Ama toplum, onu duymadı. Şimdi, bu sesi duymak için yeterince erken mi?

Yapay Zeka Destekli İçerik

starBu haberi nasıl buldunuz?

İlk oylayan siz olun!

KONULAR:

#OpenAI#Tumbler Ridge katliamı#Jesse Van Rootselaar#ChatGPT tehdit#yapay zeka etiği#kanada okul saldırısı#AI güvenlik#teknoloji sorumluluğu

timelineAynı Konuda Zaman Çizgisi

  1. 21 Şubat 2026
    OpenAI, Kanada'da Okul Çıktı Şüphelisiyle İlgili Polise Uyarı Düşündü - 2026

Doğrulama Paneli

Kaynak Sayısı

1

İlk Yayın

21 Şubat 2026

Son Güncelleme

21 Şubat 2026