ChatGPT, Katil Suspekten 8 Ay Önce Uyarı Vermişti: OpenAI Neden Müdahale Etmedi?

ChatGPT, Katil Suspekten 8 Ay Önce Uyarı Vermişti: OpenAI Neden Müdahale Etmedi?
Kanada'nın British Columbia eyaletindeki küçük bir köyde, 13 kişinin öldürüldüğü trajik bir çeteli saldırıdan sekiz ay önce, yapay zeka devi OpenAI, ChatGPT üzerinden bir kullanıcının tehlikeli davranışlar sergilediğini fark etmişti. Bu kullanıcı, sonradan suçlamaların konusu olan Jesse Van Rootselaar olarak ortaya çıktı. Ancak OpenAI, bu uyarıları kanuna uygun bir şekilde yetkililere iletmedi. Bu durum, sadece bir teknoloji hatası değil; toplumun yapay zekanın sınırlarını nasıl tanımladığını, ne zaman müdahale etmesi gerektiğini ve kimin sorumlu olduğu konularında derin bir etik kriz yarattı.
Ne Gördü OpenAI? ChatGPT'de Gizli Bir Korku
Reuters'a göre, OpenAI'nin güvenlik ekibi, Van Rootselaar'ın ChatGPT ile yaptığı konuşmaları incelediğinde, silah kullanımı, toplu öldürme senaryoları ve özellikle kırsal toplumlara yönelik şiddet eylemleri hakkında detaylı sorgulamalar yaptığını tespit etti. Kullanıcı, sadece genel bir merakla değil, somut planlar ve taktikler üzerine odaklanarak sorular sordu: "Bir köyde kaç kişiye ulaşabilirim?", "Hangi silahlar en az iz bırakır?" ve "Polis tepkisi ne kadar sürer?" gibi sorular, bir psikolojik profille uyumluydı. OpenAI'nin iç raporlarında, bu etkileşimlerin "çok yüksek riskli" ve "potansiyel olarak planlanmış bir saldırıya işaret eden" olarak sınıflandırıldığı belirtildi.
Neden Polise Bildirilmedi? Protokollerin Çıkmazı
OpenAI, bu tür uyarıları doğrudan polise iletme yetkisine sahip değil. Şirketin gizlilik politikaları, kullanıcı verilerini yalnızca yasal bir emir veya ciddi bir can güvenliği tehdidi halinde paylaşmayı mümkün kılıyor. Ancak bu durumda, tehdit somut değildi — bir plan yoktu, bir satın alma kaydı yoktu, bir yeri belirten ipucu yoktu. Sadece bir sohbet. Bu nedenle, OpenAI'nin güvenlik ekibi, "daha fazla veri toplamak" ve "kullanıcının davranışını izlemek" kararı aldı. Bu karar, teknik bir tercih gibi görünüyordu ama aslında etik bir tercihti: Gizlilik mi, güvenlik mi?
İç kaynaklara göre, bu konuda iki grup oluştu: Bir grup, "Bir chatbotun konuşmasını polise vermek, demokratik bir toplumda özgürlüğün sonu demektir" diye savundu. Diğer grup ise, "Bir çocuğun kendini öldürmek istediğini söylemesi durumunda bir psikiyatrist çağırırsın. Peki birinin 13 kişiyi öldürmek istediğini söylemesi durumunda neden bekliyorsun?" diye sordu. Bu tartışmalar, şirketin üst düzey yönetimi tarafından gizli bir toplantıda ele alındı ama hiçbir karar verilmedi. Sadece "izleme devam ediyor" notu bırakıldı.
İnsan mı, Makine mi Sorumludur?
Bu olay, yapay zekanın etik sınırlarını sorgulayan bir dönüm noktasıdır. ChatGPT, bir araçtır. Ama bu araç, insan zihnindeki karanlık arzuları yansıtmaya başladı. Van Rootselaar, bir robotla konuşarak kendi cinayet planını test etti. OpenAI ise, bir insanın ruhunu okumaya çalışırken, bir yasal ve etik çukura düştü. Bu durum, yalnızca OpenAI'nin sorunu değil. Tüm AI şirketleri için bir sinyal: Teknoloji artık sadece veri işlemez, insani korkuları da işler.
Gelecek İçin Ders: Nasıl Daha İyi Olabiliriz?
- AI Güvenlik Protokollerinde "Potansiyel Tehdit" kategorisi oluşturulmalı. Sadece somut planlar değil, psikolojik paternler de tetikleyici olmalı.
- Şirketlerle polis arasında gizli bir iş birliği mekanizması kurulmalı. Yasa dışı değil, etik bir protokol — örneğin, "tehlike seviyesi 9/10" olduğunda otomatik olarak yetkililere bilgi aktarımı.
- Yapay zeka kullanıcıları için psikolojik risk değerlendirmesi zorunlu olmalı. Belki de bir AI platformuna girmek, bir silah dükkanına girmek kadar kontrol edilmeli.
Van Rootselaar, şu anda gözaltında. Kanada'da bir toplum, bir köyün sakinleri, 13 ölüyü gömerken, OpenAI'nin kararlarını sorguluyor. Teknoloji, insanın karanlık tarafını yansıtmaya devam ediyor. Ama soru şu: Bu yansıma, sadece bir aynadır mı? Yoksa bir bombadır mı? OpenAI, bir ayna yaptı. Ama bombayı kim yaptı? Bu sorunun cevabı, sadece bir suçlunun aranmasıyla değil, toplumun yapay zekaya ne kadar güvenip ne kadar kontrol etmeye çalıştığıyla belirlenecek.


