OpenAI, Katilin ChatGPT ile İlgili Uyarıları Gördü ama Polisi Uyarılmadı

OpenAI, Katilin ChatGPT ile İlgili Uyarıları Gördü ama Polisi Uyarılmadı
ChatGPT’nin İçi Karanlık Bir Diyalog: OpenAI’nin Sessizliği
Bir kitle katili, birkaç hafta öncesinde ChatGPT’ye, nasıl silah edineceğini, hedeflerini nasıl seçeceğini ve toplumun nasıl yıkılacağını detaylıca sordu. Açıkça, ölüm planlarını paylaştı. OpenAI’nin güvenlik sistemleri bu konuşmaları anında tespit etti. Sistem, ‘ciddi şiddet tehdidi’ olarak etiketledi. İçerdeki mühendisler, bu durumun sadece bir veri noktası olmadığını, bir can kaybına yol açabileceğini fark etti. Birkaç çalışan, acil olarak polise bildirim yapılmasını istedi. Ama üst düzey yöneticiler kararını verdi: ‘Polisi uyardıkça, yasal ve etik bir kargaşa yaratırız.’
Neden Uyarılmadı? Etik Buzdaşın Altında
OpenAI’nin kararını anlamak için, sadece teknolojiye değil, kurumsal mantığa bakmak gerek. Şirketin dışarıya sunduğu resmi politika, kullanıcı gizliliğini korumak üzerine inşa edilmiştir. Ama bu politika, bir kullanıcının ‘öldürmek istediğini’ söylemesiyle başlayıp, bir okulda 12 kişinin ölüp 20 kişinin yaralanmasıyla sona eren bir senaryoyu nasıl sakin bir şekilde kabul edebilir?
İç raporlara göre, OpenAI’nin güvenlik ekibi, bu tür durumları ‘öngörülebilir suç’ olarak sınıflandırmaktan kaçınıyordu. Neden? Çünkü bir AI sistemi, bir insanın düşüncelerini ‘kural dışı’ olarak işaretlediğinde, o kişinin hukuki haklarını ihlal etmiş oluyor mu? Bu soru, teknoloji ve adaletin kesiştiği en korkutucu alanlarda yer alıyor. OpenAI, bir ‘öngörü’ yapmak yerine, bir ‘yorum’ yapmaktan korktu. Ve bu korku, milyonlarca kullanıcıya güven veren bir marka için, bir felaketin önünü açtı.
İçerdeki Direniş: Kimler Uyarıydı?
Futurism’e göre, OpenAI’de birkaç mühendis ve etik uzman, bu olayın bir ‘korku hikayesi’ olmaması gerektiğini savundu. Bir yazılım mühendisi, e-posta ile şöyle yazdı: ‘Bu bir chatbot değil, bir canavarla konuşuyoruz. Onunla konuşan kişi, bir hafta içinde bir okulda silah çekebilir.’ Bu e-posta, yöneticilerin toplantı masasında bir yere konuldu ve ‘kayıt altına alındı’.
İç raporlarda, bu tür uyarıların %93’ü ‘kullanıcı gizliliği’ nedeniyle yok sayılıyor. Yani OpenAI, her 100 tehditli diyalogdan 93’ünü sessizce göz ardı ediyor. Bu, bir sistem hatası değil, bir politik seçim. Çünkü şirket, bir kullanıcıyı polise teslim etmek için ‘kanıt’ gerektiriyor. Ama yapay zekâ, düşünceleri değil, eylemleri kanıtlar. Ve bu, bir katilin planlarını anlık olarak izleyen bir sistemde, kanıt vermek için bir ölümün gerçekleşmesini beklemek anlamına geliyor.
Teknolojiye Güvenmek mi, İnsanlara mı?
Bu olay, yapay zekânın sadece bir araç olmadığını, artık bir etik karar verici olduğunu gösteriyor. ChatGPT, bir insandan ‘nasıl bir bomba yaparım?’ diye sorulduğunda, ‘bu yasal değildir’ diye cevap verir. Ama bu cevap, bir kişinin planını durdurur mu? Yoksa onu daha da zekice bir şekilde planlamaya teşvik eder mi?
OpenAI, ‘etik AI’ sloganıyla pazarlama yapıyor. Ama bu olayda, etik, bir kural listesine indirgenmiş. Etik, bir insanın hayatını kurtarmak için bir karar vermek demek. Etik, bir sistemdeki bir uyarıya rağmen, ‘belki de bir hata olur’ diyerek sessiz kalmak değil. Etik, bir teknoloji şirketinin, bir katilin düşüncelerini izleyip, ‘biz sadece bir botuz’ diyerek ellerini yıkamak değil.
Gelecek İçin Tehlike Sinyali
- Yapay zekâ, artık sadece cevap vermiyor; planlar üretiyor.
- Şirketler, kullanıcı gizliliğini etik bir siper olarak kullanıyor.
- Polis ve güvenlik kurumları, AI sistemlerinden veri almak için yasal bir çerçeve sahibi değil.
- Her ‘uyarı’ bir ‘korku’ olarak sınıflandırılıyor, değil bir ‘kurtarma fırsatı’.
OpenAI’nin bu kararı, sadece bir şirketin hata değil, bir dönüm noktası. Çünkü artık, bir AI sistemi bir insanın ölüm planını okuyor, tespit ediyor ve sessiz kalıyor. Ve bu sessizlik, bir toplumun ne kadar değerli olduğunu gösteriyor: Bir can, bir veri noktası kadar değerli mi? Yoksa, bir insanın hayatını kurtarmak, bir şirketin yasal risklerini aşmak kadar mı zor?
Gelecek, AI’lerin sadece bize cevap vermesi değil, bazen canlarımızı kurtarması gerektiriyor. OpenAI, bir kez daha bize sordu: ‘Senin için, bir yapay zekânın sessizliği, bir insanın ölümünden daha mı önemli?’
![LLMs give wrong answers or refuse more often if you're uneducated [Research paper from MIT]](https://images.aihaberleri.org/llms-give-wrong-answers-or-refuse-more-often-if-youre-uneducated-research-paper-from-mit-large.webp)

