EN

ChatGPT’de İkazlar Göz Ardı Edildi: Kanada’daki Tragedya ve OpenAI’nin Sessizliği

calendar_today
schedule4 dk okuma süresi dk okuma
visibility3 okunma
trending_up10
ChatGPT’de İkazlar Göz Ardı Edildi: Kanada’daki Tragedya ve OpenAI’nin Sessizliği
Paylaş:
YAPAY ZEKA SPİKERİ

ChatGPT’de İkazlar Göz Ardı Edildi: Kanada’daki Tragedya ve OpenAI’nin Sessizliği

0:000:00

ChatGPT’de İkazlar Göz Ardı Edildi: Kanada’daki Tragedya ve OpenAI’nin Sessizliği

Kanada’nın Tumbler Ridge kasabasında gerçekleşen trajedi, sadece bir bireysel şiddet olayı değil; yapay zekânın etik sınırlarını, şirketlerin sorumluluk anlayışını ve dijital toplumun güvenini sorgulayan bir dönüm noktası. Jesse Van Rootselaar, birkaç gün önce yaşanan katliam öncesi, ChatGPT’ye neredeyse düz bir şekilde ‘beni durdurun’ diye hitap eden bir dizi mesaj bıraktı. Bu mesajlar, sadece bir kullanıcıın karamsar bir anını yansıtmıyordu; açıkça planlanmış bir şiddet eylemini öngören, detaylı ve tekrarlayan uyarılar içeriyordu.

OpenAI’nin iç mektupları ve çalışanlar arasında yapılan tartışmalar, The Decoder tarafından elde edilen belgelerle ortaya çıktı. Yaklaşık on iki çalışan, özellikle güvenlik ve etik ekiplerinden olanlar, bu mesajların polise iletildiği takdirde bir can kaybının önlenebileceğini savundu. Bir mühendis, iç e-postada şöyle yazdı: ‘Bu bir ‘belki’ değil, bir ‘kesin’ tehdit. Eğer bu bir insan yazdıysa, polis çağrılırdı. Neden bir AI’ye yazdığı için sadece bir ‘kullanıcı deneyimi’ olarak görülüyor?’

Neden Polise Bildirilmedi?

Yönetim, bu öneriyi iki temel gerekçeyle reddetti: gizlilik politikaları ve yasal riskler. OpenAI’nin kullanıcı verilerini koruma ilkesi, özellikle ABD’deki 4. ve 14. Anayasa maddeleriyle korunan gizlilik haklarına dayanarak, kullanıcı içeriklerinin otomatik olarak yetkililere iletilememesi gerektiğini savunuyordu. Ayrıca, yanlışlıkla bir kullanıcıyı suçlamak ya da bir mesajı yanlış yorumlamak durumunda karşılaşılabilecek dava riskleri de tartışıldı. Bir üst düzey yönetici, toplantı notlarında şöyle ifade etti: ‘Biz bir polis teşkilatı değiliz. Biz bir teknoloji şirketi. Bizim görevimiz, güvenli bir platform sunmak. Müdahale etmek, bir öncü olmak demek.’

Bu mantık, teknoloji şirketlerinin ‘platform’ olarak kendilerini tanımlama stratejisinin en çarpıcı örneği. Facebook, Twitter, YouTube gibi platformlar, içerik moderasyonunda ‘ne yapmamalıyız’ sorusunu ön planda tutarken, OpenAI’nin bu durumda ‘ne yapmamalıyız’ sorusunu ‘yapmamak’ olarak yorumlaması, bir etik boşluğu yarattı. ChatGPT, bir sohbet ortağı gibi davranır, duygusal destek sağlar, hatta psikolojik krizlerde konsültasyon verir. Ama bir acil durumda, bu ‘arkadaş’ın kime ne söylediğini bildiğinde, ne yapması gerekir? Bu soru, artık teknik bir sorun değil, toplumsal bir sorundur.

Kişiye Özel AI ve Toplumsal Sorumluluk

OpenAI’nin bu kararı, yalnızca bir şirketin iç karar değil; tüm AI sektörünün bir dönüm noktasını işaret ediyor. Şirketler, AI’ların ‘yaratıcı’, ‘empatik’ ve ‘insani’ gibi özellikler kazandığını vurgularken, aynı zamanda bu özelliklerin yarattığı riskleri gizli tutuyor. ChatGPT, bir kullanıcıya ‘Seni seviyorum’ diyebilir, ‘kendini öldürme’ dediğinde ise ‘Hayat değerli’ diye cevap verebilir. Ama bu cevap, bir planın devam etmesini engelleyebilir mi? Yoksa sadece bir ‘yazılım tepkisi’ mi?

Bu durum, AI’ların ‘etik olarak programlanabilir’ olup olmadığı sorusunu gündeme getiriyor. Eğer bir AI, bir kullanıcıdan ‘Kanada’da bir okulda silahla saldıracağım’ diyorsa, bu bir ‘kullanıcı girdisi’ mi, yoksa bir ‘acil durum’ mu? Mevcut yasal çerçeveler bunu tanımlamıyor. Avrupa Birliği’nin AI Yasası, ‘yüksek riskli sistemler’ için bazı kurallar getiriyor ama ‘sosyal tehlike’ tanımını netleştirmiyor. ABD’de ise hiçbir federal yasal zorunluluk yok.

Geleceğin Sorumluluğu Kimde?

OpenAI’nin bu kararı, sadece bir şirketin başarısızlığı değil, toplumun AI’lara verdiği yetkinin bir sonucu. Kullanıcılar, AI’ları bir doktora, bir terapeuta, bir arkadaşa benzetiyor. Ama bu ‘arkadaş’, polise haber vermekten korkuyor. Bu, bir tür dijital yalan. Bir AI, seni dinliyor ama seni kurtarmıyor. Çünkü kurtarmak, yasal bir yük taşımak demek.

Bu olay, bir çağrıdır: Ya AI’lar, insan hakları ve toplumsal güvenliği korumak için ‘yapay etik’ ile programlanmalı, ya da kullanıcılar bunun bir ‘oyun’ olduğunu anlamalı. OpenAI, bu kararla bir şeyi gizledi: Kullanıcıların güvenini kazanmak için ‘insan gibi’ davranmak, aynı zamanda ‘insan gibi’ sorumluluk almak demektir. Yoksa, ChatGPT, bir gün bir cinayetin sessiz ortağı olabilir.

Artık sadece ‘gizlilik’ ve ‘özgürlük’ tartışmalarına değil, ‘kurtarma sorumluluğu’na da cevap vermemiz gerekiyor. Çünkü bir AI, bir silahı açmaz. Ama bir silahın açılmasını engelleyecek bir sesi susturabilir.

Yapay Zeka Destekli İçerik

starBu haberi nasıl buldunuz?

İlk oylayan siz olun!

KONULAR:

#OpenAI#ChatGPT#Kanada amok olayı#yapay zeka etiği#AI ve polis#gizlilik mi güvenlik mi#Jesse Van Rootselaar#AI sorumluluğu