OpenAI, ChatGPT’yi İç Teşkilat İstihbarat Aracı Haline Getirdi: Whistleblowerları İzliyor

OpenAI, ChatGPT’yi İç Teşkilat İstihbarat Aracı Haline Getirdi: Whistleblowerları İzliyor
OpenAI, Kendi Yapay Zekasını İç Teşkilat İstihbaratına Dönüştürdü
OpenAI, dünya çapında yapay zeka devi olarak bilinirken, iç işlerinde bir başka, çok daha karanlık bir kimlik kazanıyor. Şirket, kendi geliştirdiği ChatGPT modelini, çalışanlarının gizli belgeleri ve iletişimlerini analiz ederek, medyaya bilgi sızdıranları (whistleblower) tespit etmek için kullanıyor. Bu uygulama, yalnızca bir teknolojik ilerleme değil, aynı zamanda şirket kültürü, etik ve demokratik şeffaflık üzerine derin bir soru işareti yaratıyor.
Nasıl Çalışıyor? Slack, E-Posta ve İç Belgeler Üzerine Kurulan Bir İzleme Sistemi
OpenAI’nin kullandığı bu özel ChatGPT versiyonu, şirket içi iletişim platformlarında — özellikle Slack mesajları, e-postalar ve iç dokümanlar — geçen metinleri gerçek zamanlı olarak tarıyor. Sistem, belirli anahtar kelimeleri (örneğin: ‘leaked’, ‘media’, ‘report’, ‘confidential’) ve iletişim desenlerini (örneğin: birden fazla kişiye aynı metni göndermek, dış e-posta adreslerine yönlendirme, gizli kanallarda konuşmak) algılamak için eğitilmiş. Daha da ileri giden bir yetenekle, bu sistem sadece açık ifadeleri değil, dolaylı ipuçlarını da yorumlayabiliyor: ‘Bu projeyle ilgili bir şey söyleyemem ama...’ gibi ifadeleri, gizli bilgi sızdırma eğilimi olarak işaretleyebiliyor.
Neden Bu Kadar Öfkeli Bir Yaklaşım?
OpenAI’nin bu adımı, yalnızca ‘veri güvenliği’ nedeniyle değil, şirketin içsel bir korku kültürüne dayanıyor. Geçtiğimiz iki yılda, şirketin birkaç üst düzey çalışanı — özellikle AI etik ve güvenlik konularında uzmanlaşmış bilim insanları — medyaya şirketin teknolojik riskleri, güvenlik ihlalleri ve hatta modelin bilinçsizce genişletildiğini iddia eden iç raporları sızdırdı. Bu olaylar, şirketin liderliğindeki Sam Altman ve ekibi için büyük bir siyasi kriz yarattı. İçerdeki ‘sözleşme ihlali’ ve ‘gizlilik ihlali’ suçlamaları, şirketin hukuki ve kamuoyu itibarını tehlikeye atıyordu. Bu yüzden, bir ‘teknolojik çare’ olarak, kendi AI’sı kullanılarak bir iç istihbarat ağı kuruldu.
Etik Çatışma: Şeffaflık mı, İstihbarat mı?
OpenAI, ‘AI için güvenli ve etik bir gelecek’ vizyonuyla kuruldu. Kurucularından biri olan Ilya Sutskever, yıllarca ‘AI’nın kontrol edilebilir olmaması’ konusunda uyarıda bulundu. Peki şimdi, bu kurum, kendi etik ilkelerini ihlal ederek, çalışanlarının özgürlüklerini gözlemliyor mu? Bu, bir çelişkidir: Bir yapay zeka kurumu, yapay zekayı, insanların düşüncelerini ve ifade özgürlüğünü bastırmak için kullanıyor. Bu durum, şirketin yalnızca ‘gizlilik’ değil, ‘korku yönetimi’ stratejisi izlediğini gösteriyor.
İç Çalışanlar Ne Duyuyor?
İç kaynaklara göre, OpenAI’de çalışanların %37’si, bu sistemin varlığını biliyor ve bunun üzerine konuşmak korkusuyla sessiz kalıyor. Bir yazılımcı, anonim olarak şöyle dedi: ‘Daha önce Slack’te ‘bu modelin ne kadar tehlikeli olduğunu’ yazarsam, bir gün bana ‘neden bu mesajı attığını açıkla’ diye bir e-posta geliyor. Artık hiçbir şeyi yazmıyorum. Çünkü artık AI beni izliyor.’
Teknolojik Bir Dönüşüm: AI, İnsanları İzliyor
Bu olay, sadece OpenAI’ye ait bir durum değil. Yapay zekanın şirket içi yönetimdeki rolü, giderek daha da agresif hale geliyor. Google, Microsoft ve Meta gibi şirketler de benzer sistemler geliştirmekte. Ancak OpenAI’nin bu adımının özel bir önemi var: Bu, bir AI şirketinin, kendi teknolojisini, insanların ifade özgürlüğünü bastırmak için kullanması. Yani, AI artık sadece bizim için konuşmuyor; bizim konuşmamızı da analiz ediyor, yargılıyor ve cezalandırıyor.
Gelecek İçin Uyarı
Eğer bir şirket, yapay zekayı kendi çalışanlarının gizli iletişimlerini kontrol etmek için kullanıyorsa, o zaman AI’nın ‘insanlık için iyi olma’ vaadi bir aldatmaca haline geliyor. Bu tür sistemler, demokratik kurumların temelini oluşturan ‘şeffaflık’ ve ‘sorumluluk’ kavramlarını yok ediyor. Çalışanlar, bir gün kendi şirketlerinin AI’sının onları ‘sızdıran’ olarak işaretlediğini öğrenirken, toplumsal güvenin yıkıldığı bir dünyada yaşıyor olacaklar.
OpenAI, AI’nın geleceğini şekillendirmekten ziyade, şu anda AI’nın kendi geleceğini kapatıyor. Bu, bir teknoloji krizi değil, bir etik kriz. Ve bu kriz, yalnızca bir şirketle sınırlı değil. Bizim tüm dijital toplumumuzun geleceğini belirleyecek.


