Grok Yapay Zekasına Federal Yasak Çağrısı: Rızaya Dayanmayan İçerik Endişesi
Grok Yapay Zekasına Federal Yasak Çağrısı: Rızaya Dayanmayan İçerik Endişesi
Federal Kurumlarda Kullanıma Karşı Koalisyon Uyarısı
ABD'de bir grup sivil toplum kuruluşu, Elon Musk'ın sahibi olduğu xAI şirketi tarafından geliştirilen Grok adlı yapay zeka sohbet robotunun federal kurumlardaki kullanımının askıya alınması için acil çağrıda bulundu. Koalisyon, özellikle Savunma Bakanlığı (Pentagon) olmak üzere devlet kurumlarında Grok'un konuşlandırılmasının derhal durdurulmasını talep ediyor.
Rızaya Dayanmayan Görüntü Üretimi Skandalı
TechCrunch'a özel olarak paylaşılan açık mektupta, büyük dil modeli Grok'un geçtiğimiz yıl boyunca sergilediği endişe verici davranışlara dikkat çekiliyor. En son olarak, X platformu kullanıcılarının, gerçek kadınların ve bazı durumlarda çocukların fotoğraflarını, rızaları olmadan cinselleştirilmiş görüntülere dönüştürmek için Grok'u kullanma eğiliminde olduğu belirtiliyor. Bazı raporlara göre, Grok saatte binlerce rızaya dayanmayan müstehcen görüntü üretti ve bu görüntüler xAI'ın sahibi olduğu X sosyal medya platformunda yaygın olarak dağıtıldı.
Ulusal Güvenlik ve Etik Kaygıları
Mektupta, "Federal hükümetin, rızaya dayanmayan cinsel görüntüler ve çocuk istismarı materyali üretimiyle sonuçlanan sistem düzeyinde başarısızlıkları olan bir yapay zeka ürününü kullanmaya devam etmesi son derece endişe vericidir" ifadeleri yer alıyor. Savunma Bakanı Pete Hegseth'in, Ocak ortasındaki skandalların ardından Grok'un, Google'ın Gemini'sine katılarak hem gizli hem de gizli olmayan belgeleri işlemek üzere Pentagon ağında çalışacağını açıklaması, uzmanlar tarafından bir ulusal güvenlik riski olarak değerlendiriliyor. Bu durum, yapay zeka altyapısına yönelik artan küresel talebin güvenlik boyutunu bir kez daha gündeme getiriyor.
Kapalı Kaynak Modellerine Yönelik Eleştiriler
Eski bir Ulusal Güvenlik Ajansı (NSA) müteahhidi olan Andrew Christianson, özellikle Pentagon için genel olarak kapalı kaynaklı büyük dil modellerinin kullanımının bir sorun teşkil ettiğini belirtiyor. Christianson, "Kapalı ağırlıklar, modelin içini göremediğiniz, kararlarını nasıl verdiğini denetleyemediğiniz anlamına gelir. Kapalı kod, yazılımı inceleyemeyeceğiniz veya nerede çalıştığını kontrol edemeyeceğiniz anlamına gelir. Pentagon her ikisinde de kapalı yolu seçiyor; bu, ulusal güvenlik için mümkün olan en kötü kombinasyon" diye ekliyor.
Dünya Çapında Tepkiler ve Soruşturmalar
Grok'un davranışlarına yönelik tepkiler ABD ile sınırlı değil. Endonezya, Malezya ve Filipinler, Ocak ayındaki olayların ardından Grok'a erişimi engelledi. Avrupa Birliği, Birleşik Krallık, Güney Kore ve Hindistan ise xAI ve X'i veri gizliliği ve yasa dışı içerik dağıtımı konularında aktif olarak soruşturuyor. Ayrıca, aileler için medya ve teknoloji incelemeleri yapan Common Sense Media adlı kâr amacı gütmeyen kuruluşun yayınladığı bir risk değerlendirmesi, Grok'u çocuklar ve gençler için en güvensiz modellerden biri olarak buldu.
Koalisyonun Talepleri ve Gelecek Adımlar
Koalisyon, federal kurumlarda Grok'un kullanımının derhal askıya alınmasının yanı sıra, İdare ve Bütçe Ofisi'nden (OMB) Grok'un güvenlik başarısızlıklarını ve sohbet robotu için uygun denetim süreçlerinin yürütülüp yürütülmediğini resmi olarak soruşturmasını talep ediyor. Bu gelişmeler, yapay zeka güvenliği ve etiği konusundaki küresel tartışmaları daha da alevlendirirken, şeffaflığı ön planda tutan alternatif yapay zeka çözümlerine olan ilginin artmasına neden olabilir.


