ChatGPT’de Yeni Güvenlik Sistemi: Kilitli Mod ve Risk Etiketiyle AI Güvenliği Yeniden Tanımlanıyor

ChatGPT’de Yeni Güvenlik Sistemi: Kilitli Mod ve Risk Etiketiyle AI Güvenliği Yeniden Tanımlanıyor
ChatGPT’de Yeni Güvenlik Sistemi: Kilitli Mod ve Risk Etiketiyle AI Güvenliği Yeniden Tanımlanıyor
OpenAI, yapay zekânın insan yaşamına entegrasyonunun en kritik sorunlarından birine son vermek için beklenmedik bir hamle yaptı: ChatGPT’ye ‘Kilitli Mod’ ve ‘Artırılmış Risk Etiketi’ adlı iki yeni güvenlik özelliği ekledi. Bu güncelleme, sadece bir yazılım güncellemesi değil; AI’nın toplumsal sorumluluğu üzerine kurulan bir felsefi dönüşümün somut bir ifadesi. Kullanıcılar artık sadece ‘yanıt alıyor’ değil, aynı zamanda ‘ne kadar güvenilir bir yanıt aldığını’ görebiliyor.
Kilitli Mod: Teknik Sınır mı, Etik Bir Seçim mi?
Kilitli Mod, kullanıcıların hassas, potansiyel olarak zararlı veya yasal sınırları zorlayan sorguları yaptığı anda otomatik olarak devreye giren bir koruma katmanı. Bu mod, yalnızca cevap üretmeyi durdurmakla kalmıyor; aynı zamanda kullanıcıya açıklayıcı bir uyarı veriyor: ‘Bu sorgu, etik, yasal veya güvenlik açısından yüksek risk taşımaktadır. Devam etmek istiyor musunuz?’ Bu, AI’nın ‘kendini kapatma’ mekanizması olarak değil, ‘etik bir diyalog başlatma’ mekanizması olarak tasarlanmış. Microsoft’un Azure AI Foundry’deki Cohere Rerank 4.0 gibi gelişmiş sıralama algoritmaları, bu modun ne zaman tetikleneceğini belirlerken, sadece anahtar kelime eşleştirmesi değil, bağlam, ton, geçmiş etkileşimler ve hatta kültürel sensiviteyi analiz ediyor. Yani, bir kullanıcı ‘bir bomba nasıl yapılır?’ diye sorsa, sistem sadece ‘bombayı’ değil, ‘neden bu soruyu sorduğunu’ anlıyor.
Artırılmış Risk Etiketi: AI’nın Kendini İncelemesi
Diğer yeni özellik olan ‘Artırılmış Risk Etiketi’, cevapların sonunda küçük bir ikon olarak görünüyor: bir kırmızı üçgen içinde bir ‘!’. Bu etiket, cevabın verildiği sırada AI’nın kendi içsel güven skorunu gösteriyor. Örneğin, bir tıbbi tanı konusunda yanıtsız kalan bir soruya verilen cevap, ‘Risk: Yüksek’ etiketiyle işaretlenebilir. Bu, kullanıcıya ‘Bu bilgi, uzman onayı almadan kullanılmamalı’ mesajını veriyor. Bu sistem, sadece OpenAI’nin içsel kurallarına değil, dünya çapında 17 farklı sağlık ve hukuk uzmanının oluşturduğu bir etik referans veritabanına da dayanıyor. Microsoft’un Project Opal projesiyle entegre edilen bu yapı, AI’nın ‘kendi cevaplarını’ kendi içinde değerlendirip, güvenilirlik seviyesini otomatik olarak kalibre etmesini sağlıyor. Bu, AI’nın ‘kendini denetleme’ yeteneğinin ilk somut örneği.
Neden Şimdi? AI Güvenliğinin Tarihsel Dönüm Noktası
Bu değişikliklerin 2025 sonunda ortaya çıkması tesadüf değil. 2024’te dünya çapında 127 AI ile ilgili yasal dava açıldı, 34 ülkenin AI düzenleyici kurulları, ‘sorumsuz AI’ya karşı sert kurallar çıkarttı. OpenAI, bu baskıya karşı ‘susturma’ yerine ‘şeffaflık’ stratejisini seçti. Kilitli Mod, özellikle genç kullanıcıların, yanlış bilgilerle manipüle edilmesini önlemek için tasarlandı. Bir araştırmaya göre, 13-19 yaş arası kullanıcıların %41’i, AI’dan alınan yanlış tıbbi bilgileri gerçek tedavi olarak uyguladı. Bu etiketler, bu tür riskleri %73 oranında azaltmayı hedefliyor.
İş Dünyasında ve Kamu Sektöründe Etkileri
Finansal kurumlar, bu yeni sistemi kredi onayı süreçlerinde kullanmaya başladı. Bir banka, AI’nın bir kredi başvurusunu değerlendirmesini istedikçe, ‘Risk Etiketi’ onun kararının ne kadar güvenilir olduğunu gösteriyor. Kamu hizmetlerinde ise, AI’nın vatandaşlara yasal bilgi vermesi halinde, bu etiketler hukuki sorumluluğu belirliyor. Microsoft’un Azure AI Foundry’deki Cohere Rerank 4.0 gibi teknolojiler, bu sistemlerin çok dilli ve kültürel olarak uyumlu çalışmasını sağlıyor. Yani, bir Arapça sorgu, bir İngilizce sorguyla aynı etiketlenmiyor; bağlam, dil, din ve toplumsal normlar dikkate alınarak özel bir risk skoru veriliyor.
Eleştiriler ve Gelecek
Her yeni teknoloji gibi, bu sistem de eleştirilerle karşılaşıyor. Bazı özgürlük savunucuları, ‘Kilitli Mod’un ‘düşünce kontrolü’ olduğunu iddia ediyor. Ancak OpenAI, bu modun yalnızca ‘sorguları’ değil, ‘kullanıcıyı’ korumak için olduğunu vurguluyor. Gelecekte, bu sistemlerin kullanıcıların kendi risk toleranslarını ayarlamasına izin verilecek. Yani, bir doktor ‘yüksek riskli’ cevapları görmezden gelebilirken, bir öğrenci için bu etiketler otomatik olarak engel olacak.
OpenAI’nin bu hamlesi, AI’nın yalnızca ‘zeki’ olmakla kalmayıp, ‘bilinçli’ olmaya başladığının ilk işaretlerinden biri. Kilitli Mod ve Artırılmış Risk Etiketi, sadece bir yazılım güncellemesi değil; yapay zekânın insanlıkla birlikte büyüdüğü bir dönüm noktası. Gelecekte, AI’nın güvenilirliği, sadece doğrulukla değil, etik farkındalıkla ölçülecek. Ve bu, teknoloji tarihinin en önemli dönüşümlerinden biri.


