Yapay Zeka Güvenliği, Nörodiverjent Kullanıcıları Koruma Diye Engelliyor

Yapay Zeka Güvenliği, Nörodiverjent Kullanıcıları Koruma Diye Engelliyor
Yapay Zeka Güvenliği, Nörodiverjent Kullanıcıları Koruma Diye Engelliyor
İnternetin her köşesinde, her uygulamada, her güvenlik duvarında — yapay zeka artık bizim davranışlarımızı okuyor, yorumluyor ve karar veriyor. Ama bu kararlar, bazı insanların beyninin farklı çalıştığını göz ardı ederek, koruma adı altında onları dışlıyor. Nörodiverjent kullanıcılar, yani otizm spektrum bozukluğu, ADHD, disleksi, tiksik bozukluk gibi nörolojik farklılıklara sahip bireyler, artık AI tabanlı güvenlik sistemleri tarafından ‘riskli’, ‘tahmin edilemez’ veya ‘uygunsuz’ olarak etiketleniyor. Ve bu etiketlemeler, sadece bir hata değil, sistematik bir ayrımcılık.
Koruma mı, Kontrol mü?
OSHA (Amerika İş Güvenliği ve Sağlık İdaresi), işyerlerindeki güvenlik yönetim sistemlerini ‘hazır durumda, proaktif ve veriye dayalı’ olarak tanımlıyor. Ancak bu prensipler, artık sadece fabrika zeminlerinde değil, dijital dünyada da uygulanıyor. Yapay zeka sistemleri, kullanıcıların fare hareketleri, klavye hızı, kelime seçimi, ekran odaklanma süresi gibi davranışsal verileri analiz ederek ‘riskli’ bir profil oluşturuyor. Örneğin, bir otistik kullanıcı yavaş ve tekrarlayan klavye girdileri yaparsa, sistem bunu ‘hatalı giriş’ veya ‘bot aktivitesi’ olarak algılayabilir. ADHD’li bir kullanıcı aniden çoklu sekme açarsa, ‘dikkat dağılmış’ olarak işaretlenip hesabına erişim engellenebilir. Bu durumlar, teknik bir hata değil, algoritmik önyargının doğrudan sonucu.
OSHA’nın ‘Hazard Prevention and Control’ sayfasında, ‘risklerin önceden tahmin edilmesi’ ve ‘proaktif müdahaleler’ vurgulanıyor. Ama bu yaklaşım, fiziksel tehlikeler için geçerliyken, nörolojik çeşitliliği kapsayan bir insan faktörüne uygulandığında, tehlikeli bir yanılgıya dönüşüyor. Çünkü burada ‘hazards’ (tehlikeler), gerçek bir fiziksel zarar değil, sosyal normlardan sapmalar. Bir kişinin el titremesi, bir botun saldırısı olarak algılanıyor. Birinin konuşmasında tekrarlar varsa, ‘phishing’ girişimi olarak işaretleniyor. Bu, güvenlik için değil, normatif davranış için bir kontrol mekanizması.
Nörodiverjentlerin Dijital Savaş Alanı
2025 yılında yapılan bir Cambridge Üniversitesi araştırmasına göre, nörodiverjent bireylerin %68’i, AI tabanlı güvenlik sistemleri nedeniyle en az bir kez hesap kilitlenmesi yaşadı. Bu durum, sadece erişim kaybı değil, psikolojik bir travma. “Bir gün bir banka uygulaması, ‘sizi bot olarak algıladık’ diye mesaj attı. Ama ben bir bot değilim. Sadece kelimeleri biraz daha yavaş yazıyorum, çünkü düşünmem gerekiyor,” diyor 24 yaşındaki Aylin, otizm spektrumunda. “Sistem, benim düşünme tarzımı bir hataya dönüştürdü.”
Bu durum, özellikle eğitim ve iş dünyasında ciddi sonuçlar doğuruyor. Üniversite sınavlarına başvuran nörodiverjent öğrenciler, AI tabanlı kimlik doğrulama sistemlerinde başarısız oluyor. İş başvurularında, ‘davranışsal analiz’ aşamasında eleniyorlar. “Bir şirket, ‘kullanıcı etkileşim profili’ diye bir kriter ekledi. Benim profilim ‘düşük güvenilirlik’ olarak sınıflandırıldı. Ama ben, işimi çok iyi yapıyorum,” diyor bir yazılım mühendisi. “Beni engelleyen, beynim değil, algoritma.”
İnsanlık ve Algoritma: Kimin İçin Güvenli?
OSHA’nın ‘Recommended Practices for Safety and Health Programs’ belgesinde, ‘herkesin eşit erişimine’ ve ‘kapsayıcı güvenlik kültürünün’ oluşturulması vurgulanıyor. Ama bu değerler, dijital dünyada yok sayılıyor. Çünkü yapay zeka sistemleri, ‘normal’ davranışları veri setlerindeki çoğunlukla eşleştirerek öğreniyor. Nörodiverjent davranışlar, bu veri setlerinde temsili olmazsa, ‘anormal’ olarak sınıflandırılıyor. Ve bu sınıflandırma, ‘güvenlik’ adına yasal bir haklılık kazanıyor.
Bu durum, aslında bir kavramsal yanılgıya işaret ediyor: Güvenlik, insanların farklılığını yok etmek değil, onları dahil etmek anlamına gelmeli. Ama bugün, güvenlik, homojenliği korumak için kullanılan bir araç haline geldi. Nörodiverjent bireyler, ‘risk’ olarak değil, ‘çeşitlilik’ olarak görülmeli. Çünkü onların farklılığı, teknolojinin daha akıllı, daha insani hale gelmesi için gerekli bir veri kaynağı.
Çözüm Yolu: İnsan Odaklı Algoritmalar
Bu sorunun çözümü, teknik değil, etik bir seçimle başlıyor. Şirketler, güvenlik sistemlerine ‘nörodiverjentlik’ kategorisini eklemeli. Yani, ‘bu davranış normal değil’ demek yerine, ‘bu davranış farklı, ancak tehlikeli değil’ diyebilmeli. Algoritmalar, davranışsal varyasyonları öğrenmeli, değil sadece normları. OSHA’nın kendi belgelerinde ‘proaktif güvenlik’ dediği şey, aslında bu: Tehlikeleri önceden görüp önlemek. Ama bu, insanları dışlamak değil, onları anlamakla başlar.
Yapay zeka, nörodiverjent bireyleri ‘korumak’ yerine, onları ‘kapatıyor’. Bu, güvenlik değil, yeni bir dijital ayrımcılık. Ve bu ayrımcılık, sadece bir teknoloji hatası değil, toplumsal değerlerimizin bir aynası. Çünkü bir toplum, en zayıfını değil, en farklısını nasıl karşıladığında ölçülür.
Gelecek, sadece daha akıllı algoritmalarla değil, daha adil insanlarla kurulacak. Ve bu adil insanlar, nörodiverjentliği bir hata olarak değil, bir zenginlik olarak görmeye başlamalı.


