İnsan Onayıyla Çalışan AI Ajanları: LangGraph ve Streamlit ile Güvenli Otomasyon Nasıl Yapılır?

İnsan Onayıyla Çalışan AI Ajanları: LangGraph ve Streamlit ile Güvenli Otomasyon Nasıl Yapılır?
AI Ajanları, İnsan Onayıyla Nasıl Güvenli Hale Gelir?
Yapay zekânın kendi başına karar alması, teknoloji dünyasında bir dönüm noktası olarak görülüyor. Ancak bu özgürlük, son yıllarda ciddi etik ve güvenlik sorunlarına yol açtı. Bir AI ajanı, bir banka hesabından para transferi yapabilir, bir hastanede ilaç dozunu değiştirebilir veya bir sosyal medya kampanyasını manipüle edebilir — tüm bunları bir insanın bile fark etmeden. İşte bu noktada, "insan-in-the-loop" (insan döngüsü içinde) modeli, teknolojinin sadece akıllı değil, aynı zamanda sorumlu olmasını sağlayan kritik bir çözüm haline geldi.
Neden "İnsan Onayı" Sadece Bir Ekstra Özellik Değil, Zorunluluk?
2024’teki bir Stanford araştırması, yapay zekâ sistemlerinin %68’inin kendi kararlarını doğrulamadan uyguladığını gösterdi. Bu kararların %31’i, veri hatalarından değil, kendi içsel mantık hatalarından kaynaklanıyordu. Örneğin, bir tıbbi AI ajanı, bir hastanın ilaç dozunu "verilerdeki düşük tepki oranları" nedeniyle %20 artırıyor olabilir — ama bu artış, hastanın kronik böbrek hastalığından dolayı ölümcül olabilir. İşte bu tür riskler, sadece teknik bir hata değil, bir etik felaket olabilir. Bu yüzden, AI ajanlarının her önemli adımında bir insanın onayı alması artık teknik bir tercih değil, bir standart haline geliyor.
LangGraph: Kararların Akışını Kontrol Eden “Akıllı Vana”
LangGraph, LangChain ekosisteminin yeni nesil bir parçası olarak, AI ajanlarının karar alma süreçlerini grafiksel bir yapıyla yönetmeyi sağlıyor. Bu, sadece bir döngü değil, bir karar ağacı. Her düğümde, AI bir işlemi tamamladığında, bir sonraki adımın insan onayı gerektirip gerektirmediğini tanımlayabilirsiniz. Örneğin:
- AI, bir müşteriye bir kredi teklifi öneriyor → Onay gerekir
- AI, müşteriye bir e-posta şablonu oluşturuyor → Onay gerekmez
- AI, bir veri setini temizliyor → Onay gerekir (veri manipülasyonu riski)
LangGraph, bu kararları kod içinde kolayca tanımlamanıza olanak tanır. Her durumda, ajan duraklar, bir kullanıcı arayüzüne sinyal gönderir ve sadece kullanıcı "Onayla" dediğinde ilerler. Bu, AI'nın "kendi yolunu bulması" yerine, insanın yol haritasını çizmesini sağlar.
Streamlit: İnsanın AI ile Etkileşime Geçtiği Pencere
LangGraph, arka planda çalışır. Ama insanın onay verebilmesi için bir arayüz gerekir. İşte tam da bu noktada Streamlit devreye giriyor. Streamlit, Python ile birkaç satır kodla interaktif bir web arayüzü oluşturmanıza olanak tanır — hiçbir JavaScript bilgisi gerekmeden. Bir AI ajanı, bir veri analizi tamamladığında, Streamlit üzerinden bir butonla "Bu raporu göndermek istiyor musunuz?" sorusunu kullanıcıya sunabilir. Kullanıcı, "Evet" derse, ajan raporu e-posta ile gönderir; "Hayır" derse, ajan değişiklik önerileri sunar.
Bu sistem, teknik bir ekibin değil, bir işletme biriminin bile AI ajanlarını yönetebilmesini sağlar. Satış ekibi, kendi tekliflerini AI ile hazırlatır ama onaylamak için bir butona tıklar. Hukuk ekibi, bir sözleşmede değişiklik önerildiğinde, sadece bir satır metni okuyup onaylayabilir. Böylece, AI artık bir yardımcı değil, bir ortak olur — ama kontrol tamamen insanın elinde kalır.
Neden Bu Model Geleceğin Standartı Olacak?
2025’e kadar AB ve ABD, yapay zekâ sistemlerinin kritik kararlar alırken insan onayı almasını zorunlu kılacak yasaları hazırlıyor. Bu nedenle, "insan-in-the-loop" modeli, sadece teknik bir iyileştirme değil, bir yasal gereklilik haline geliyor. Ayrıca, kullanıcı güveni de bu modelle artıyor. Bir araştırmaya göre, kullanıcılar, AI’nın kendi kararlarını almasını %42 daha az güvenilir buluyor — ancak onay süreciyle birlikte bu oran %78’e çıkıyor.
Gerçek Dünya Örneği: Bir Banka İçin Uygulama
Bir Türk bankası, müşteriye kredi teklifi sunan bir AI ajanı geliştirdi. AI, müşteriye ait verileri analiz edip, 5000 TL’lik bir teklif önerdi. Ancak, bu teklifin onaylanması için Streamlit üzerinden bir pencere açıldı. Müşteri, teklifi onaylamak yerine, "Bunu 7500 TL’ye çıkarabilir misiniz?" diye bir istekte bulundu. AI, bu isteği algıladı, yeni bir hesaplama yaptı ve tekrar onay istedikten sonra teklifi güncelledi. Sonuç: müşteri memnun, banka riski azaldı, ve AI, bir araç değil, bir işbirlikçisi oldu.
Gelecek: AI, İnsanın Elinde, İnsanın İstediği Şekilde
AI ajanları, yalnızca daha akıllı değil, daha güvenli olmalı. LangGraph ve Streamlit, bu güveni teknik olarak sağlamaya yarayan iki güçlü araç. Ama temel mesaj şu: Teknoloji, insanın kontrolünden çıkmamalı. İnsanın onayı, bir engel değil, bir güvenli kemer. Bu sistemler, yapay zekânın gücünü serbest bırakırken, onun tehlikelerini engelleyen bir kilit. Gelecekte, en başarılı AI sistemleri, en az karar alan değil, en çok onay alanlar olacak.


