EN

ggml ve llama.cpp Hugging Face’e Katıldı: Yerel AI Çalıştırmak artık herkesin elinde

calendar_today
schedule4 dk okuma süresi dk okuma
visibility10 okunma
trending_up30
ggml ve llama.cpp Hugging Face’e Katıldı: Yerel AI Çalıştırmak artık herkesin elinde
Paylaş:
YAPAY ZEKA SPİKERİ

ggml ve llama.cpp Hugging Face’e Katıldı: Yerel AI Çalıştırmak artık herkesin elinde

0:000:00

Yerel AI’nın Yeni Dönemi: ggml ve llama.cpp Hugging Face’e Katıldı

Geçtiğimiz hafta, yapay zeka dünyasında sessiz ama devrimsel bir hareket gerçekleşti: ggml.ai, Hugging Face’in resmi organizasyonları arasında yer aldı. Bu, sadece bir profil eklenmesi değil — AI’nın geleceği için bir coğrafya değişikliği. ggml ve onun en ünlü ürünü llama.cpp, şimdi Hugging Face’in milyonlarca geliştiriciye hizmet veren ekosistemine entegre edildi. Bu entegrasyon, yerel cihazlarda çalıştırılabilen büyük dil modellerini (LLM) kullanmanın kapısını, önceki herhangi bir zamandan çok daha geniş açıyor.

ggml Nedir? Neden Bu Kadar Önemli?

ggml, 2023’te Georgi Gerganov tarafından kurulan bir şirketin geliştirdiği bir tensor kütüphanesidir. Ancak bu bir şirket değil, bir felsefe. Minimalizm, açık kaynak ve sıfır runtime bellek tahsisi — bu üç ilke, ggml’in dünyayı nasıl değiştirdiğini açıklıyor. Gerganov, 2022’de llama.cpp’i geliştirmeye başladığında, bir AI modelini bir laptopta çalıştırmanın mümkün olup olmadığını sormuştu. Cevap: evet. Ve bu cevap, AI dünyasını sarsmıştı.

ggml, NVIDIA’nın CUDA’sı, Apple’ın Metal’i veya Intel’in oneAPI’si gibi özel donanım kütüphanelerine ihtiyaç duymadan, x86, ARM, GPU ve hatta eski laptoplarda bile büyük modelleri çalıştırmayı mümkün kılıyor. Bu, quantization — yani ağırlıkları 4-bit veya hatta 2-bit’e sıkıştırma — sayesinde oluyor. Sonuç? 7B parametreli bir model, 4 GB RAM’le çalışabiliyor. Bu, bir iPhone 14’te, bir Raspberry Pi 5’te veya 2018 model bir Windows laptopunda GPT-3 düzeyinde bir AI çalıştırmak demek.

Hugging Face’in Bu Hamlesi Neden Kritik?

Hugging Face, AI modellerinin merkezi kütüphanesi haline geldi. Burada, herkes — akademisyen, startup, hatta öğrenci — bir model bulup indirebilir. Ancak şimdiye kadar, bu modellerin çoğu bulutta çalışıyordu. Yerel kullanım için, geliştiricilerin kendi sistemlerine llama.cpp’i kurması, kompilasyon yapması, veri setlerini hazırlaması gerekiyordu. Bu süreç, teknik bilgi gerektiriyordu ve çoğu kullanıcıyı dışarıda bırakıyordu.

ggml-org’un Hugging Face’e katılmasıyla, artık bir geliştirici, bir tıkla llama.cpp ile uyumlu bir modeli (örneğin Llama 3, Phi-3, Qwen veya GLM-5) indirip, doğrudan yerel cihazında çalıştırmaya başlayabilir. Hugging Face’in yeni arayüzü, modelin quantization seviyesini, gerekli RAM miktarını ve desteklediği donanımı açıkça gösteriyor. Bu, AI kullanımını demokratize ediyor.

Ne Anlama Geliyor? Yerel AI’nın Sıçraması

  • Veri Gizliliği: Hastane kayıtları, finansal veriler, özel mesajlar — artık buluta yüklenmeyecek. Tüm işlem cihazda kalıyor.
  • Çalışma Hızı: Bulutta 500 ms gecikme olan bir sorgu, yerel bir cihazda 50 ms’ye inebiliyor. Gerçek zamanlı asistanlar, çeviri uygulamaları ve oyunlarda bu fark kritik.
  • Veri ve Enerji Verimliliği: Bulut sunucuları, binlerce AI isteğini işlemek için enerji tüketiyor. Yerel AI, bu yükü dağıtır. Bir Tesla Model 3’ün bataryasıyla bile bir AI modeli çalıştırılabilir hale geldi.
  • Yeni İş Modelleri: Akıllı telefon üreticileri, otomobil firmaları ve IoT cihazları artık AI’yı bulut bağımlılığı olmadan entegre edebilir. Huawei, Xiaomi, veya Samsung’un son modellerinde yerel AI asistanları gelecek.

GLM-5 ve Diğer Modeller: Yerel AI’nın Yeni Sıçraması

DataCamp’ın 2026 Şubat’ta yayınladığı “Run GLM-5 Locally For Agentic Coding” makalesi, bu dönüşümün gerçek dünyadaki etkisini gösteriyor. GLM-5, Zhipu AI tarafından geliştirilen bir model, ancak ggml ile entegre edildiğinde, bir geliştirici, bir Python komutuyla bu modeli kendi bilgisayarında çalıştırmaya başlıyor. Bu model, kod üretimi, hata düzeltme ve otomasyon görevlerinde “agentic” — yani kendi başına karar veren — davranışlar sergiliyor. Artık bir yazılımcı, ChatGPT’ye sormak yerine, kendi cihazında çalışan bir GLM-5 modeline soruyor. Ve bu, hiçbir veri internete çıkmadan oluyor.

Gelecek: AI’nın Merkezi Olan Yer, Artık Cep Telefonunuz

ggml ve Hugging Face’in birleşmesi, AI’nın 2020’lerdeki en büyük dönüşümünü temsil ediyor: Merkezi kontrolden, dağıtılmış akıllılığa. Google, OpenAI, Meta gibi büyük şirketlerin “bulutta kal” stratejisi, artık gerekli değil. Bir öğrenci, bir kırsal doktor, bir küçük yazılımcı — hepsi artık, milyonlarca dolarlık altyapıya ihtiyaç duymadan, dünyanın en güçlü AI modellerini kullanabiliyor.

Bu, sadece teknoloji değil. Bir özgürlük hareketi. AI artık, yalnızca büyük şirketlerin elinde değil — herkesin elinde. Ve bu, geleceğin nasıl şekilleneceğini tamamen değiştirecek.

Gelecek yıl, bir iPhone 17’deki AI asistanı, sadece “sorulara cevap vermek”le kalmayacak. Kod yazacak, raporlar oluşturacak, hastalıkları teşhis edecek ve hatta bir dini metni sizin kültürünüzde yorumlayacak. Ve tüm bu işlemler, internete bağlanmadan, verilerinizle hiç bir şekilde paylaşmadan, sadece cihazınızda gerçekleşecek.

ggml.ai, Hugging Face’e katıldı. Ama aslında, o, tüm dünyayı Hugging Face’e getirdi.

Yapay Zeka Destekli İçerik

starBu haberi nasıl buldunuz?

İlk oylayan siz olun!

KONULAR:

#ggml#llama.cpp#Hugging Face#yerel AI#AI modeli#quantization#Gerganov#LLM#donanım desteği#veri gizliliği