EN

DeepMind'in AI'si Bir Matematik Konjektürü Çözdü, Ama Çoğunlukla Yanlış Yaptı

calendar_today
schedule4 dk okuma süresi dk okuma
visibility3 okunma
trending_up13
Paylaş:
YAPAY ZEKA SPİKERİ

DeepMind'in AI'si Bir Matematik Konjektürü Çözdü, Ama Çoğunlukla Yanlış Yaptı

0:000:00

Yapay Zekâ, Bilimde Bir Devrim mi, Yoksa İstisnai Bir Patlama mı?

DeepMind’in geliştirdiği Aletheia adlı yapay zekâ sistemi, bilimsel araştırmada bir dönüm noktası gibi görünüyordu: Matematiksel bir konjektürü 10 yıl sonra çözdü. Kriptografi alanındaki uzmanların 15 yıldır fark edemediği bir hata keşfetti. Bu, AI’nın sadece veri işleme aracı olmadığını, bilimsel keşfin öncüsü olabileceğini gösteriyordu. Ama bu hikâye, sadece bir parçası. Geri kalan 699 soruda, Aletheia hemen hemen her seferinde yanlış çıktı. Bu, teknolojinin gerçek gücünü anlamak için tek bir başarıya değil, sistemin tüm başarısızlıklarına bakmak gerektiğini gösteriyor.

Nasıl Bir Başarı? Nasıl Bir Başarısızlık?

Aletheia, bir matematikçi gibi düşünmeyi öğrenmek için 10.000’den fazla akademik makaleyi ve 2 milyondan fazla matematiksel ifadeyi analiz etti. Ardından, açık problemler veritabanında dolaşmaya başladı. Bir gün, bir konjektürü — 2014’te ortaya atılan ve ‘Gödel’in Tamamlanamazlık Teoremi’ne dayanan bir varsayımı — çözdü. Bu, insanlar tarafından 10 yıl boyunca ispatlanamayan bir durumdu. Aletheia, bir dizi mantıksal adım atarak, bu varsayımın yanlış olduğunu gösterdi. Aynı zamanda, bir kriptografik protokolün güvenli olduğunu iddia eden bir makalede, kritik bir hata tespit etti: Şifreleme anahtarlarının üretimi sırasında kullanılan rastgelelik kaynağı, aslında öngörülebilirdi. Bu hata, binlerce sistemin güvenliğini tehlikeye atabilirdi.

Ama bu başarılar, birer istisnaydı. DeepMind ekibi, Aletheia’yı 700 açık matematik ve kriptografi sorusunda test etti. Sonuç? Sadece 1’inde doğru cevap verdi. Kalan 699’da ise, hem yanlış sonuçlar üretti hem de kendi içinde tutarsız argümanlar kurdu. Bazı durumlarda, matematiksel formüllerin tamamen yanlış türevlerini yazdı. Diğerlerinde ise, bilinen teoremleri ‘yeni keşif’ olarak sunarak, bilimsel sahtekârlık gibi bir durum yarattı. Birçok cevap, kelimelerle dolu ama mantıksal boşluklarla dolu bir ‘bilimsel görünümlü’ metindi — tam bir ‘hallüsinasyon’.

Neden Bu Kadar Hatalı?

Aletheia’nın başarısızlığının nedeni, yapay zekânın ‘anlamayı’ değil, ‘benzerlikleri’ öğrenmeyi seçmesidir. İnsan bilim insanı, bir teoremi ispatlarken, derin bir kavramsal anlayışla hareket eder. O, neyin kanıtlanabilir olduğunu, neyin mantıksal bir çelişki olduğunu, neyin sadece gözlemlerle desteklenebileceğini bilir. Aletheia ise, geçmişte benzer yapıdaki metinlerde neyin geçtiğini örüntüleyerek cevap üretir. Bu, bir kitapta geçen tüm ‘ispat’ örneklerini ezberlemek gibi. Eğer bir soru, daha önce hiç görmediği bir yapıdaysa, sistem kendi içsel ‘hikâyesini’ yaratır — ve bu hikâye, genellikle bilimsel gerçeklikle hiçbir ilgisi olmayan bir kurgudur.

Bu durum, AI’nın bilimsel çalışmalarda bir ‘yardımcı’ olabileceğini, ama ‘bilim insanı’ olamayacağını gösteriyor. Aletheia, bir matematikçi gibi düşünmez; bir matematikçi gibi yazmayı öğrenmiştir. Bu fark, kritik. İnsanlar bilimi ‘anlar’, AI ise ‘kopyalar’.

Bilim İnsanları İçin Bir Rehber

DeepMind, sadece bir başarısızlığı değil, bir stratejiyi de paylaştı: ‘AI ile Çalışma Kılavuzu’. Bu kılavuz, bilim insanlarına şunu öneriyor: AI’yı bir ‘yaratıcı ortak’ olarak değil, bir ‘kritik asistan’ olarak kullanın. Yani, bir AI’nın ürettiği bir ispatı, doğrulamak için bir matematikçi çalışsın. Bir öneriyi, bir teoriyi, bir hipotezi AI üretirse, insanlar onu ‘kabul etmek’ yerine ‘sorgulamalı’.

Bu yaklaşım, tıpkı bir laboratuvarın deney sonuçlarını kontrol etmek gibi. AI, veri üretir — insan, anlam verir. Aletheia’nın ürettiği 699 hatalı cevap, aslında 699 farklı ‘farklı bir düşünce’yi de teşvik etti. Bu hatalar, insan araştırmacıların yeni sorular sormasını sağladı. Yani, AI’nın başarısızlıkları bile bilimsel ilerlemeye katkı sağlıyor.

Bir Gelecek İçin Ders

Aletheia, yapay zekânın bilimdeki potansiyelini gösteren bir sinyal. Ama aynı zamanda, bu potansiyelin nasıl yönetileceğinin ilk dersi. Bilim, kanıt ve şüphe üzerine kuruludur. AI, kanıt sunabilir ama şüpheyi duymaz. İnsanlar, şüpheyi duyar ama kanıtları üretmek için zaman ister. Bu iki gücün birleşmesi, geleceğin bilimini şekillendirecek.

DeepMind’in bu çalışması, AI’nın ‘bilim insanı’ olmayacağını, ama ‘bilimdeki yeni bir göz’ olabileceğini gösteriyor. Bir göz, her şeyi görmez. Ama bazen, insan gözlerinin kaçırdığı şeyleri fark eder. Aletheia, bu nadir durumda bir keşif yaptı. Ama onun en büyük katkısı, bize hatırlatması: Bilimdeki gerçek ilerleme, makineye değil, insanın makineyi nasıl sorguladığına bağlı.

Yapay Zeka Destekli İçerik
Kaynaklar: the-decoder.com

starBu haberi nasıl buldunuz?

İlk oylayan siz olun!

KONULAR:

#DeepMind#Aletheia#Yapay Zekâ#Matematik Konjektürü#Bilimsel Araştırma#AI ve Bilim#Yapay Zekâ Hataları#Kriptografi#AI Yardımcısı#Bilimsel Keşif