Anthropic, İki Yılda Yapay Zekanın Kara Kutusunu Aydınlatacak

Nasıl çalıştığını bilmediğimiz bir şeyi geliştiriyoruz
“The Urgency of Interpretability” başlıklı yazısında Amodei, mevcut yapay zeka modellerinin nasıl karar verdiğini anlamamanın ciddi güvenlik riskleri taşıdığını belirtiyor. Amodei, “Bu sistemler, ekonomi, teknoloji ve ulusal güvenlik açısından merkezi öneme sahip olacak. O kadar fazla özerklik kazanacaklar ki, insanlığın nasıl çalıştıklarından tamamen habersiz olması kabul edilemez” ifadeleriyle durumu özetliyor.
Anthropic’in kurucu ortağı Chris Olah’a göre, yapay zeka modelleri “inşa edilmek yerine büyütülüyor.” Araştırmacılar zeka seviyelerini artırabiliyor, ancak bu ilerlemenin ardındaki mekanizmaları henüz açıklayamıyorlar. Bu durum, yapay zekanın belirli kararları neden aldığına dair önemli bir bilgi eksikliği olduğu anlamına geliyor.
Örneğin, yakın dönemde OpenAI, daha iyi performans sergileyen ama diğer modellere göre daha fazla hayal gören o3 ve o4-mini adlı yeni mutakeme modellerini tanıttı. Ayrıca, bu modellerin neden daha fazla halüsinasyon gördüğüne dair bir açıklamaları olmadığını belirttiler.
Bu durum bizi düşündürmelidir. Daha önce belirttiğimiz gibi, Anthropic bu “kara kutu” üzerinde çalışan ve spesifik araştırmalar yapan ender şirketlerden biridir. Çoğu AI firması, bu meselenin derinlemesine araştırıldığını bile kamuya açık bir şekilde ifade etmiyor.
Kısa bir süreç değil

Amodei, bu modellerin çalışma biçimlerini anlamadan AGI’ye (insan seviyesinde yapay zeka, yapay genel zeka) ulaşmanın tehlikeli olabileceğini savunuyor. Ayrıca, Amodei’nin uzun vadeli hedefi oldukça iddialı: yapay zeka modellerine bir “beyin taraması” yapılması. Bu taramalar sayesinde, modellerin dürüstlükten sapma eğilimi veya güç kazanma isteği gibi tehlikeli yönelimleri önceden tespit edilebilecek. Bu tür gelişmiş araçların geliştirilmesinin beş ila on yıl alabileceği öngörülüyor.
Anthropic’in CEO’su, makalesinde yalnızca kendi şirketine değil, sektöre de bir çağrıda bulunuyor. OpenAI ve Google DeepMind gibi devlerin yorumlanabilirlik araştırmalarına daha fazla kaynak ayırması gerektiğini vurgulayan Amodei, hükümetlere de bu çalışmaları teşvik etmesi için regülasyonlar getirmesi gerektiğini belirtti.
Yapay zeka ve özellikle derin öğrenme alanındaki çalışmalar, günümüz yapay zekalarının gelişiminde büyük rol oynamış ve bu konuda Nobel Fizik Ödülü kazanmış olan Geoffrey Hinton, 2023 yılında bu ağların nasıl çalıştığını bilmediğini açıklamıştı. Aşağıdaki videoyu izlemenizi öneririm.