
Nasıl çalıştığını bilmediğimiz bir şeyi geliştiriyoruz
“The Urgency of Interpretability” başlıklı makalede Amodei, mevcut yapay zeka modellerinin nasıl karar verdiğini tam olarak anlayamamanın ciddi bir güvenlik riski oluşturduğunu söz ediyor. Amodei, “Bu sistemler iktisat, teknoloji ve ulusal güvenlik için mutlaka merkezi ehemmiyete sahip olacak ve o kadar fazla özerklik kapasitesine sahip olacaklar ki, insanlığın nasıl çalıştıklarından büsbütün habersiz olmasının temelde kabul edilemez olduğunu düşünüyorum” sözleriyle durumu özetliyor.
Anthropic’in kurucularından Chris Olah’ın tabirine nazaran yapay zeka modelleri “inşa edilmekten çok büyütülüyor.” Araştırmacılar zeka düzeylerini artırabiliyor olsa da, bu gelişimin arkasındaki sistemleri şimdi açıklayamıyorlar. Bu da yapay zekanın muhakkak kararları neden aldığı, bir kelimeyi diğer bir söze nazaran neden tercih ettiği ya da ekseriyetle yanlışsız olmasına karşın neden orta sıra yanılgı yaptığı üzere mevzularda önemli bir bilgi boşluğuna işaret ediyor.
Örneğin, yakın geçmişte OpenAI, daha âlâ performans gösteren, fakat tıpkı vakitte öteki modellerine nazaran daha fazla hayal gören o3 ve o4-mini isimli yeni muhakeme modellerini yayınladı. Ayrıyeten firma, bu modellerin neden daha fazla halüsinasyon gördüğü konusunda da bir fikirlerinin olmadığının altını çizdi.
Bu durum aslında bizi korkutmalı. Evvelki haberlerimizle tekrara düşmek istemiyorum lakin Anthropic, yapay zekanın bu “kara kutusu” üzerinde çalışan, spesifik araştırmalar yapan nadide şirketlerden birisi. Birden fazla AI şirketi en azından kamu önünde bu mevzuyu derinlemesine araştırdıklarını söylemiyor bile.
Kısa bir süreç değil

Amodei, bu modellerin nasıl çalıştığını anlamadan AGI’ye (insan düzeyinde yapay zeka, yapay genel zeka) ulaşmanın tehlikeli olabileceğini söylüyor. Ek olarak Amodei’nin uzun vadeli vizyonu ise epey tezli: Yapay zeka modellerine adeta bir “beyin taraması” yapılması. Bu taramalar sayesinde modellerin dürüstlükten sapma eğilimi, güç kazanma isteği üzere tehlikeli eğilimleri evvelce tespit edilebilecek. Bu çeşit gelişmiş tahlil araçlarının geliştirilmesinin beş ila on yıl alabileceği öngörülüyor.
Anthropic’in CEO’su, makalesinde sadece kendi şirketine değil, kesime de bir davette bulunuyor. OpenAI ve Google DeepMind üzere devlerin yorumlanabilirlik araştırmalarına daha fazla kaynak ayırması gerektiğini vurgulayan Amodei, hükümetlere ise regülasyonlarla bu araştırmaları teşvik etme daveti yaptı.
Yapay zeka ve bilhassa derin öğrenme konusundaki çalışmalarla günümüz yapay zekaların doğmasında büyük hisse sahibi olan, bu bahiste Nobel Fizik Ödülü’ni alan Geoffrey Hinton’ın kendisi de 2023’te bu ağların nasıl çalıştığını bilmediğini söylemişti. Aşağıdaki görüntüyü izlemenizi tavsiye ederim.