Yapay zekalar akıllandıkça daha fazla palavra söylüyor

Yapay zekalar akıllandıkça daha fazla palavra söylüyor
Yapay zeka dünyası, bir müddettir sessiz sedasız büyüyen lakin artık göz gerisi edilemez hale gelen önemli bir meseleyle karşı karşıya: Halüsinasyonlar. Yani, lisan modellerinin gerçeğe dayanmayan bilgileri inançla sunması. Üstelik bu sorun, modeller daha “akıllı” hayli azalmıyor — tam bilakis, artıyor. Bu sorun, birinci üretken yapay zekalardan bu yana devam ediyor.

Yalanlar artıyor

Yapay zeka için Aşil’in topuğu benzetmesini geçen yıl yapmıştık ve geldiğimiz noktada meseleler küçülmek yerine büyümüş durumda. Hatırlanacağı üzere OpenAI, Anthropic, Google ve DeepSeek üzere teknoloji devlerinin geliştirdiği “akıl yürütme” odaklı yeni kuşak yapay zeka modelleri, daha yanlışsız ve dengeli cevaplar verme teziyle yola çıkmıştı. Lakin gelinen noktada, bu modellerin evvelki sürümlere kıyasla daha fazla yanılgı yaptığı ve bir şeyler uydurduğu görülüyor.

Geçtiğimiz günlerde New York Times tarafından yayımlanan bir rapora nazaran, OpenAI’ın geçtiğimiz ay duyurduğu “o3” ve “o4-mini” isimli yeni modelleri, şirketin iç değerlendirmelerinde birtakım testlerde sırasıyla %33 ve %48 oranında halüsinasyon üretmiş durumda. Bu oranlar, evvelki modellere kıyasla nerdeyse iki katlık bir artışı temsil ediyor. Yani, yapay zeka daha güçlü hale geldikçe, yanlışsız bilgi verme yeteneği artmak yerine azalıyor.

Durum sadece OpenAI ile sonlu değil. Google ve DeepSeek üzere rakip firmaların modelleri de misal sorunu yaşıyor. Çünkü sorun modellerde değil, modellerin nasıl çalıştığında yatıyor. Bu nedenle yapay zeka sanayisinde uzunluk gösteren isimlerden birisi olan Vectara CEO’su Amr Awadallah, ne yaparsak yapalım “Her vakit halüsinasyon görecekler. Bu asla ortadan kalkmayacak” diyor.

Uzmanlara nazaran, bu sorun sadece kullanıcılar için değil, teknolojiye yatırım yapan şirketler için de büyük bir risk oluşturuyor. Yanılgılı karşılıklar sunan bir yapay zeka sistemi, kullanıcı inancını zedelediği üzere, önemli iş kararlarının yanlış verilmesine de yol açabiliyor.

Sentetik bilgilere yönelmek makus bir fikir mi?

Daha evvelki haberlerde de değindiğimiz üzere, yapay zeka firmalarının yeni modellerin eğitiminde kullanacağı gerçek dünya bilgileri geçtiğimiz yıl bitti. Lakin mevcut model inşa süreçlerin daha gelişmiş bir model için daha fazla dataya gereksinim duyuluyor. Yeni datalara ulaşmak için ise sentetik bilgilere, yani yapay zeka tarafından üretilmiş verilere yönelmeye başlanmış durumda. Çünkü yapay bir modelin ürettiği datalarla eğitilen diğer bir model, yanılgıları katlayarak çoğaltabilir. Artışın nedeni bu olabilir.

Sorunun tahlili var mı?

Halüsinasyon problemini çözmeye odaklanan, sırf bu alanda faaliyet gösteren şirketler bile mevcut. Aslında sanayi, bu sorunun varlığını en başından beri biliyordu; lakin tahlil sanıldığı kadar kolay değil. Bir sorunun tahliline ulaşmadan evvel sorunun ne olduğunu anlamak gerekir. Yapay zekalar özelinde bunu yapamıyoruz, zira bu sistemlerin gerçekte nasıl çalıştığını bilmiyoruz.

Dolayısıyla tahlil, göz önüne olan bir şey de olabilir yahut yapay zekaya devrimsel bir yaklaşım getirecek orijinal bir adım da olabilir.

Related Articles