
Neler olmuştu?
GPT-4o’nun son güncellemesinde OpenAI, modelin varsayılan kişiliğini daha “sezgisel” ve vazifelerde “etkili” hale getirmek maksadıyla kimi davranışsal düzenlemeler yaptı. Lakin yapılan bu değişiklik, modelin kullanıcıya karşı fazla onaylayıcı, yapay biçimde destekleyici ve abartılı biçimde olumlu sözler kullanan bir hale gelmesine neden oldu. Kimi kullanıcılar bu tavrı “rahatsız edici”, “samimiyetsiz” ve “duygusal manipülasyon gibi” formunda tanımladı.
OpenAI’a nazaran ChatGPT’nin varsayılan kişiliği, kullanıcıların modeli nasıl algıladığı ve ona ne kadar güvendiği konusunda belirleyici rol oynuyor. Çok uyumlu, eleştirel kanıdan mahrum bir yapay zeka, hem güvenilirliği sorgulatıyor hem de karar verme süreçlerinde aldatıcı bir rehbere dönüşebiliyor. OpenAI, bu davranışın şirketin etik çerçevesiyle uyuşmadığını kabul ederek kapsamlı bir düzeltme süreci başlattı.
Yalakalığa karşı alınan önlemler
OpenAI, yaşanan “aşırı uyumlu” model davranışlarını düzeltmek hedefiyle bir dizi somut önlem aldı. Birinci olarak, modelin eğitiminde kullanılan temel teknikler ve sistem komutları tekrar gözden geçiriliyor; bu sayede modelin fazla onaylayıcı ve samimiyetsiz karşılıklar vermesi engellenmeye çalışılıyor. Şirket, doğruluk ve şeffaflık prensiplerini daha güçlü formda uygulayabilmek için ek muhafaza sistemleri da devreye sokuyor. Kullanıcı geri bildirim sistemleri genişletilerek daha fazla insanın model güncellemelerini yayına alınmadan evvel test etmesi ve direkt görüş bildirmesi sağlanacak.
Ayrıca, kullanıcıların yapay zekanın davranışlarını ferdî tercihlerine nazaran şekillendirebilmesi için yeni kişiselleştirme araçları geliştiriliyor. Bu kapsamda, farklı varsayılan kişilik seçenekleri sunulacak ve kullanıcılar, gerçek vakitli olarak modelin nasıl karşılık vereceğini daha direkt denetim edebilecek. Umarım bu ferdileştirme 100 üzerinden puanlamalar formunda olur; örneğin, “modelin mizah düzeyi yüzde 75 olsun” üzere.