Araştırma makalesine göre, 13 milyar parametreyle çalışan bir yapay zeka modeli olan Orca, GPT-4 gibi büyük dil modellerini taklit edip onlardan öğrenebiliyor. Orca, bir trilyondan fazla parametreye sahip olduğu söylenen GPT-4’ün yardımıyla açıklamaları, adım adım düşünce süreçlerini ve diğer karmaşık talimatları öğrenebiliyor.
Orca, daha küçük bir model olmasına rağmen Big-Bench Hard (BBH) gibi karmaşık muhakeme ölçütlerinde ChatGPT ile aynı seviyede bulunuyor. Ayrıca, GPT-4’ün gerisinde kalmasına rağmen SAT, LSAT, GRE ve GMAT gibi akademik sınavlarda rekabetçi bir performans sergiliyor. Orca gibi yapay zeka modelleri daha az boyutla daha büyük işler yaptıkça bu tip araçlar daha özel kullanımlara doğru kayacaktır. Esasında Orca, kullandığımız telefonlarda yerel olarak çalışan yapay zekalar için atılmış önemli bir adım.
Bir yanıt bırakın