Haziran ayında iPhone’lara getireceği yapay zeka özelliklerini açıklayacak olan Apple, bu konuda hamleler yapmaya devam ediyor. Apple’ın araştırmacıları, son aylarda birden fazla farklı türden yapay zekâ modelleri yayımlamıştı. Bunlara bir yenisi daha eklendi.
Araştırmacılar, “OpenELM” ismini verdikleri dil modellerini Hugging Face Hub üzerinden yayımladı. Bu modeller, üretken yapay zekânın cihazlarda nasıl kullanılacağı konusunda bizlere fikir veriyor.
Modeller, yapay zekânın bulut üzerinden değil de direkt cihazdan çalışmasını sağlıyor
Açılımı “Açık Kaynaklı Verimli Dil Modelleri” olan bu modeller, e-posta yazma gibi metin odaklı görevlerde “çok verimli” olarak nitelendirilmişler. Ayrıca açık kaynaklılar ve herhangi bir geliştirici tarafından kullanılabiliyorlar.
OpenELM modelleri, dört farklı boyuta sahipler ve gerçekten “küçük dil modeli” olarak sınıflandırılabilecek seviyedeler. Öyle ki boyutları sırasıyla 270 milyon parametre, 450 milyon parametre, 1,1 milyar parametre ve 3 milyar parametre. Parametreler, modellerin karar verme aşamasında eğitim veri kümelerinden kaç değişkeni anlayabildiği gösteriyor.
Küçüklüğünü anlamanız için örnek verelim. Microsoft, geçtiğimiz günlerde “en küçük yapay zekâ modelim” dediği Phi-3’ü tanıtmıştı. O modelin boyutu 3,8 milyar parametreydi. Apple’ınkiler ise 270 milyona kadar iniyor. Bu kadar küçük olmalarının anlamı ne peki? Daha az maliyetli olmaları ve telefonlar, dizüstü bilgisayarlar gibi cihazlarda çalışacak şekilde optimize edilebilmeleri.
Yani iPhone’larda yapay zekânın nasıl çalışacağı hakkında ipucu sağlıyor bu modeller. Yerleşik olarak kullanılabilmeleri, bulut ihtiyacını ortadan kaldırıyor. Apple’ın cihaz içi yapay zekâ konusunda hamlelerini artırdığını görmüştük. Birkaç gün önce Bloomberg’den Mark Gurman, buluta ek olarak tamamen cihaz üzerinde çalışan özellikler de geliştirdiğini belirtmişti. Bu modeller de bu iddiayı destekler nitelikte.