Apple har introducerat en ny avancerad språkmodell, OpenELM, som rapporteras vara 2,36 procent mer exakt än den tidigare modellen OLMo, och detta trots att den använder endast hälften så många träningstokens. OpenELM är designad för att överträffa flera andra ledande språkmodeller som tränats på publika data. Apple har dessutom gjort modellens tränings- och utvärderingsverktyg tillgängliga för allmänheten.
OpenELM, som kan hantera instruktioner från användare och generera respons, finns i olika versioner, med storlekar från 270 miljoner till 3 miljarder parametrar. Modellen inkluderar även programvara för att konvertera till MLX-ramverket för inferens och anpassning direkt på Apple-enheter.
Enligt tekniksajten The Register är OpenELM inte bara mer exakt än OLMo, utan också mer effektiv i användningen av resurser. Dock noteras det att Apple inte har gjort OpenELM tillgänglig som öppen källkod, vilket begränsar andra utvecklares möjlighet att fritt använda och modifiera programvaran utan att riskera patenttvister med Apple.
0 kommentarer