Home / Featured  / Mixtral 8x22B setter ny standard for åpne modeller

Mixtral 8x22B setter ny standard for åpne modeller

Mistral AI har lansert Mixtral 8x22B, som setter en ny standard for open source-modeller når det gjelder ytelse og effektivitet. Modellen har robuste flerspråklige funksjoner og overlegen matematisk og kodingsmessig dyktighet.

 

Mixtral 8x22B fungerer som en SMoE-modell (Sparse Mixture-of-Experts) og bruker bare 39 milliarder av sine 141 milliarder parametere når den er aktiv.

 

Mixtral 8x22B er ikke bare effektiv, den behersker også flere store språk, blant annet engelsk, fransk, italiensk, tysk og spansk. Den er også dyktig på tekniske områder med sterke matematiske og kodingsfunksjoner. Modellen støtter innfødte funksjonskall i kombinasjon med en “begrenset utdatamodus”, noe som forenkler applikasjonsutvikling i stor skala og tekniske oppgraderinger.

 

Med et stort kontekstvindu på 64 000 tokens sikrer Mixtral 8x22B presis tilbakekalling av informasjon fra omfattende dokumenter, noe som gjør den enda mer attraktiv på bedriftsnivå der håndtering av omfattende datasett er rutine.

 

Mistral AI har gitt ut Mixtral 8x22B under Apache 2.0-lisensen for å fremme et samarbeidende og innovativt AI-forskningsmiljø. Denne svært liberale lisensen for åpen kildekode sikrer fri bruk uten begrensninger og muliggjør utbredt bruk.

 

Statistisk sett utkonkurrerer Mixtral 8x22B mange eksisterende modeller. Mistrals nye innovasjon utmerker seg i direkte sammenligninger med standard bransjemålestokker – alt fra sunn fornuft og resonnering til fagspesifikk kunnskap. Tall offentliggjort av Mistral AI illustrerer at Mixtral 8x22B overgår LLaMA 2 70B-modellen betydelig i ulike språklige sammenhenger på tvers av kritiske resonnementer og kunnskapsbenchmarks:

 

Også innen koding og matematikk fortsetter Mixtral sin dominans blant de åpne modellene. Oppdaterte resultater viser en imponerende ytelsesforbedring i matematiske benchmarks etter lanseringen av en instruert versjon av modellen:

 

Potensielle brukere og utviklere oppfordres til å utforske Mixtral 8x22B på La Plateforme, Mistral AIs interaktive plattform. Her kan de gå i direkte dialog med modellen.

 

I en tid der AI spiller en stadig større rolle, markerer Mixtral 8x22Bs kombinasjon av høy ytelse, effektivitet og åpen tilgjengelighet en viktig milepæl i demokratiseringen av avanserte AI-verktøy.