Mixtral 8x7B
Mixtral 8x7B er en af tre versioner af en open source sprogmodel fra Mistral.
Det betyder at vi her har sprogmodeller, som kan hentes og bruges under nogle klare betingelser, og det vil vi kigge nærmere på her.
KATEGORI: Sprogmodel
Oprettet: maj 2024
Fordele
Mistral har lavet modellerne Mistral 7B, Mixtral 8x7B og Mixtral 22x7B. Alle tre modeller er udgivet under den åbne licens Apache 2.0.
Vores anbefaling
Vi anbefaler værktøjet fordi det er stærkt og gratis at hente.
Ulemper
snak snak
Beskrevet af
Peter Leth
Fakta
Licens
Databehandling
Besøg
Perfekt til
Udvikling og hosting af egen sprogmodel
En kort introduktion
Vejledninger
Den første halvdel af filmen herover giver en kort forklaring omkring arkitekturen i denne sprogmodel.
Alle har som minimum ret til at vide, at der er nogle valgmuligheder åbne for os – uanset om vi leder efter apps, software, viden eller medier.
Hvad du vælger, er op til dig. Men som minimum skal du vide, hvad du vælger mellem.
Mistral
Sprogmodel
Senest redigeret: maj 2024
Forfatter: Peter Leth