AI-skolan
Model compression är en samling tekniker för att minska storleken på en tränad AI-modell utan att förlora för mycket av dess prestanda. Eftersom stora modeller kräver enorm datorkraft att köra är komprimering avgörande för att göra AI-modeller praktiska att använda på enheter med begränsade resurser, som mobiltelefoner eller inbyggda system.
Exempel
En röstassistent som ska köras direkt på en smartklocka kräver en modell som är tillräckligt liten för att passa i minnet och svara snabbt utan internetuppkoppling. Genom pruning (borttagning av onödiga vikter) och kvantisering kan en stor modell komprimeras till en bråkdel av sin ursprungliga storlek.
ML
Avancerat
