AI-skolan
Data leakage (dataintrång eller dataläckage) i ML-sammanhang innebär att information från testdata oavsiktligt läcker in i träningsprocessen, vilket gör att modellen verkar prestera bättre än den egentligen gör. Det är ett subtilt men allvarligt problem som kan leda till att modeller som verkar fungera utmärkt i labbet misslyckas totalt när de möter verklig data.
Exempel
Om du tränar en modell för att förutsäga om en kund kommer att churna och råkar inkludera ett fält som fylls i just när en kund säger upp sig — ett fält som inte skulle finnas tillgängligt vid tidpunkten för förutsägelsen — kommer modellen att verka perfekt under träning men vara värdelös i produktion.
ML
Avancerat
