AI-skolan

Vad är
Model interpretability

Model interpretability handlar om i vilken utsträckning man kan förstå och förklara hur en AI-modell fattar sina beslut. Eftersom många moderna modeller, som djupa neurala nätverk, fungerar som "svarta lådor" är tolkningsmöjligheten avgörande för tillit, felsökning och regelefterlevnad. Metoder som SHAP, LIME och saliency maps används för att belysa vilka faktorer som påverkar modellens utfall.

Exempel

En bank som använder en AI-modell för kreditbedömning måste enligt lag kunna förklara varför en ansökan nekades. Med hjälp av interpretabilitetsverktyg kan de visa att beslutet grundades på hög skuldsättning och kort kredithistorik — inte på diskriminerande faktorer.

ML
Avancerat