Modelltolkning är inte en fråga om vilken ML-metod du använder (vilket modellsubstrat, t.ex. NN vs grafiska modeller vs symbolisk kod). Vilket substrat som helst kan tolkas när modellen är tillräckligt liten. Det är enbart en fråga om modellstorlek/komplexitet. Beteendet hos en komplex kodbas eller en komplex grafisk modell är inte tolkningsbart trots att du lokalt kan läsa vilken bit som helst av vad den gör. Det är kanske *debuggable* i specifika fall med stor ansträngning -- men detsamma skulle gälla för NN också. IMO uttalandet "vi måste använda tolkningsbara metoder" är en nonstarter, det betyder att du vill begränsa dig till leksaksmodeller.
61,98K