In matematica e statistica, particolarmente nei campi dell'apprendimento automatico e dei problemi inversi, la regolarizzazione implica l'introduzione di ulteriore informazione allo scopo di risolvere un problema mal condizionato o per prevenire l'eccessivo adattamento. Tale informazione è solitamente nella forma di una penalità per complessità, tale come una restrizione su una funzione liscia o una limitazione sulla norma di uno spazio vettoriale.
Una giustificazione teorica per la regolarizzazione è quella per cui essa costituisce un tentativo di imporre il rasoio di Occam alla soluzione. Da un punto di vista bayesiano, molte tecniche di regolarizzazione corrispondono a imporre certe distribuzioni di probabilità a priori dei parametri del modello.
La medesima idea sorge in molti campi della scienza. Per esempio, il metodo dei minimi quadrati può essere visto come una forma veramente semplice di regolarizzazione. Una semplice forma di regolarizzazione applicata alle equazioni integrali, generalmente detta regolarizzazione di Tichonov dal nome di Andrey Nikolayevich Tikhonov, è costituita essenzialmente da un bilanciamento tra la regressione dei dati e una norma dipendente dalla soluzione. Più recentemente, sono divenuti diffusi metodi di regolarizzazione non lineare, inclusa la regolarizzazione a variazione totale (total variation regularization).
In statistica e in apprendimento automatico, la regolarizzazione è utilizzata per prevenire l'eccessivo adattamento. Tra i tipici esempi di regolarizzazione nell'apprendimento automatico statistico, vi sono la regolarizzazione di Tichonov, il cosiddetto metodo dei minimi quadrati LASSO (Least Absolute Shrinkage and Selection Operator), e la norma L2 nelle macchine a vettori di supporto.
I metodi di regolarizzazione sono impiegati anche per la selezione di modelli, dove il loro funzionamento è basato sull'implicita o esplicita penalizzazione del numero di parametri del modello. Per esempio, i metodi di apprendimento bayesiano fanno uso di una probabilità a priori che (solitamente) attribuisce un valore di probabilità inferiore ai modelli più complessi. Tra le tecniche ben note di selezione vi sono il criterio informativo di Akaike (Akaike information criterion, AIC), la lunghezza di descrizione minimale (minimum description length, MDL), e il criterio informativo bayesiano (bayesian information criterion, BIC). Tra i metodi alternativi per controllare l'eccessivo adattamento, che coinvolgono la regolarizzazione, vi sono la Cross-validazione.
Esempi di metodi differenti di regolarizzazione applicati al modello lineare sono:
Modello | Misura del fit | Misura dell'entropia |
---|---|---|
AIC/BIC | ||
Regressione di Ridge | ||
Metodo LASSO[1] | ||
Basis pursuit denoising | ||
RLAD[2] | ||
Selettore di Dantzig[3] |