|
Mutua da
|
8067158 STATISTICAL LEARNING AND HIGH DIMENSIONAL DATA in Matematica Pura e Applicata LM-40 DE CANDITIIS DANIELA
(programma)
Definizioni base: Loss function, Risk function, Bias e Varianza. La regressione lineare da un punto di vista algebrico e da un punto di vista geometrico. Proprietà distribuzionali dello stimatore ai minimi quadrati e loro utilizzo per la costruzione di test di ipotesi e di intervalli di confidenza e di predizione. Il teorema di Gauss-Markov. I Generalized Linear Models (GLM): exponential dispersion family distribution e link function. L’algoritmo Iterative Reweighted Least Square (I.R.L.S.) per il calcolo dello stimatore di Massima Verosimiglianza per un GLM. Tecniche per il trattamento di dati ad alta dimensione. Il metodo della Best Subset Selection, il metodo della Forward Stepwise Selection, il metodo della PC regression e della supervised PC regression, i Partial Least Square, la penalizzazione Ridge e la penalizzazione LASSO. L’algoritmo Pathwise coordinate descendent. Proprietà teoriche dello stimatore lasso nel caso di modello lineare. Possibili miglioramenti del metodo Lasso: elastic net, relaxed lasso, adaptive lasso. Le penalty SCAD e MCP. Utilizzo del modello lineare per lavorare con modelli non lineari sia parametrici che non parametrici. La regressione polinomiale a tratti: le regression splines e le smoothing splines.
 T. Hastie, R. Tibshirani, J. Friedman: The Elements of Statistical Learning, Springer, 2009
|