NUMERICAL OPTIMIZATION AND DATA SCIENCE
Stampa
Anno immatricolazione
2022/2023
Anno offerta
2022/2023
Normativa
DM270
SSD
MAT/09 (RICERCA OPERATIVA)
Dipartimento
DIPARTIMENTO DI MATEMATICA 'FELICE CASORATI'
Corso di studio
MATEMATICA
Curriculum
PERCORSO COMUNE
Anno di corso
Periodo didattico
Secondo Semestre (01/03/2023 - 09/06/2023)
Crediti
6
Ore
48 ore di attività frontale
Lingua insegnamento
INGLESE
Tipo esame
ORALE
Docente
PAVARINO LUCA FRANCO (titolare) - 3 CFU
DUMA DAVIDE - 3 CFU
Prerequisiti
Conoscenza di base di Analisi Matematica, Algebra Lineare, Calcolo delle Probabilità, Analisi Numerica e Programmazione
Obiettivi formativi
Il corso intende offrire agli studenti una panoramica degli aspetti teorici e applicativi dell’analisi dei dati e dell'ottimizzazione numerica, mostrando i principali risultati e offrendo la possibilità di applicare la teoria a problemi concreti.
Programma e contenuti
A) Modulo di Data Science.
- Elementi di geometria, algebra lineare, e probabilità in spazi di dimensione alta; Il problema del Nearest Neighbor e riduzione delle dimensioni dei dati; Proiezione casuale e lemma di Johnson-Lindenstrauss; Gaussiane in dimensione alta; Fitting di dati su una Gaussiana sferica.

-Decomposizione in Valori Singolari (SVD); Miglior approssimazione di rango k; Applicazioni di SVD: Analisi delle Componenti Principali (PCA), Clustering a mistura di Gaussiane sferiche, Max-Cut Problem.

- Classificazione: separatori lineari e metodo kernel; Overfitting, Garanzia di PAC-Learning e Convergenza Uniforme; Il rasoio di Occam e regolarizzazione; Macchine a vettori di supporto (SVM); Dimensione VC; k-fold cross validation.

- Clustering: k-means, k-center, k-median; Outlier e strategie di inizializzazione.

B) Modulo di Numerical Optimization.
1. Introduzione ai metodi di Ottimizzazione. Matlab Optimization Toolbox.
2. Metodi derivative – free: Nelder – Mead.
3. Metodo di Newton
4. Metodi di discesa (line search):
- Scelta del passo, condizioni di Wolfe, backtracking.
- Direzioni di Newton.
- Direzioni Quasi – Newton (update di rango 1, metodi DFP e BFGS)
- Direzioni del gradiente.
- Direzioni del gradiente coniugato (metodi di Fletcher – Reeves, Polak – Ribiere, Hestenes – Stiefel).
5. Metodi Trust – Region.
6. Nonlinear Least – Square:
- Gauss – Newton.
- Levenberg - Marquardt.
7. Applicazioni a reti neurali e metodi Deep Learning.
Metodi didattici
Lezioni e laboratorio Matlab
Testi di riferimento
Avrim Blum, John Hopcroft, Ravindran Kannan. “Foundations of Data Science”. Cambridge University Press, Jan 23, 2020

Nocedal, Jorge; Wright, Stephen J. Numerical optimization. Second edition. Springer, 2006.
Modalità verifica apprendimento
Progetto finale, presentazione ed esame orale
Altre informazioni
Obiettivi Agenda 2030 per lo sviluppo sostenibile