Période 1: du 30/09 au 04/10 puis que 07/10 au 09/10.Intervenant: Evgenii Chzhen. Statistiques.
Distributions gaussiennes, Gamma, Chi carré, Student, distribution de Fisher.
Rappel sur loi des grands nombres, Théorème limite. Le lemme de Slutsky et les méthodes delta.
Indépendance, Vecteurs gaussiens, Théorème de Cochran.
Modèle statistique, vraisemblance, modèles exponentiels, statistique, statistique suffisante, score, information de Fisher.
Estimateurs, estimateurs biaisés et non biaisés, Rao Blackwell, bornes de Cramer-Rao, efficacité.
Méthodes des moments, maximum de vraisemblance, divergence de Kullback-Leibler, M-estimateurs“, efficacité asymptotique
Intervalles de confiance, fonctions pivots, inégalité de Hoeffding.
Intervalles de confiance asymptotiques. Utilisation du lemme de Slutsky et de la méthode Delta.
Définition des tests statistiques, erreurs de type I et II.
Différents tests statistiques dans le modèle gaussien.
Période 2: du 10/10 au 11/10 puis du 14/10 au 18/10. Intervenant: Randal Douc (Cours et Tds) et Khalid Oublal (TPs). Régression et classification supervisée.
Régression:
Régression linéaire simple,
Régression linéaire multiple,
Diagnostic de modèle.
Inférence dans le modèle linéaire gaussien.
Sélection de variables.
Ridge, Lasso, Elastic-Net.
Validation croisée.
Classification supervisée:
Classifieur optimal de Bayes.
Algorithme EM, mélange de gaussiennes.
Régression logistique bi-classe.
Période 3: du 21/10 au 25/10.Intervenant: Laurent Risser. Optimisation.
Bases de l'optimisation (optimisation multivarié)
Minimisation de fonctions convexe (caractérisation variationnelle des points extrêmaux)
Méthodes proximales.
Gradient stochastique (et analyse de convergence pour un coût convexe)
Calcul des gradients (différentier par rapport à un vecteur)
Régression logistique et extension multi-classes.
Optimisation non douce (algorithme du sous-gradient)