======= Cours au Maroc à l'université Mohammed 6 Polytechnique ======= ====== Introduction ====== * **Période** 2 au 27 octobre. * Le programme: base de statistiques et introduction à l'apprentissage statistique couvrant - les bases mathématiques des statistiques - les problèmes de régression linéaire et non-linéaire - outils mathématiques fondamentaux pour la data et l'IA (algèbre numérique computationnelle, optimisation convexe, optimisation stochastique) - la maitrise des outils essentiels (en python) - visualisation des données, statisique exploratoire ===== Documents de référence ===== Les livres de référence - Polycopié MAP 433 - Linear Algebra and Optimization for ML - a textbook - Regression de Matzner [[https://temtsp-my.sharepoint.com/:f:/g/personal/randal_douc_telecom-sudparis_eu/EtsbQHsQZhVGsmUfViD8DaYBB5AsMjbgGvq-rJToiMKdkg?e=hgcZjh|Liens vers documents pédagogiques.]] ===== Période ===== * **Période 1**: du 2/10 au 06/10 puis que 09/10 au 11/10. //Intervenant//: **Thomas Belhalfaoui**. Statistiques. * Distributions gaussiennes, Gamma, Chi carré, Student, distribution de Fisher. * Rappel sur loi des grands nombres, Théorème limite. Le lemme de Slutsky et les méthodes delta. * Indépendance, Vecteurs gaussiens, Théorème de Cochran. * Modèle statistique, vraisemblance, modèles exponentiels, statistique, statistique suffisante, score, information de Fisher. * Estimateurs, estimateurs biaisés et non biaisés, Rao Blackwell, bornes de Cramer-Rao, efficacité. * Méthodes des moments, maximum de vraisemblance, divergence de Kullback-Leibler, M-estimateurs", efficacité asymptotique * Intervalles de confiance, fonctions pivots, inégalité de Hoeffding. * Intervalles de confiance asymptotiques. Utilisation du lemme de Slutsky et de la méthode Delta. * Définition des tests statistiques, erreurs de type I et II. * Différents tests statistiques dans le modèle gaussien. * **Période 2**: du 12/10 au 13/10 puis du 16/10 au 20/10. //Intervenant//: **Randal Douc**. Régression et classification supervisée. * Régression: * Régression linéaire simple, * Régression linéaire multiple, * Diagnostic de modèle. * Inférence dans le modèle linéaire gaussien. * Sélection de variables. * Ridge, Lasso, Elastic-Net * Classification supervisée: * Classifieur optimal de Bayes. * Algorithme EM, mélange de gaussiennes. * Régression logistique bi-classe. * Boosting, forêts aléatoires. * **Période 3**: du 23/10 au 27/10. //Intervenant//: **Laurent Risser**. Optimisation. * Bases de l'optimisation (optimisation multivarié) * Minimisation de fonctions convexe (caractérisation variationnelle des points extrêmaux) * Gradient stochastique (et analyse de convergence pour un coût convexe) * Calcul des gradients (différentier par rapport à un vecteur) * Régression logistique et extension multi-classes. * Optimisation non douce (algorithme du sous-gradient) * Machines à vecteurs de support (hinge loss) * Classification non supervisée: * ACP; SVD * K-Means. Contact local: * Pr. Nicolas Cheimanoff, [[nicolas.cheimanoff@emines.um6p.ma|email]] * Directeur de l'EMINES - School of Industrial Management [[https://www.emines-ingenieur.org/|site de l'emines]] * Responsable de la Préparation Education Fellow UM6P * Université Mohammed VI Polytechnique. [[https://www.um6p.ma/|site de l'université]]