======= Cours au Maroc à l'université Mohammed 6 Polytechnique =======
====== Introduction ======
* **Période** 30 sept au 25 octobre 2024.
* Le programme: base de statistiques et introduction à l'apprentissage statistique couvrant
- les bases mathématiques des statistiques
- les problèmes de régression linéaire et non-linéaire
- outils mathématiques fondamentaux pour la data et l'IA (algèbre numérique computationnelle, optimisation convexe, optimisation stochastique)
- la maitrise des outils essentiels (en python) - visualisation des données, statisique exploratoire
===== Documents de référence =====
Les livres de référence
- Polycopié MAP 433
- Linear Algebra and Optimization for ML - a textbook
- Regression de Matzner
[[https://temtsp-my.sharepoint.com/:f:/g/personal/randal_douc_telecom-sudparis_eu/EtsbQHsQZhVGsmUfViD8DaYBB5AsMjbgGvq-rJToiMKdkg?e=hgcZjh|Liens vers documents pédagogiques.]]
===== Période =====
* **Période 1**: du 30/09 au 04/10 puis que 07/10 au 09/10. //Intervenant//: **Evgenii Chzhen**. Statistiques.
* Distributions gaussiennes, Gamma, Chi carré, Student, distribution de Fisher.
* Rappel sur loi des grands nombres, Théorème limite. Le lemme de Slutsky et les méthodes delta.
* Indépendance, Vecteurs gaussiens, Théorème de Cochran.
* Modèle statistique, vraisemblance, modèles exponentiels, statistique, statistique suffisante, score, information de Fisher.
* Estimateurs, estimateurs biaisés et non biaisés, Rao Blackwell, bornes de Cramer-Rao, efficacité.
* Méthodes des moments, maximum de vraisemblance, divergence de Kullback-Leibler, M-estimateurs", efficacité asymptotique
* Intervalles de confiance, fonctions pivots, inégalité de Hoeffding.
* Intervalles de confiance asymptotiques. Utilisation du lemme de Slutsky et de la méthode Delta.
* Définition des tests statistiques, erreurs de type I et II.
* Différents tests statistiques dans le modèle gaussien.
* **Période 2**: du 10/10 au 11/10 puis du 14/10 au 18/10. //Intervenant//: **Randal Douc** (Cours et Tds) et **Khalid Oublal** (TPs). Régression et classification supervisée.
* Régression:
* Régression linéaire simple,
* Régression linéaire multiple,
* Diagnostic de modèle.
* Inférence dans le modèle linéaire gaussien.
* Sélection de variables.
* Ridge, Lasso, Elastic-Net.
* Validation croisée.
* Classification supervisée:
* Classifieur optimal de Bayes.
* Algorithme EM, mélange de gaussiennes.
* Régression logistique bi-classe.
* **Période 3**: du 21/10 au 25/10. //Intervenant//: **Laurent Risser**. Optimisation.
* Bases de l'optimisation (optimisation multivarié)
* Minimisation de fonctions convexe (caractérisation variationnelle des points extrêmaux)
* Méthodes proximales.
* Gradient stochastique (et analyse de convergence pour un coût convexe)
* Calcul des gradients (différentier par rapport à un vecteur)
* Régression logistique et extension multi-classes.
* Optimisation non douce (algorithme du sous-gradient)
* Machines à vecteurs de support (hinge loss)
* Classification non supervisée:
* ACP; SVD
* K-Means.
Contact local:
* Pr. Nicolas Cheimanoff, [[nicolas.cheimanoff@emines.um6p.ma|email]]
* Directeur de l'EMINES - School of Industrial Management [[https://www.emines-ingenieur.org/|site de l'emines]]
* Responsable de la Préparation Education Fellow UM6P
* Université Mohammed VI Polytechnique. [[https://www.um6p.ma/|site de l'université]]