Welcome to Randal Douc's wiki

A collaborative site on maths but not only!

User Tools

Site Tools


maroc

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
maroc [2023/05/17 08:01]
eric [Période]
maroc [2023/10/30 16:06] (current)
rdouc
Line 19: Line 19:
   - Linear Algebra and Optimization for ML - a textbook ​   - Linear Algebra and Optimization for ML - a textbook ​
   - Regression de Matzner   - Regression de Matzner
-[[https://​temtsp-my.sharepoint.com/:​f:/​g/​personal/​randal_douc_telecom-sudparis_eu/​EtsbQHsQZhVGsmUfViD8DaYBLMdouaj4rbFeHEB84hNinA?e=l1saI0|Liens vers documents pédagogiques.]] ​+[[https://​temtsp-my.sharepoint.com/:​f:/​g/​personal/​randal_douc_telecom-sudparis_eu/​EtsbQHsQZhVGsmUfViD8DaYBB5AsMjbgGvq-rJToiMKdkg?e=hgcZjh|Liens vers documents pédagogiques.]] ​
  
 ===== Période ===== ===== Période =====
  
-  * **Période 1**: du 2/10 au 11/10. //​Intervenant//: ​Yazid Janati. Statistiques. ​+  * **Période 1**: du 2/10 au 06/10 puis que 09/10 au 11/10. //​Intervenant//: ​**Thomas Belhalfaoui**. Statistiques. ​
     * Distributions gaussiennes,​ Gamma, Chi carré, Student, distribution de Fisher.     * Distributions gaussiennes,​ Gamma, Chi carré, Student, distribution de Fisher.
-*Rappel sur loi des grands nombres, Théorème limite. Le lemme de Slutsky et les méthodes delta. +    ​* Rappel sur loi des grands nombres, Théorème limite. Le lemme de Slutsky et les méthodes delta. 
-*Indépendance,​ Vecteurs gaussiens, Théorème de Cochran. +    * Indépendance,​ Vecteurs gaussiens, Théorème de Cochran. 
-* Modèle statistique,​ vraisemblance,​ modèles exponentiels,​ statistique,​ statistique suffisante, score, information de Fisher. +    * Modèle statistique,​ vraisemblance,​ modèles exponentiels,​ statistique,​ statistique suffisante, score, information de Fisher. 
-* Estimateurs,​ estimateurs biaisés et non biaisés, Rao Blackwell, bornes de Cramer-Rao, efficacité. +    * Estimateurs,​ estimateurs biaisés et non biaisés, Rao Blackwell, bornes de Cramer-Rao, efficacité. 
-* Méthodes des moments, maximum de vraisemblance,​ divergence de Kullback-Leibler,​ M-estimateurs",​ efficacité asymptotique +    * Méthodes des moments, maximum de vraisemblance,​ divergence de Kullback-Leibler,​ M-estimateurs",​ efficacité asymptotique 
-* Intervalles de confiance, fonctions pivots, inégalité de Hoeffding. +    * Intervalles de confiance, fonctions pivots, inégalité de Hoeffding. 
-* Intervalles de confiance asymptotiques. Utilisation du lemme de Slutsky et de la méthode ​de Delta. +    * Intervalles de confiance asymptotiques. Utilisation du lemme de Slutsky et de la méthode Delta. 
-* Définition des tests statistiques,​ erreurs de type I et II. +    * Définition des tests statistiques,​ erreurs de type I et II. 
-* Différents tests statistiques dans le modèle gaussien. ​+    * Différents tests statistiques dans le modèle gaussien.  
 +  * **Période 2**: du 12/10 au 13/10 puis du 16/10 au 20/10. //​Intervenant//:​ **Randal Douc**. Régression et classification supervisée.  
 +    * Régression:​  
 +        * Régression linéaire simple,  
 +        * Régression linéaire multiple,  
 +        * Diagnostic de modèle.  
 +        * Inférence dans le modèle linéaire gaussien.  
 +        * Sélection de variables.  
 +        * Ridge, Lasso, Elastic-Net 
 +    * Classification supervisée:​  
 +      * Classifieur optimal de Bayes.  
 +      * Algorithme EM, mélange de gaussiennes. 
 +      * Régression logistique bi-classe. 
 +      * Boosting, forêts aléatoires
  
-  * **Période ​2**: du 12/10 au 20/10. //​Intervenant//: ​Randal DoucRégression et classification supervisée.  +  * **Période ​3**: du 23/10 au 27/10. //​Intervenant//: ​**Laurent Risser**Optimisation  ​ 
-    * Algorithme EM, mélange ​de gaussiennes. ​ +    * Bases de l'​optimisation (optimisation multivarié) 
-    * Régression linéaire simple, ​ +    * Minimisation de fonctions convexe (caractérisation variationnelle des points extrêmaux) 
-    * Régression linéaire multiple, ​ +    * Gradient stochastique (et analyse de convergence pour un coût convexe) 
-    * Inférence dans le modèle linéaire gaussien.  +    * Calcul des gradients (différentier par rapport à un vecteur) 
-    * Moindres carrés généralisées. +    * Régression logistique ​et extension multi-classes
-    * Régression logistique +    * Optimisation ​non douce (algorithme ​du sous-gradient) 
-    * Classification supervisée,​ risque bayésien.  +    * Machines à vecteurs ​de support (hinge loss)
-    * Classifieurs de Bayes:  +
-        * mélange de gaussiennes. +
-        * classification logistique. +
-        * K plus proches voisins +
- +
-  * **Période 3**: du 18/10 au 27/10. //​Intervenant//:​ Laurent Risser. ​Optimisation.    +
-    * Algorithme ​du gradient  +
-    * SVM, RKHS.  +
-    * Algorithmes ​de gradients, gradients projetés, proximal descent. ​+
     * Classification non supervisée: ​     * Classification non supervisée: ​
         * ACP; SVD         * ACP; SVD
Line 59: Line 63:
 Contact local: ​ Contact local: ​
   * Pr. Nicolas Cheimanoff, [[[email protected]|email]]   * Pr. Nicolas Cheimanoff, [[[email protected]|email]]
-    * Directeur de l'​EMINES - School of Industrial Management+    * Directeur de l'​EMINES - School of Industrial Management ​[[https://​www.emines-ingenieur.org/​|site de l'​emines]]
     * Responsable de la Préparation Education Fellow UM6P     * Responsable de la Préparation Education Fellow UM6P
     * Université Mohammed VI Polytechnique. [[https://​www.um6p.ma/​|site de l'​université]]     * Université Mohammed VI Polytechnique. [[https://​www.um6p.ma/​|site de l'​université]]
  
  
maroc.1684303301.txt.gz · Last modified: 2023/05/17 08:01 by eric