Welcome to Randal Douc's wiki

A collaborative site on maths but not only!

User Tools

Site Tools


maroc

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
maroc [2023/05/16 19:05]
rdouc [Période]
maroc [2023/10/30 16:06] (current)
rdouc
Line 19: Line 19:
   - Linear Algebra and Optimization for ML - a textbook ​   - Linear Algebra and Optimization for ML - a textbook ​
   - Regression de Matzner   - Regression de Matzner
-[[https://​temtsp-my.sharepoint.com/:​f:/​g/​personal/​randal_douc_telecom-sudparis_eu/​EtsbQHsQZhVGsmUfViD8DaYBLMdouaj4rbFeHEB84hNinA?e=l1saI0|Liens vers documents pédagogiques.]] ​+[[https://​temtsp-my.sharepoint.com/:​f:/​g/​personal/​randal_douc_telecom-sudparis_eu/​EtsbQHsQZhVGsmUfViD8DaYBB5AsMjbgGvq-rJToiMKdkg?e=hgcZjh|Liens vers documents pédagogiques.]] ​
  
 ===== Période ===== ===== Période =====
  
-  * **Période 1**: du 2/10 au 11/10. //​Intervenant//: ​Yazid Janati. Statistiques.  +  * **Période 1**: du 2/10 au 06/10 puis que 09/10 au 11/10. //​Intervenant//: ​**Thomas Belhalfaoui**. Statistiques.  
-    * Gaussian distributions, Gamma, Chi square, Student, ​Fisher ​distribution.  +    * Distributions gaussiennes, Gamma, Chi carré, Student, distribution ​de Fisher
-    * Recap on LLNCLT. Slutsky's lemma and delta methods.  +    * Rappel sur loi des grands nombresThéorème limiteLe lemme de Slutsky ​et les méthodes ​delta. 
-    * Independence and Gaussian vectors. The Cochran ​Theorem+    * Indépendance,​ Vecteurs gaussiens, Théorème de Cochran. 
-    * Statistical modellikelihoodexponential modelsstatisticsufficient statistic, score, Fisher ​information  +    * Modèle statistiquevraisemblancemodèles exponentielsstatistiquestatistique suffisante, score, ​information de Fisher. 
-    * Estimatorsbiased-unbiased estimators, Rao Blackwell, ​ Cramer-Rao ​bounds.  +    * Estimateursestimateurs biaisés et non biaisés, Rao Blackwell, ​bornes de Cramer-Rao, efficacité
-    * methods of moments, maximum ​likelihood, Kullback-Leibler ​divergence, M-estimators.+    * Méthodes des moments, maximum ​de vraisemblancedivergence de Kullback-Leibler,​ M-estimateurs", efficacité asymptotique 
-    * Confidence intervalspivotal functions, Hoeffding's inequality.  +    * Intervalles de confiancefonctions pivotsinégalité de Hoeffding. 
-    * Asymptotic confidence intervalsUse of Slutsky's lemma and of Delta's method.  +    * Intervalles de confiance asymptotiquesUtilisation du lemme de Slutsky ​et de la méthode ​Delta. 
-    * definition of statistical ​tests, type I and II errors  +    * Définition des tests statistiqueserreurs de type I et II. 
-    * Different statistical ​tests in the Gaussian case.  ​+    * Différents ​tests statistiques dans le modèle gaussien 
 +  * **Période 2**: du 12/10 au 13/10 puis du 16/10 au 20/10. //​Intervenant//:​ **Randal Douc**. Régression et classification supervisée.  
 +    * Régression:​  
 +        * Régression linéaire simple,  
 +        * Régression linéaire multiple,  
 +        * Diagnostic de modèle.  
 +        * Inférence dans le modèle linéaire gaussien.  
 +        * Sélection de variables.  
 +        * Ridge, Lasso, Elastic-Net 
 +    * Classification supervisée:​  
 +      * Classifieur optimal de Bayes.  
 +      * Algorithme EM, mélange de gaussiennes. 
 +      * Régression logistique bi-classe. 
 +      * Boosting, forêts aléatoires. ​
  
-  * **Période ​2**: du 12/10 au 20/10. //​Intervenant//: ​Randal Douc. Régression et classification supervisée.  +  * **Période ​3**: du 23/10 au 27/10. //​Intervenant//:​ **Laurent Risser**. Optimisation. ​   
-    ​Algorithme EM, mélange de gaussiennes.  +    * Bases de l'​optimisation (optimisation multivarié) 
-    ​Régression linéaire simple,  +    * Minimisation de fonctions convexe (caractérisation variationnelle des points extrêmaux) 
-    ​Régression linéaire multiple,  +    * Gradient stochastique (et analyse ​de convergence pour un coût convexe) 
-    ​Inférence dans le modèle linéaire gaussien.  +    Calcul des gradients (différentier par rapport à un vecteur) 
-    * Moindres carrés généralisées +    * Régression logistique et extension multi-classes
-    * Classification supervisée,​ risque bayésien. ​ +    * Optimisation non douce (algorithme du sous-gradient) 
-    * Parametric ​et semi paramétric classifieurs ​de Bayes: ​ +    * Machines à vecteurs ​de support (hinge loss)
-        mélange de gaussiennes. +
-        * Régression logistique +
- +
-  * **Période 3**: du 18/10 au 27/10. //​Intervenant//:​ Laurent Risser. Suite et fin Optimisation  ​ +
-    * SVM, RKHS.  +
-    * Algorithmes ​de gradients, gradients projetés, proximal descent. ​+
     * Classification non supervisée: ​     * Classification non supervisée: ​
         * ACP; SVD         * ACP; SVD
Line 56: Line 63:
 Contact local: ​ Contact local: ​
   * Pr. Nicolas Cheimanoff, [[[email protected]|email]]   * Pr. Nicolas Cheimanoff, [[[email protected]|email]]
-    * Directeur de l'​EMINES - School of Industrial Management+    * Directeur de l'​EMINES - School of Industrial Management ​[[https://​www.emines-ingenieur.org/​|site de l'​emines]]
     * Responsable de la Préparation Education Fellow UM6P     * Responsable de la Préparation Education Fellow UM6P
     * Université Mohammed VI Polytechnique. [[https://​www.um6p.ma/​|site de l'​université]]     * Université Mohammed VI Polytechnique. [[https://​www.um6p.ma/​|site de l'​université]]
  
  
maroc.1684256706.txt.gz · Last modified: 2023/05/16 19:05 by rdouc