Welcome to Randal Douc's wiki

A collaborative site on maths but not only!

User Tools

Site Tools


maroc

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
maroc [2023/05/16 18:56]
rdouc [Période]
maroc [2023/10/30 16:06] (current)
rdouc
Line 19: Line 19:
   - Linear Algebra and Optimization for ML - a textbook ​   - Linear Algebra and Optimization for ML - a textbook ​
   - Regression de Matzner   - Regression de Matzner
-[[https://​temtsp-my.sharepoint.com/:​f:/​g/​personal/​randal_douc_telecom-sudparis_eu/​EtsbQHsQZhVGsmUfViD8DaYBLMdouaj4rbFeHEB84hNinA?e=l1saI0|Liens vers documents pédagogiques.]] ​+[[https://​temtsp-my.sharepoint.com/:​f:/​g/​personal/​randal_douc_telecom-sudparis_eu/​EtsbQHsQZhVGsmUfViD8DaYBB5AsMjbgGvq-rJToiMKdkg?e=hgcZjh|Liens vers documents pédagogiques.]] ​
  
 ===== Période ===== ===== Période =====
  
-  * **Période 1**: du 2/10 au 11/10. //​Intervenant//: ​Yazid Janati. Statistiques.  +  * **Période 1**: du 2/10 au 06/10 puis que 09/10 au 11/10. //​Intervenant//: ​**Thomas Belhalfaoui**. Statistiques.  
-    * Gaussian distributions, Gamma, Chi square, Student, ​Fisher ​distribution.  +    * Distributions gaussiennes, Gamma, Chi carré, Student, distribution ​de Fisher
-    * Recap on LLNCLT. Slutsky's lemma and delta methods.  +    * Rappel sur loi des grands nombresThéorème limiteLe lemme de Slutsky ​et les méthodes ​delta. 
-    * Independence and Gaussian vectors. The Cochran ​Theorem+    * Indépendance,​ Vecteurs gaussiens, Théorème de Cochran. 
-    * Statistical modellikelihoodexponential modelsstatisticsufficient statistic, score, Fisher ​information  +    * Modèle statistiquevraisemblancemodèles exponentielsstatistiquestatistique suffisante, score, ​information de Fisher. 
-    * Estimatorsbiased-unbiased estimators, Rao Blackwell, ​ Cramer-Rao ​bounds.  +    * Estimateursestimateurs biaisés et non biaisés, Rao Blackwell, ​bornes de Cramer-Rao, efficacité
-    * methods of moments, maximum ​likelihood, Kullback-Leibler ​divergence, M-estimators.+    * Méthodes des moments, maximum ​de vraisemblancedivergence de Kullback-Leibler,​ M-estimateurs", efficacité asymptotique 
-    * Confidence intervalspivotal functions, Hoeffding's inequality.  +    * Intervalles de confiancefonctions pivotsinégalité de Hoeffding. 
-    * Asymptotic confidence intervalsUse of Slutsky's lemma and of Delta's method.  +    * Intervalles de confiance asymptotiquesUtilisation du lemme de Slutsky ​et de la méthode ​Delta. 
-    * definition of statistical ​tests, type I and II errors  +    * Définition des tests statistiqueserreurs de type I et II. 
-    * Different statistical ​tests in the Gaussian case.  ​+    * Différents ​tests statistiques dans le modèle gaussien 
 +  * **Période 2**: du 12/10 au 13/10 puis du 16/10 au 20/10. //​Intervenant//:​ **Randal Douc**. Régression et classification supervisée.  
 +    * Régression:​  
 +        * Régression linéaire simple,  
 +        * Régression linéaire multiple,  
 +        * Diagnostic de modèle.  
 +        * Inférence dans le modèle linéaire gaussien.  
 +        * Sélection de variables.  
 +        * Ridge, Lasso, Elastic-Net 
 +    * Classification supervisée:​  
 +      * Classifieur optimal de Bayes.  
 +      * Algorithme EM, mélange de gaussiennes. 
 +      * Régression logistique bi-classe. 
 +      * Boosting, forêts aléatoires. ​
  
-  * **Période ​2**: du 12/10 au 20/10. //​Intervenant//: ​Randal Douc. Régression et classification supervisée.  +  * **Période ​3**: du 23/10 au 27/10. //​Intervenant//:​ **Laurent Risser**. Optimisation. ​   
-    ​Régression linéaire simple,  +    * Bases de l'​optimisation (optimisation multivarié) 
-    ​Régression linéaire multiple,  +    * Minimisation de fonctions convexe (caractérisation variationnelle des points extrêmaux) 
-    ​Inférence dans le modèle linéaire gaussien.  +    * Gradient stochastique (et analyse ​de convergence pour un coût convexe) 
-    * Moindres carrés généralisées +    Calcul des gradients (différentier par rapport à un vecteur) 
-    * Classification supervisée,​ risque bayésien. ​ +    * Régression logistique et extension multi-classes
-    * Parametric ​et semi paramétric classifieurs ​de Bayes: ​ +    * Optimisation non douce (algorithme du sous-gradient) 
-        mélange de gaussiennes. +    * Machines à vecteurs ​de support (hinge loss)
-        * Régression logistique +
- +
-  +
- +
-  * **Période 3**: du 18/10 au 27/10. //​Intervenant//:​ Laurent Risser. Suite et fin Optimisation  ​ +
-    * SVM.  +
-    * Algorithmes ​de gradients, gradients projetés, proximal descent. ​+
     * Classification non supervisée: ​     * Classification non supervisée: ​
         * ACP; SVD         * ACP; SVD
Line 57: Line 63:
 Contact local: ​ Contact local: ​
   * Pr. Nicolas Cheimanoff, [[[email protected]|email]]   * Pr. Nicolas Cheimanoff, [[[email protected]|email]]
-    * Directeur de l'​EMINES - School of Industrial Management+    * Directeur de l'​EMINES - School of Industrial Management ​[[https://​www.emines-ingenieur.org/​|site de l'​emines]]
     * Responsable de la Préparation Education Fellow UM6P     * Responsable de la Préparation Education Fellow UM6P
     * Université Mohammed VI Polytechnique. [[https://​www.um6p.ma/​|site de l'​université]]     * Université Mohammed VI Polytechnique. [[https://​www.um6p.ma/​|site de l'​université]]
  
  
maroc.1684256167.txt.gz · Last modified: 2023/05/16 18:56 by rdouc