Welcome to Randal Douc's wiki

A collaborative site on maths but not only!

User Tools

Site Tools


maroc

Cours au Maroc à l'université Mohammed 6 Polytechnique

Introduction

  • Période 2 au 27 octobre.
  • Le programme: base de statistiques et introduction à l'apprentissage statistique couvrant
    1. les bases mathématiques des statistiques
    2. les problèmes de régression linéaire et non-linéaire
    3. outils mathématiques fondamentaux pour la data et l'IA (algèbre numérique computationnelle, optimisation convexe, optimisation stochastique)
    4. la maitrise des outils essentiels (en python) - visualisation des données, statisique exploratoire

Documents de référence

Les livres de référence

  1. Polycopié MAP 433
  2. Linear Algebra and Optimization for ML - a textbook
  3. Regression de Matzner

Liens vers documents pédagogiques.

Période

  • Période 1: du 2/10 au 06/10 puis que 09/10 au 11/10. Intervenant: Thomas Belhalfaoui. Statistiques.
    • Distributions gaussiennes, Gamma, Chi carré, Student, distribution de Fisher.
    • Rappel sur loi des grands nombres, Théorème limite. Le lemme de Slutsky et les méthodes delta.
    • Indépendance, Vecteurs gaussiens, Théorème de Cochran.
    • Modèle statistique, vraisemblance, modèles exponentiels, statistique, statistique suffisante, score, information de Fisher.
    • Estimateurs, estimateurs biaisés et non biaisés, Rao Blackwell, bornes de Cramer-Rao, efficacité.
    • Méthodes des moments, maximum de vraisemblance, divergence de Kullback-Leibler, M-estimateurs“, efficacité asymptotique
    • Intervalles de confiance, fonctions pivots, inégalité de Hoeffding.
    • Intervalles de confiance asymptotiques. Utilisation du lemme de Slutsky et de la méthode Delta.
    • Définition des tests statistiques, erreurs de type I et II.
    • Différents tests statistiques dans le modèle gaussien.
  • Période 2: du 12/10 au 13/10 puis du 16/10 au 20/10. Intervenant: Randal Douc. Régression et classification supervisée.
    • Régression:
      • Régression linéaire simple,
      • Régression linéaire multiple,
      • Diagnostic de modèle.
      • Inférence dans le modèle linéaire gaussien.
      • Sélection de variables.
      • Ridge, Lasso, Elastic-Net
    • Classification supervisée:
      • Classifieur optimal de Bayes.
      • Algorithme EM, mélange de gaussiennes.
      • Régression logistique bi-classe.
      • Boosting, forêts aléatoires.
  • Période 3: du 23/10 au 27/10. Intervenant: Laurent Risser. Optimisation.
    • Bases de l'optimisation (optimisation multivarié)
    • Minimisation de fonctions convexe (caractérisation variationnelle des points extrêmaux)
    • Gradient stochastique (et analyse de convergence pour un coût convexe)
    • Calcul des gradients (différentier par rapport à un vecteur)
    • Régression logistique et extension multi-classes.
    • Optimisation non douce (algorithme du sous-gradient)
    • Machines à vecteurs de support (hinge loss)
    • Classification non supervisée:
      • ACP; SVD
      • K-Means.

Contact local:

  • Pr. Nicolas Cheimanoff, email
    • Directeur de l'EMINES - School of Industrial Management site de l'emines
    • Responsable de la Préparation Education Fellow UM6P
    • Université Mohammed VI Polytechnique. site de l'université
maroc.txt · Last modified: 2023/10/30 16:06 by rdouc