Welcome to Randal Douc's wiki

A collaborative site on maths but not only!

User Tools

Site Tools


miclet:syllabus

Introduction à l'Apprentissage Artificiel

Les thèmes ne sont pas traités dans l'ordre pendant les 15 heures de cours. La durée donnée est indicative.

Thème 0 (2h) : Théorie de l'apprentissage PAC, introduction

Thème 1 (3h) : Méthodologie de base, via les Arbres de Décision

  • Définition de l'Apprentissage Artificiel ; exemples de réalisations
  • Un exemple de méthode : les Arbres de Décision
    • Algorithme
    • Commentaires
  • Généralités sur les algorithmes d'AA
    • Vocabulaire
    • Convergence, Biais, Variance
  • Réglage d'un algorithme d'apprentissage
    • Mesure de l'erreur
    • Ensembles d'Entraînement, de Validation, de Test
    • Validation croisée
  • Retour sur les Arbres de Décision : élagage et extensions

Thème 2 (3h) : Approche statistique élémentaire

  • Généralités
    • Apprentissage de règles de classification
    • Principe de l'apprentissage bayésien
  • Approche paramétrique
    • Modélisation par gaussiennes
    • Apprentissage bayésien naïf
    • Mélange de gaussiennes et autres distributions : indications
  • Approche non paramétrique
    • Plus proches voisins
    • Validité
    • Algorithmes rapides
    • Noyaux de Parzen
    • Allusions à EM et aux SVM

Thème 3 (2h) : Régression et séparations linéaires

  • Régression (rappels si besoin)
    • Régression à une variable
    • Descente de gradient
    • Régression à plusieurs variables
  • Classification
    • Classification à seuil
    • Régression logistique
    • Marge et Vecteurs Support (indications)
  • Exercices

Thème 4 (1h30) : Réseaux multicouches classiques

  • Surfaces séparatrices non linéaires
  • Architecture d'un réseau multicouche
  • Rétropropagation du gradient de l'erreur
  • Réseaux auto-encodeurs

Thème 5 (1h) : Calcul en très grande dimension

  • Géométrie en grande dimension
  • Algèbre de calcul en grande dimension, liens avec l'apprentissage

Thème 6 (1h30) : Combinaison de méthodes

  • Apprentissage ensembliste : forêts de décision, dopage (boosting), bagging, cascading

Thème 7 (2h) : Ingénierie des données (notions)

Thème 8 (1h) : Réseaux de Hopfield

TP1 (3h encadrées)

  • Prise en main de scikit-learn Python
  • Essai de plusieurs méthodes et bases de données pour illustrer le surapprentissage et le réglage des méta-paramètres

TP2 (12h encadrées)

  • Étude et reprogrammation de l'un des deux articles [5],[6]

Références

  • [1] S. Russell and P. Norvig. Artificial Intelligence: A Modern Approach, 4th US edition, Pearson, 2020
  • [2] S. Russell et P. Norvig. Intelligence artificielle, 4ème édition, Pearson 2021
  • [3] V. Barra, A. Cornuéjols, L. Miclet. Apprentissage artificiel, Concepts et algorithmes, 4ème édition, Eyrolles 2021
  • [4] S. Shalev-Shwartz, S. Ben-David. Understanding machine learning. From theory to algorithms. Cambridge University Press. First edition 2014 (pdf available)
  • [5] T. Yu, Y. Zhang, Z. Zhang, C. De Sa. Understanding Hyperdimensional Computing for Parallel Single-Pass Learning, 2023, Advances in Neural Information Processing Systems 35, 1157-1169 (2023) et arXiv
  • [6] P. Neubert, S. Schubert, P. Protzel. An Introduction to Hyperdimensional Computing for Robotics. KI - Künstliche Intelligenz, vol 33, doi 10.1007/s13218-019-00623-z, September 2019
miclet/syllabus.txt · Last modified: 2025/10/09 01:13 by rdouc