Apprentissage Profond pour les problèmes d’optimisation combinatoire

Code UE : US336A

  • Cours
  • 2 crédits

Responsable(s)

Safia KEDAD SIDHOUM

Public, conditions d’accès et prérequis

Fondamentaux de la recherche opérationnelle. Bases d'apprentissage supervisé.

Objectifs pédagogiques

L'utilisation de couches d'optimisation combinatoire dans les pipelines d'apprentissage profond constitue un domaine récent et très dynamique à la frontière de la recherche opérationnelle et de l'apprentissage automatique. Du point de vue de l'apprentissage automatique, ces approches permettent de faire des prédictions sur des domaines combinatoires. Du point de vue de la recherche opérationnelle, ces techniques permettent de fournir de nouvelles heuristiques rapides pour des problèmes d'optimisation combinatoire data-driven ou des variantes de problèmes classiques. Les objectifs de ce cours sont (1) d'introduire ces pipelines et leurs applications, (2) de donner les éléments théoriques et pratique pour construire des architectures efficaces, et (3) d'introduire des méthodes d'apprentissage pour calibrer ces approches. Ce cours permettra également (4) d'introduire le calcul des probabilités dans les familles exponentielles, des outils de calcul des probabilités sur des espaces combinatoires qui trouvent leur origine en physique statistique et en apprentissage automatique.

Compétences visées

Savoir construire, apprendre, implémenter et analyser des pipelines d'apprentissage profond contenant des couches d'optimisation combinatoire. Connaitre les fondamentaux sur les familles exponentielles et l'inférence variationnelle.

Contenu

  • Couches d'optimisation combinatoire dans les pipelines d'apprentissage profond. La séance introduira la notion de pipeline de deep learning, la notion de couche d'optimisation combinatoire dans de tels pipelines, les challenges présentés par l'utilisation de telles couches et le type de problèmes de recherche opérationnelle pour lesquels ces approches fournissent des méthodes efficaces.
  • Maximum de vraisemblance et familles exponentielles. Après une introduction de la notion de familles exponentielle, la séance illustrera son utilité pour modéliser des distributions de probabilité sur des espaces combinatoires en grande dimension. La notion de maximum de vraisemblance sera introduite dans ce contexte.
  • Fonctions de pertes de Fenchel Young et apprentissage par imitation. La dualité de Fenchel-Young en optimisation convexe sera introduite en début de séance. Celle-ci permettra d'introduire la notion de régularisation convexe d'un problème d'optimisation combinatoire, puis les fonctions de perte de Fenchel Young pour l'apprentissage par imitation de prédicteurs à valeur dans des espaces combinatoires. Les approches de type smart predict then optimize seront introduites en fin de séance.
  • Apprentissage par expérience. Les liens entre régularisation d'un problème d'optimisation combinatoire et distribution de probabilité sur un espace combinatoire sous-jacent seront introduits. On introduira ensuite la notion de regret et l'apprentissage par expérience.
  • TP et Inférence variationnelle La première partie de la séance sera consacrée à l'inférence variationnelle (ou à rattraper le retard éventuel pris sur les autres séances). La seconde partie de séance sera consacrée au TP.
  • Optimisation stochastique contextuelle et examen final. La première heure sera consacrée aux liens entre les méthodes présentées et l'optimisation stochastique contextuelle. Le reste de la séance sera consacrée à l'examen.

Modalité d'évaluation

  • Examen final

Cette UE apparaît dans les diplômes et certificats suivants

Chargement du résultat...
Patientez
Intitulé de la formation
Type
Modalité(s)
Lieu(x)
Lieu(x) Package
Lieu(x) Paris
Intitulé de la formation Type Modalité(s) Lieu(x)

Contact

Recherche opérationnelle
2D4P20, 33-1-10, 2 rue Conté
75003 Paris
Tel :01 40 27 22 67
secretariat.ro@cnam.fr

Voir le calendrier, le tarif, les conditions d'accessibilité et les modalités d'inscription dans le(s) centre(s) d'enseignement qui propose(nt) cette formation.

Enseignement non encore programmé