Optimisation Convexe: Algorithmes et Applications en Appréntissage

Calendrier, planning et modalités

6 séances de cours-TD, les 16, 20 et 30 septembre, 7 et 14 octobre, 4 novembre, pour un total de 12hCM+6hTD. Chaque séance a lieu de 14h à 17h15 (sauf le 20/9, où ce sera 9h45-13h ; voir ADE pour les salles précises à chaque fois).

4 séances de TP par groupe.
Les TP sont assurés par Roland Denis et Frédéric Lagoutière.

Programme du cours

  • 1) (séance du 16/9)
    Introduction à l'optimisation et à ses applications en apprentissage.
    Exemples de problèmes d'optimisation. Rappels sur l'existence des minimiseurs et leur unicité.
    Algorithmes de gradient dans le cas lisse et uniformément convexe.
    Algorithme de gradient à pas fixe pour la minimisation sans contraintes. Minimisation convexe sous contraintes, projection. Gradient projeté.
  • 2) (séance du 20/9)
    Gradient et gradient accéléré pour l'optimisation lisse.
    Ordre de convergence 1/k; ordre 1/k2 pour le gradient accéléré de Nesterov.
    Optimisation non-lisse.
    Sous-différentiel et algorithme du sous-gradient.
    Opérateur proximal. Algorithme du gradient proximal pour min f+g, dans le cas f elliptique ou juste lisse. Méthodes ISTA et FISTA.
  • 3) (séance du 30/9)
    Analyse convexe et dualité convexe
    Définition de la transformée de Fenchel-Legendre. f**=f. Lien avec le sous-différentiel et l'opérateur proximal. Dualité.
    TD
    Exos 1-3 de la feuille de TD.
  • 4) (séance du 7/10)
    Encoure dualité et algorithmes basés sur la dualité
    Uzawa pour les contraintes d'égalités linéaires, inégalités linéaires, inégalités convexes. Lagrangien augmenté. Convergence d'Uzawa avec contraintes déinégalités linéaires.
    TD
    Exos 4-6 de la feuille de TD.
  • 5) (séance du 14/10)
    Algorithme de gradient stochastique
    Principe et preuve de convergence de l'algorithme de gradient stochastique pour une fonction convexe ou elliptique. Exemples d'applications. quelques mots sur l'importance sampling.
    TD
    Exos 7, 8, 10, 11 de la feuille de TD.
  • 6) (séance du 4/11)
    Compléments
    Exemples de problèmes d'optimisation convexe en apprentissage: séparation linéaire de nuages de points; résolution sparse d'un système linéaire par minimisation de la norme 1.
    TD
    Exos 12, 14 de la feuille de TD.


    Exercices et Annales

    Feuille de TD: ici.

    Annales d'examen:
    2022;
    2023 (ici une version avec corrigé).

    Références

    Un poly informel sur le contenu du cours: voir ici ( en anglais).
    Sinon vous pouvez consulter le livre de Ph. Ciarlet Introduction à l'analyse numérique matricielle et à l'optimisation, chapitre 8 et l'article original de Beck et Teboulle sur la méthode FISTA; le livre récent de G. Carlier Classical and Modern Optimization (en général pour l'optimisation, y compris les bases de calcul différentiel mais également les applications en sciences de données au chapitre When optimization and data meet).