Optimisation Convexe: Algorithmes et Applications en Appréntissage
Calendrier, planning et modalités
6 séances de cours-TD, les 15 et 29 septembre, 6 et 13
octobre, 3 et 17 novembre, pour un total de 12hCM+6hTD. Chaque séance a lieu de
14h à 17h15 et toujours en salle 5 du déambulatoire,
sauf le 6/10 en salle 3 (voir ADE).
4 séances de TP par groupe.
Les TP sont assurés par Roland Denis et Frédéric
Lagoutière.
L'examen écrit (50% de la note) est prévu le 8
décembre. Le reste de la note est basé sur un TP noté.
Programme du cours
1) (séance du 15/9)
Introduction à
l'optimisation et à ses applications en apprentissage.
Exemples de problèmes d'optimisation. Rappels sur l'existence
des minimiseurs et leur unicité.
Algorithmes de gradient dans le cas lisse et uniformément convexe.
Algorithme de gradient à pas fixe pour la minimisation sans
contraintes. Minimisation convexe sous contraintes,
projection. Gradient projeté.
2) (séance du 29/9)
Gradient et gradient
accéléré pour l'optimisation lisse.
Optimisation non-lisse.
3) (séance du 6/10)
Analyse convexe et dualité convexe
TD
4) (séance du 13/10)
Encoure dualité et algorithmes basés sur la dualité
TD
5) (séance du 14/10)
Algorithme de gradient stochastique
TD
6) (séance du 4/11)
Compléments
TD
Exercices, Annales, et Examen
Feuille de TD: ici.
Annales d'examen:
2022;
2023 (ici une version avec corrigé).
2024 (ici une version avec corrigé).
Références
Un poly informel sur le contenu du cours: voir ici ( en anglais ; version revisée
le 5/10).
Sinon vous pouvez consulter le livre de Ph. Ciarlet Introduction
à l'analyse numérique matricielle et à
l'optimisation, chapitre 8 et l'article
original de Beck et Teboulle sur la méthode FISTA; le livre récent de G. Carlier Classical and Modern
Optimization (en général pour
l'optimisation, y compris les bases de calcul
différentiel mais également les applications en sciences
de données au chapitre When optimization and data meet).