Événements à venir |
|
Événements passés |
Résumé : Une surface (S, g) est polyédrique si tout point admet un voisinage isométrique soit à un disque, soit à un voisinage du sommet d’un cône euclidien (non aplati). En 1996, Burago et Zalgaller ont montré que toute surface polyédrique orientée admet un plongement linéaire par morceaux (PL) et isométrique dans R^3. La preuve n’est pas constructive et trouver des plongements isométriques explicites est une tâche délicate. Grâce à un pliage astucieux permettant de courber un cylindre de façon PL, Zalghaller fournit des constructions explicites de plongements isométriques de tores rectangles dit ”longs”. Dans cet exposé, je vous propose de découvrir comment construire un tore rectangle ”court” à travers des pliages origamiques. Cette construction fait apparaître 40 sommets. Si l’on oublie la contrainte isométrique, il a été montré que 7 sommets suffisent. Pourrait-il exister un tore plat origamique ayant seulement 7 sommets ? |
Résumé : Les polyn\^omes unitaires de Laguerre $L_n^{(\alpha)}(x)$ sont definis par la fonction g\'en\'eratrice \begin{align*} (1+t)^{-\alpha-1}\exp\left(\frac{xt}{t+1}\right)=\sum_{n=0}^\infty L^{(\alpha)}_n(x) \frac{t^n}{n!} \end{align*} et satisfont la relation de r\'ecurrence \`a trois termes \begin{align*} L^{(\alpha)}_{n+1}(x)=(x-(2n+\alpha+1))L^{(\alpha)}_n(x)-n(n+\alpha)L^{(\alpha)}_{n-1}(x). \end{align*} En 1984, Foata et Strehl ont donn\'e une interpr\'etation combinatoire pour les polyn\^omes de Laguerre en construisant un mod\`ele qui s'appelle la configuration de Laguerre. Rappelons-nous qu'une configuration de Laguerre sur $[n]:=\{1,\cdots,n\}$ est un couple $(A,f)$, o\`u $A\subset [n]$ et $f$ est une injection de $A$ \`a $[n]$. Dans cet expos\'e, nous nous concentrerons sur des polyn\^omes plus g\'en\'eraux, c'est-\`a-dire les polyn\^omes de $(q,y)$-Laguerre $L_n^{(\alpha)}(x;y;q)$, qui sont definis par la relation de r\'ecurrence \begin{align*} L^{(\alpha)}_{n+1}(x;y;q)&=\left(x-(y[n+\alpha+1]_q+[n]_q)\right)L^{(\alpha)}_n(x;y;\,q)\\ &\hspace{1.5cm}-y[n]_q[n+\alpha]_q\,L^{(\alpha)}_{n-1}(x;y;\,q) \qquad (\alpha\geq -1, \; n\geq 1)\nonumber, \end{align*} o\`u $L^{(\alpha)}_{0}(x;y;q)=1$, $L^{(\alpha)}_{-1}(x;y;q)=0$. Nous donnerons aussi une interpr\'etation combinatoire pour les coefficients des polyn\^omes de $(q,y)$-Laguerre. |
Résumé : Les variétés toriques compactes sont les compactifications équivariantes des tores algébriques (C*)^n. Elles forment une classe agréable de variétés algébriques ou kählériennes sur lesquelles on peut souvent faire des calculs explicites qu'on ne peut pas faire sur des variétés générales.
J'expliquerai dans cet exposé comment le problème de l'existence de métriques de Kähler-Einstein sur des variétés toriques Fano se ramène à des équations de Monge-Ampère complexes sur (C*)^n puis à des équations de Monge-Ampère réelles sur R^n (les équations de Monge-Ampère sont des EDPs impliquant le déterminant de la hessienne).
J'expliquerai tous les gros mots de ce résumé pendant l'exposé, de manière compréhensible pour un enfant de (vingt) deux ans. |
Résumé : Il y a fort longtemps, lorsque les calculatrices n'existaient pas encore, le moyen le plus efficace que trouvèrent les hommes pour calculer facilement des logarithmes fut de compiler sous forme de livre des dizaines de milliers de valeurs précalculées. Notre histoire commence en 1881 lorsque Simon Newcomb réalise pour la première fois que ces fameuses tables de nombres sont usées de manière très inégale. Plus précisément, il réalisa que ses confrères étaient bien plus intéressés par les logarithmes des nombres commençant par un 1 plutôt que par un 9. Après un article sans grand succès, sa trouvaille tombera dans l'oublie jusqu'en 1938 où Frank Benford alors économiste de son état remarquera lui aussi cette usure surprenante. Sa curiosité le pousse à calculer de manière expérimentale la loi du premier chiffre significatif pour toutes sortes de données, allant de la taille des fleuves au cours de la bourse et en passant par la liste des constantes physiques les plus classiques. Et quelle ne fut pas sa surprise ! Si vous voulez connaître la suite de cette histoire, apprendre un moyen imparable de falsifier vos données expérimentales ou préparer votre prochaine évasion fiscale, rejoignez-nous lundi au séminaire des doctorants !! |
Résumé : La physique de terminale vous manque, vous souhaitez apprendre à |
Résumé : En théorie des matrices aléatoires, l'objet d'étude est bien souvent le spectre de matrices auto-adjointes dont les entrées sont aléatoires. En particulier : quelle est la répartition des valeurs propres de ces matrices quand on fait tendre leurs tailles de vers l'infini ? Dans cet exposé, je m’intéresserai aux modèles de matrices aléatoires les plus connus ainsi qu'aux grands théorèmes limites concernant le spectre de ces matrices. J'expliciterai également les liens entre matrices aléatoires et analyse fonctionnelle grâce aux probabilités libres, qui fournissent un cadre calculatoire élégant lorsqu'on étudie les polynômes de matrices aléatoires. |
Résumé : Étant donnée une variété de Calabi-Yau torique X, la théorie des cordes topologiques associe à X sa fonction de partition des cordes topologiques, qui est une fonction Z_X à deux variables q et t. La première variable, q, est reliée à la constante de couplage de deux cordes, notée u, via la relation q = - e^{iu}. La deuxième variable est le paramètre de Kähler. La fonction de partition Z_X admet des développements en série de Laurent différents suivant les intervalles de valeurs considérés pour q et pour t, et les coefficients de ces développements fournissent des invariants de X. Vous n’avez rien compris ? Pas de problème, c’est tout l’enjeu de cet exposé! Dans un article de 2008, B. Szendrői explique comment réduire le calcul de ces invariants à un problème purement combinatoire, à l’aide d’un exemple que nous présentons dans cet exposé. Pour ce faire on parlera d’actions de tores, de partitions pyramidales et de modèles de dimères. |
Résumé :
|
Résumé : La recherche de régularités inévitables est un des sujets d’études les plus fréquents en combinatoire. Dans le cadre de la combinatoire des mots, les répétitions, et particulièrement les puissances, sont particulièrement bien étudiées. Seules, les puissances ne donnent pas naissance à une régularité inévitable, mais combinées à leur opposé, les antipuissances, c’est le cas. L’objectif de cet exposé sera donc d’introduire ces notions, ainsi que les définitions basiques de combinatoire des mots, et de démontrer (élémentairement) le résultat énoncé plus haut. Si le temps le permet, on parlera d’une généralisation de ces concepts dans le cas abélien et on verra que la théorie de Ramsey peut nous permettre de trouver des mots contenant des puissances infinies à la pelle. |
Résumé : Le but de cet exposé est de parler de l'efficacité des pots-de-vin (après tout, on est en période d'élections). L'outil principal sera un théorème génial : le « théorème KKL ». J'espère que cet exposé intéressera : (i) les personnes qui aiment l'analyse fonctionnelle (le théorème KKL est une amélioration d'une inégalité de type Poincaré), (ii) les personnes qui aiment les probabilités (ce sera un exposé de probabilités discrètes), (iii) les personnes qui aiment les pots-de-vin et (iv) les personnes qui n'aiment ni l'analyse fonctionnelle ni les probabilités ni les pots-de-vin. |
Résumé : In this talk, which is not the subject of my own research, we will give an introduction to numerical approximations to nonlinear conservation laws and we will try to see how convergence estimates can be obtained in various cases, and whether these estimates are optimal or not. We will try to start with very basic definitions and will probably only cover results that are classical for the audience familiar with these subjects. |
Résumé : « Un coloriage d'un graphe consiste à attribuer une couleur à chacun de ses sommets de sorte que deux sommets reliés par une arête soient de couleurs différentes. Dans cet exposé, nous nous intéresserons aux coloriages de certains graphes infinis qui apparaissent naturellement lorsqu'un groupe dénombrable agit sur un espace. Par exemple, on peut penser au graphe construit à partir d'une « rotation irrationnelle » sur le cercle. Ici, le groupe des entiers relatifs agit sur le cercle, et induit un graphe : on relie deux points du cercle par une arête exactement lorsque la rotation irrationnelle envoie l'un des points sur l'autre. On peut alors se demander quelles informations l'on obtient sur le groupe en s'intéressant aux coloriages des graphes qu'il induit. En me basant sur des travaux de Conley et Kechris, j'introduirai plusieurs invariants combinatoires (nombre d'indépendance, nombre chromatique) dans ce contexte, qui permettent de déduire des informations des graphes vers les groupes, et vice-versa. » |
Résumé : We study the asymptotic behavior of stationary solutions to a quantitative genetics model with trait-dependent mortality and a nonlinear integral reproduction operator with a parameter describing the deviation between the offspring and the mean parental trait : the infinitesimal model. It accounts for the mixing of parental phenotypes at birth. |
Résumé : À la croisée de la théorie de la mesure et de la géométrie, l’inégalité de Pólya-Szegő affirme que l’énergie des fonctions de Sobolev est décroissante pour le réarrangement symétrique décroissant. Cette inégalité, en lien avec l’inégalité isopérimétrique (et donc l’inégalité arithmético-géométrique), a notamment permis d’expliciter des maximiseurs dans l’inégalité de Sobolev. Je sais, ça fait beaucoup d’inégalités, mais j’introduirai toutes les notions nécessaires, et j’apporterai des preuves (élémentaires !) des résultats. |
Résumé : Si l'on regarde un damier de près, on verra bien qu'il est constitué de cases blanches et de cases noires. En revanche, si on l'observe d'une distance très grande, il nous semblera gris. De la même manière, si le damier n'a pas été coloré de manière périodique mais que les cases ont été peintes en noir ou en blanc de manière indépendante et identiquement distribuée, le même phénomène se produira. Mais une question se pose alors naturellement : si les cases peintes en blanc ont une conductivité thermique donnée et celles en noir en ont une autre, pourra-t-on considérer que le damier obtenu se comporte à grande échelle comme un matériau homogène dont la conductivité est la moyenne de ces dernières ? |
Résumé : Quels sont les points communs entre un corps algébriquement clos, un espace vectoriel et un graphe aléatoire ? |
Résumé : Le SiteSwap est au jonglage ce qu’une partition est à la musique! Introduit dans les années 1980, il s’agit d’une notation mathématique compacte (suite particulière d’entiers naturels) décrivant le rythme des lancers de balles d’un jongleur, et donc leurs trajectoires. Dans cet exposé introductif ne demandant ni prérequis mathématiques, ni don surnaturel pour l’art de la jonglerie, je présenterai le SiteSwap et expliquerai en quoi il permet de classifier, dénombrer, et mieux comprendre les différentes figures jonglables. À la fin de l’exposé, vous saurez comment un jongleur interprète un joli "4413", ou encore un ambitieux "7531", et aurez vu quelques propriétés arithmétiques et combinatoires
sous-jacentes aux séquences jonglables, ainsi que leur lien avec les automates finis. |
Résumé : Les formes modulaires apparaissent naturellement dans différentes branches des mathématiques. Le fait que ces objets vivent dans des espaces de dimension finie impliquent d’énormes connexions entre ces divers domaines : la théorie des nombres, bien sûr, mais aussi la combinatoire, la géométrie et la physique mathématique. Les applications et les conséquences de cette théorie sont nombreuses : en résolution d’équations diophantiennes (la preuve du dernier théorème de Fermat en est un exemple), en cryptographie et codage, en théorie des réseaux, et même en optimisation. Ça, c’est ce qu’on pourrait dire pour le paragraphe « Enjeu socio-économique de votre thèse » de SIGED. Ce que je montrerai dans cet exposé, c’est notamment une preuve bien trop compliquée du fait suivant : pour tout entier n, $n^7\equiv n^3 \pmod{120}$ (j’ai vérifié pour 2...). |
Résumé : Soient K un corps et d>1 un entier. Une série formelle f(z) à coefficients dans K est dite d-mahlérienne sur K(z) s'il existe des polynômes non tous nuls P_{0}(z),..., P_{n}(z)\in K[z] tels que P_{0}(z)f(z)+P_{1}(z)f(z^{d})+...+P_{n}(z)f(z^{d^{n}})=0. Considérons f_{1}(z),...,f_{n}(z) des fonctions d-mahlériennes et \alpha un nombre algébrique sur K. Le but de cet exposé est de présenter le résultat selon lequel, sous certaines conditions que nous expliciterons, toute relation linéaire sur \overline{K} entre f_{1}(\alpha),...,f_{n}(\alpha) provient de la spécialisation en z=\alpha d'une relation linéaire fonctionnelle sur $\overline{K}(z) entre f_{1}(z),\ldots,f_{n}(z). Lorsque K est un corps de nombres, ce type de résultat a été récemment établi par P. Philippon d'une part et B. Adamczewski et C. Faverjon d'autre part, raffinant un résultat fondamental de Ku. Nishioka. Nous présenterons et illustrerons ici l'analogue de ces travaux dans le cas où K est un corps de fonctions en caractéristique p>0. |
Résumé : Lors de cet exposé, je présenterai des outils et des notions issus de deux des facettes de l'Analyse. D'un côté, l'espace de Hardy et les opérateurs de composition sont issus de l'analyse complexe. De l'autre, les semigroupes sont des objets naturels notamment pour l'étude des EDPs. Ces deux clans n'ayant a priori rien à se dire, je les présenterai, les confronterai et les forcerai à dialoguer. |
Résumé :
Le groupe des transformations d'échange d'intervalles (IET) est formé de translations par morceaux du cercle R / Z. Ces applications ont été introduites par Michael Keane en 1975 et sont étudiées sous un point de vue dynamique. L'étude d'IET a aujourd'hui amené à la construction de groupes qui sont à la fois infinis, de type fini, simples et moyennables en particulier par le travail de Kate Juschenko et Nicolas Monod (2013).
L'objectif de cet exposé est d'introduire le groupe IET, puis après un rappel sur le produit tensoriel, de démontrer l'isomorphisme trouvé par Arnoux-Fathi-Sah (1980). Cet isomorphisme identifie l'abélianisé de IET avec R ^Q R et marque le début de l'étude d'IET en tant que groupe. |
Résumé : On fera de l'analyse fonctionnelle (mais sur l'espace fini {-1,1}^n !) dans le but d'expliquer des phénomènes de transition de phase. En particulier, on essaiera de parler d'inégalités isopérimétriques et de faire un lien entre ces inégalités et l'image de l'affiche. |
Résumé : La réécriture est une théorie orientée du calcul dans laquelle on voit les relations entre expressions mathématiques comme des règles de réduction. Une telle théorie trouve des applications algébriques pour trouver des règles de cohérence : on cherche des relations entre des relations ! Notre but sera de donner une porte d'entrée sur la réécriture et ce type d'application pour permettre à tous de s'amuser à calculer sur des calculs. |
Résumé : Je présenterai un modèle de jeu à champs moyen, dont la notion a été introduite en 2006 par J-M. Lasry et P-L. Lions, où chaque agent choisit une trajectoire constante par morceaux qui minimise un coût composé du nombre de « sauts » et d’une intégrale en temps d’une fonction suffisamment régulière qui dépend du temps, de la position et de la densité. Ce problème est motivé par la réalisation d’un modèle de population habitant une ville et déménageant selon leur préférence et la densité. Chaque « saut » correspond ainsi à un déménagement d’une adresse à une autre. Nous étudierons tout d’abord le modèle d’un point de vue Lagrangien où nous considérons les mesures de probabilités sur les trajectoires de chaque agent. Ensuite, nous verrons que le problème peut être abordé d’un point de vue Eulérien où on considère l’évolution de la densité de la population. Cette formulation du problème permet de faire apparaître une régularité Lipschitz en temps à valeurs dans $L^2$ de la densité optimale. |
Résumé : La théorie mesurée des groupes s'intéresse aux actions de groupe dénombrable sur un espace de probabilité. Étant donné deux actions sur un même espace de probabilité, nous disposons de plusieurs manières de les comparer. Une première est de voir si ces actions sont conjuguées. Une seconde est de se demander si ces actions engendrent les mêmes orbites. Tout naturellement, deux actions conjuguées engendrent les mêmes orbites. Quid de l'autre sens ? Plus généralement, peut-on trouver des actions "rigides", dans le sens où il suffit qu'elles vérifient une propriété "faible" pour en vérifier une autre, plus "forte" ? Que peut-on dire au niveau des groupes eux-mêmes ? Après avoir donné un aperçu de la théorie mesurée des groupes, voilà le type de questions que l'on se posera. |
Résumé : On fera des rappels sur les espaces L^p dans un contexte assez général, puis l'énoncé, quelques conséquences classiques et non classiques, et la preuve du (fameux !) théorème de Riesz-Thorin. |
Résumé : Artin and Whaples showed it in 1945. There are two (and only two) possible « worlds » in which one can do arithmetic. One is much more present in our daily life: it is the usual number theory over number fields (finite field extensions of $\mathbb{Q}$). But on the other side of the mirror, there is the arithmetic over function fields in positive characteristic. Most of the known theorems and conjectures in number theory have a counter part in function fields arithmetic, and the former statements are in general easier to prove in the function fields case. It is believed that « a theory of everything », mixing and understanding both worlds at once, would have outstanding consequences in arithmetic. My talk will be devoted to the introduction of function fields arithmetic. |
Résumé : Vous avez toujours voulu savoir ce qu'est l'homologie d'un poset, sans jamais oser le demander? Vous aimez les simplexes? Cet exposé est fait pour vous ! Après avoir défini les posets et les complexes simpliciaux qui y sont associés, nous introduirons un invariant des posets, appelés nombre de Möbius. Ce nombre de Möbius se trouve être lié à la caractéristique d'Euler du poset, qui est la somme alternée des dimensions des groupes d'homologie du poset. A l'aide d'exemples et de calculs explicites, nous vous ferons découvrir le monde merveilleux de l'homologie des posets. |
Résumé : Nous présenterons le modèle de dimers sur le réseau hexagonal. Ce modèle est remarquable par la diversité des points de vues sous lequel il peut être abordé, d'où l'apparente contradiction dans le titre. Nous nous intéresserons à résultat sur la vitesse de convergence d'une dynamique aléatoire. Ceci nous permettra de présenter sur un exemple un ensemble de méthodes classiques en probabilité discrète.
L'exposé essayera d'être accessible à tous et ne demandera aucune connaissance en proba. En particulier nous travaillerons uniquement avec des ensembles finis et des tirages de pile ou face. |
Résumé : Dans cet exposé nous allons nous intéresser à certaines propriétés des racines complexes de polynômes à coefficients aléatoires et dont le degré tend vers l'infini. Nous verrons quels sont les résultats et les questions importantes de ce domaine d'étude. Ensuite nous nous concentrerons sur le cas où les coefficients sont des variables gaussiennes centrées i.i.d. car ce modèle permet d'effectuer des calculs exacts.
Pour ce modèle, nous énoncerons un principe de grandes déviations et tenterons de comprendre la "physique" de ce modèle, qui est relié au comportement de gaz de Coulomb dans C en présence d'un potentiel faiblement confinant (tout cela sera expliqué avec le moins de jargon possible). Enfin, si le temps le permet, nous essaierons de comprendre pourquoi la loi de la plus grande racine est toujours à queue lourde. |
Résumé : Lundi prochain, venez découvrir un monde ultramagique dans lequel une petite graine plantée sous terre se retrouve immédiatement au centre de notre planète.
Ce monde ne vous semble pas réel ? Et pourtant, il est complet...
Alors, si vous aussi voulez savoir comment contrarier Archimède tout en plaisant à Newton, venez rejoindre la secte des p-addicts ! |
Résumé : Je vous présenterai dans cet exposé mon sujet d'étude, les équations de Navier-Stokes stationnaires incompressibles. Je commencerai par expliquer ce qu'elles sont et d'où elles viennent, puis j'expliquerai les méthodes obtenues pour montrer l'existence et l'unicité de solutions "petites" (proches de la solution nulle). Enfin je donnerai une idée de la façon dont on peut déterminer le comportement asymptotique de ces solutions dans un domaine non borné. |
Résumé : A l'ère des données dites massives, la structure particulière des données fonctionnelles est un sujet de recherche très étudié.
Sur un jeu de données montrant les problèmes que l'on peut rencontrer, nous illustrerons dans cet exposé quelques réponses pour tirer partie de cette structure fonctionnelle sous-jacente, comme l'alignement des données, ou l'apport des modèles mixtes fonctionnels pour capturer la variabilité individuelle.
Cet exposé sera aussi l'occasion de présenter le club lycéen Animaths de Pristina. |
Résumé : L'attracteur de Lorenz est un des objets des systèmes dynamiques les plus connus. Aux yeux des mathématiciens, il est une incarnation du chaos et a bouleversé la théorie en modifiant en profondeur la conception que l'on avait des systèmes dynamiques dits stables.
Nous verrons comment il est étonnamment apparu, ce qu'il a apporté à la théorie des systèmes dynamiques, et ses propriétés fondamentales. |
Résumé : Le but de cet exposé est de vous présenter une approche intuitive de la théorie des modèles, discipline largement abstraite et donc potentiellement obscure pour certains d'entre vous. Je m’appuierai donc sur des notions de géométrie algébrique bien connues pour mieux les généraliser. Je parlerai ensuite d'un exemple d'application de ces notions à un problème de combinatoire multiplicative : la classification des groupes approximatifs (qui a dit que c'était mon sujet de thèse ?). |
Résumé : Depuis que les Hommes sont des Hommes, ils se sont posé la question de l'analyse p-adique... et ils ont eu raison ! Ils ne se sont pas forcément rendu compte tout de suite à quel point elle était particulièrement plus simple et agréable que l'analyse réelle, voire même que l'analyse complexe (au moins sur certains points), mais ils ont tout de suite compris l'intérêt et le potentiel de l'analyse p-adique.
Dans cet exposé, je vous proposerai de découvrir quelques propriétés agréables de l'analyse p-adique, les différences majeures avec le cas réel et, si nous avons le temps, d'essayer de voir à quoi cela peut servir. |
Résumé : Les groupes d'automorphismes de structures homogènes dénombrables, comme celui du graphe aléatoire ou de l'ensemble ordonné des nombres rationnels, sont une source intéressante de groupes topologiques. Certaines propriétés de ces groupes, comme l'existence d'une classe de conjugaison comaigre (un automorphisme générique), peuvent être étudiées à partir des propriétés d'amalgamation de la classe des sous-structures finies de la structure homogène originale. On décrira ce lien et, si le temps le permet, on parlera des applications aux homéomorphismes minimaux de l'espace de Cantor. |
Résumé : EN: Non-uniqueness of flows for Sobolev vector fields The advection of a passive scalar by a rough vector field can serve as a simple model for turbulence. Accordingly in 1989, DiPerna and Lions brought forward a theory for the advection of a passive scalar by a divergence-free Sobolev vector field. For those vector fields, their point of view has established the existence and uniqueness of an almost incompressible flow which we shall refer to as the DiPerna-Lions flow. However, the existence of other flows, which strongly deform the Lebesgue measure, is not excluded. In this talk, we will explain how convex integration techniques can reveal a multitude of flows other than that of DiPerna-Lions. FR : Non-unicité des flows pour les champs de vecteurs de Sobolev L’advection d’un scalaire passif par un champ de vecteurs rugueux peut servir de modèle simple à la turbulence. Ainsi en 1989, DiPerna et Lions proposent une théorie pour l’advection d’un scalaire par un champ de vecteurs de Sobolev à divergence bornée. Pour ces champs de vecteurs, leur point de vue permet entre autres d’établir l’existence et l’unicité d’un flow presque incompressible qu’on appellera flow de DiPerna-Lions. Cependant, l’existence d’autres flows, qui eux déformeraient la mesure de Lebesgue fortement, n’est pas exclue. Dans cette exposé, nous expliquerons comment des techniques d’intégration convexe peuvent révéler une multitudes de flows autres que celui de DiPerna-Lions. |
Résumé : L’étude des équations polynomiales par Évariste Galois a donné naissance à la théorie de Galois. La résolution de ces équations jusqu’au degré 4 est connue depuis le XVIe siècle. Les approches utilisées (changements de variables, substitutions) n’avaient pas permis de résoudre des équations de degré supérieur. Deux siècles ont été nécessaires pour aller au-delà du degré 4 grâce à de nouvelles idées et notions : l’introduction du groupe de Galois. Je présenterai le cheminement qui a permis d’obtenir un critère de résolubilité par radicaux d’une équation polynomiale. J’expliquerai ensuite comment ces idées ont été transposées à l’étude des solutions des équations différentielles linéaires. Quelles sont les informations qu’un groupe de Galois différentiel peut fournir ? Quelle structure a ce groupe ? On fera un détour par l’analyse, avec la monodromie, pour construire des éléments de ce groupe. En résumé, je vous propose une petite balade de la théorie de Galois classique à la théorie de Galois différentielle en passant de l’algèbre à l’analyse pour vous faire découvrir une partie de l’étendue de cette théorie. |
Résumé : Deux observateurs (généralement prénommés Alice et Bob) effectuant des mesures binaires sur des sous-parties d'un système global peuvent obtenir des résultats plus fortement corrélés lorsqu'ils partagent un état quantique intriqué que lorsqu'ils ne partagent que de l'aléa commun. Ce phénomène bien connu, dit de violation d'inégalités de Bell (et dont la vérification expérimentale est un des grands succès de la mécanique quantique), peut précisément se caractériser mathématiquement. En effet, être une matrice de corrélations classique ou quantique correspond exactement à être dans la boule unité de certaines normes tensorielles.
Je commencerai par expliquer tout cela en détail. Ensuite, je m'intéresserai au problème suivant: étant donnée une matrice aléatoire de taille n, peut-on estimer la valeur typique de ses normes "classique" et "quantique", lorsque n devient grand ? Pour une large classe de matrices aléatoires, la réponse est oui, et montre une séparation entre les deux valeurs. Ce résultat peut si on veut s'interpréter de la façon suivante : "typiquement", Alice et Bob ont strictement plus de pouvoir s'ils sont quantiques que classiques !
Sur le plan technique, nous aurons besoin pour montrer tout cela d'une pincée de propriétés sur les matrices aléatoires et d'une bonne dose de concentration de la mesure en grande dimension. Mais vous verrez, c'est très chouette... en tout cas c'est ce dont j'espère vous avoir convaincu à la fin de l'exposé... ! |
Résumé : Je vais expliquer les bases de la théorie des espaces de modules en géométrie complexe et algébrique. Un espace de modules, ce n'est rien d'autre qu'un espace de paramètres d'une classe d'objets, par exemple l'espace de modules de droites qui passent par l'origine est l'espace projectif. Je vais rappeler la définition et quelques propriétés des surfaces de Riemann et puis je vais décrire leur espace de modules. |
Résumé : |
Résumé : Les Marches Quantiques Ouvertes furent définies en 2012 par, entre autres, Stéphane Attal et Christophe Sabot. Elles peuvent à la fois être décrites comme un processus stochastique sur un graphe, avec une règle très particulière pour calculer les probabilités de transition, ou bien comme un certain type de canal quantique. La plus grande partie de cette présentation concernera la définition de tous ces objets. Le temps restant, je parlerai d'un projet en commun avec Cécilia Lancien concernant ces marches. |
Résumé : Une carte est un graphe dessiné sur la sphère. Choisir au hasard une carte avec beaucoup de sommets permet de construire des réseaux aléatoires infinis.
À travers l’exemple des triangulations et quadrangulations à bord, on s’intéressera à deux techniques permettant d’étudier ces objets.
La première, introduite par Angel, porte le nom d'«épluchage» et consiste à révéler successivement les faces du réseau. La seconde, popularisée par Schaeffer, a pour principe de mettre en bijection les cartes avec certains arbres munis d’étiquettes sur leurs sommets.
On verra que la première technique est bien adaptée à l’étude de la percolation, alors que la seconde fournit des informations sur la géométrie de ces réseaux aléatoires. |
Résumé : Le sujet de cet exposé est la limite de diffusion anormale de l'équation de Vlasov-Fokker-Planck fractionnaire dans un domaine borné. Je présenterai cette description cinétique du mouvement des particules dans un plasma et je montrerai comment on peut déduire de ce modèle le comportement macroscopique de ce plasma. Je m'intéresserai tout particulièrement à l'interaction entre le phénomène de diffusion non-locale décrit dans l'équation de Vlasov-Fokker-Planck fractionnaire et les conditions aux bords réflectives du domaine spatial. |
Résumé : Un polymère est une chaîne d'unités répétées, appelées monomères, chacune ayant un degré différent d'affinité avec certains solvants. Une des motivations physiques qui rend l'étude des polymères intéressante est la présence de phénomènes de localisation-délocalisation quand un polymère est proche de l'interface qui divise les deux solvants, et l'existence d'une transition de phase qui sépare le comportement localisé et délocalisé du polymère. Dans cet exposé on introduira les modèles mathématiques qui sont utilisés pour étudier ces phénomènes et les résultats classiques de cette théorie. |
Résumé : Une préoccupation centrale des arithméticiens est la résolution d’équations polynomiales, avec la restriction que les solutions soient entières, ou au moins rationnelles. Une idée directrice est de voir l'ensemble des solutions d'une telle équation comme une courbe (ou une hypersurface), et d'utiliser des méthodes géométriques pour déterminer les solutions : par exemple, un seul point à coordonnées rationnelles sur un cercle permet d'obtenir tous les autres, en considérant les points d'intersection de ce cercle avec les droites passant par notre point de base. |
Résumé : La géométrie de contact concerne l'étude de certains champs d'hyperplans. Sans le savoir, vous faites face quotidiennement à cette géométrie : quand vous faites du patin à glaces ou quand vous garez votre voiture, votre mouvement est contraint à rester infinitésimalement dans un hyperplan. Je ne vous promets pas de savoir faire un créneau après mon exposé, mais plutôt d'avoir une petite idée de ce qu'est la géométrie de contact. |
Résumé : Physique, Biologie, chimie, économie et même propagation de zombies : les équations aux dérivées partielles (EDP) offrent un champ d’applications très vaste pour modéliser des phénomènes naturels ou sociaux. À première vue, pourtant, la proposition précédente est très paradoxale. En effet, elle suppose que tous ces phénomènes présentent les régularités nécessaires pour pouvoir les modéliser par des fonctions ayant des dérivées. Ainsi, donc, les cours de la bourse seraient des courbes parfaitement lisses et la transition entre l’eau et l’huile se ferait de manière continue… Les EDPistes ont résolu ce problème en introduisant la notion de formulation faible. La formulation faible la plus célèbre est celle au sens des distributions, mais il en existe également d’autres, parmi lesquelles la formulation au sens des viscosités, très utile dans le cadre des équations de Hamilton-Jacobi. Je vous propose dans cet exposé de vous rappeler comment résoudre des EDP très simples et de voir pourquoi la notion de solutions faibles s’est avérée nécessaire. J’expliquerai ensuite ce qu’est une équation de Hamilton-Jacobi et présenterai la formulation au sens des viscosités. |
Résumé : The word "Operad" was used for the first time in "The Geometry of Iterated Loop Spaces" by J. Peter May as a mix between the words "operations" and "monad". Initially they were studied in homotopy theory but more recently they became fondamental tools in many different areas: homological algebra, category theory, algebraic geometry, mathematical physics, logic, and algebraic topology. The aim of this talk is to present a definition and possible motivations to these important objects, starting from the particular case of vector spaces and then generalizing it. |
Résumé : Nous étudieront quelques propriétés d'une généralisation du jeu de pierre-feuille-ciseau. Cela nous permettra de présenter une curieuse intersection entre compétition sportive, théorie du choix social, probabilité et système dynamique. Au niveau mathématique ce sera l'occasion de voir comment la théorie des martingales peut être utilisée pour étudier des systèmes dynamiques aléatoires très simplement, presque avec des arguments de prépa. ps : Et un chocolat à qui aura compris le lien entre mon titre et mon résumé au début de l'exposé ! |
Résumé : Une nouvelle série d'algèbres réelles généralisant l'algèbre des octonions, tout comme les algèbres de Clifford prolongent l'algèbre des quaternions, a été introduite par Morier-Genoud & Ovsienko en 2011. Ces algèbres, qui ne sont ni commutative, ni associative, peuvent être vues comme des algèbres twistées sur le groupe $(Z_2)^n$ avec une fonction de twist cubique. Lors de ce séminaire, je replacerai dans un contexte général et historique ces algèbres pour les relier ensuite au problème d'Hurwitz-Radon. Par la suite, je parlerai de la classification de celles-ci qui est similaire à celle déjà connue sur les algèbres de Clifford. Enfin, j'aborderai certaines questions ouvertes. |
Résumé : Partant d'un modèle de déplacement et transformation introduit dans le chef-d'oeuvre [Wright, Pegg, Frost et al. (2004)], je chercherai à donner une idée intuitive des raisons pour lesquelles les équations de Hamilton-Jacobi sont un bon outil pour étudier la propagation de fronts de réaction-sous-diffusion. Je ferai sommairement le lien avec un principe de grandes déviations et introduirai le formalisme Hamilton-Jacobi en partant de 0. N'ayez crainte, il ne mord pas ! Je finirai par montrer quelques complications que j'ai dû affronter récemment. |
Résumé : Si vous avez tout compris au titre, vous n'avez pas besoin de venir. Sinon, à lundi ! |
Résumé : Vous vous promenez au hasard dans une ville que vous ne connaissez pas et, ayant un peu peur de l'inconnu, vous empruntez en priorité des rues que vous avez déjà traversées. Ainsi, à tout moment, votre trajectoire future va être très influencée par le chemin déjà parcouru. Or, en probabilités, on préfère étudier des processus qui oublient en permanence leur passé...
Heureusement, le théorème de de Finetti va nous sauver, avec le principe suivant : et si connaître le futur nous aidait à oublier le passé ? En termes plus précis, notre marche renforcée pourra être vue comme un mélange de chaînes de Markov, autrement dit, une marche aléatoire en milieu aléatoire.
Pour s'échauffer un peu, on parlera d'abord de l'urne de Pólya, et on évoquera un peu la statistique bayésienne. |
Résumé : Un système dynamique est un ensemble de composantes qui évoluent dans le temps dont on connaît l'ensemble possible d'états, la règle d'évolution et l'état initial. Les équations différentielles sont entre autre utilisées comme système dynamique. Je rappellerai comment trouver la solution de systèmes d'équations différentielles linéaires et comment étudier la stabilité des équilibres des systèmes non linéaires. Certains systèmes contiennent un ou des paramètres. La théorie des bifurcations permet d'étudier le comportement qualitatif et quantitatif à l'équilibre. Je montrerai différents diagrammes de bifurcation et expliquerai comment les interpréter. Je terminerai par présenter comment mettre en équations un phénomène biologique (ici un modèle de l'interaction entre prions et A-bêta dans la maladie d'Alzheimer) et comment étudier le système résultant. |
Résumé : L'impact de l'influence anthropocène bouleverse les écosystèmes auxquels nous participons à la fois dans leur dimension écologique, mais également évolutive. Après la présentation de plusieurs exemples généraux confirmant l'intérêt de modéliser les trajectoires évolutives des populations, je considérerai un modèle EDP très simple pour introduire deux types d'opérateurs de reproduction (sexué et asexué) et leurs différences structurelles. Je poursuivrai avec leur application à des cadres plus complexes (environnement fragmenté, évolution de la dispersion lors d'une invasion) et la différence dans certains de leurs résultats. |
Résumé : Les réseaux sont des objets de nature à la fois algébrique et géométrique qui interviennent de manière naturelle dans divers domaines des mathématiques de la géométrie arithmétique à la cryptographie, en passant par la combinatoire et la théorie des graphes. Il est possible de comparer ces objets en regroupant les réseaux "semblables" sur le même sommet d’un graphe planaire, qui se révèle être un arbre. La distance entre deux sommets de l’arbre traduit alors à quel point deux réseaux sont différents au vu de cette classification. L’action d’un sous-groupe G du groupe linéaire de rang 2 s’observe directement sur l’arbre. Le graphe quotient obtenu, lorsque c’est possible de le définir, nous renseigne sur les propriétés algébriques et géométriques de G, mais permet également de classifier des objets de nature plus géométrique, comme les fibrés vectoriels de rang 2 sur une courbe projective ou encore les courbes elliptiques... Dans cet exposé je construirai l’arbre des réseaux et m’attacherai à décrire l’action de G sur celui-ci, avant d’énoncer quelques applications d’une telle construction dans la preuve de résultats divers. |
Résumé : On cherche à estimer certaines probabilités pour des modèles très variés, des évènements dont les probabilités peuvent être approchées en regardant des tâches de Poisson appropriées dans l'espace. Cela nous permet d'avoir une intuition précise pour beaucoup de modèle. On commencera en introduisant l'idée avec un bébé exemple: la queue M/M/1, et on finira par une application à la percolation au premier passage sur l'arbre binaire. L'exposé sera accessible aux non probabilistes. |
Résumé : La théorie cinétique, formalisée par Boltzmann, a pour but d'expliquer le comportement macroscopique d'un système à partir du mouvement des particules qui le composent. |
Résumé : Dans un article à paraître dans Biological Conservation , S Jenouvrier, J Garnier, F Patout, L Desvillettes ont proposé et analysé un modèle de dispersion des manchots empereurs. Cet exposé présentera le modèle, en tentant d'expliquer biologiquement chaque étape. Nous essaierons également d'expliquer les conclusions des projections du nombre de manchot empereurs en 2100 avec des outils simples de maths. |
Résumé : Un concept important dans l'étude des groupes est la notion de représentation. Il s'agit de voir les éléments d'un groupe comme des matrices inversibles, la loi du groupe correspondant au produit matriciel.
|
Résumé : Dans cet exposé, je vous parlerai, sans surprise, de calcul des variations, c'est-à-dire de la minimisation d'une fonctionnelle. Partant de problèmes historiques, je tâcherai de vous expliquer d'où vient le calcul des variations et comment il apparaît de nos jours. Ensuite, je vous montrerai comment ça fonctionne, sur des exemples très (ou trop) simples puis sur un sujet moins évident. Enfin, je terminerai par une application en imagerie médicale. Aucun lapin ne sera blessé pendant l'exposé. |
Résumé : Les algèbres de Banach sont des $\mathbb{C}$- algèbres munies d'une norme sous-multiplicative qui les rendent complètes. Derrière cette définition d'une simplicité remarquable se cache une théorie d'une richesse déconcertante qui se situe au carrefour de nombreux domaines des mathématiques : théorie des opérateurs, analyse fonctionnelle, complexe et harmonique, représentations, etc.
Dans cet exposé, nous nous contenterons plus modestement d'introduire la théorie de Gelfand des algèbre de Banach, que nous verrons accompagnée de plusieurs exemples. Suivant le temps qui nous restera, nous aborderons une ou plusieurs applications, comme les inverses séries de Fourier absolument convergente ou la compactification de Stone-Cech.
|
Résumé : Certain defence mechanisms of phages (viruses infecting bacteria) against the immune system of their bacterial host rely on cooperation. Motivated by this example, we will present in this talk a model dealing with the invasion probabilities of cooperative parasites in moderately structured host populations. More precisely, in the model we will assume that hosts occupy the $N$ vertices of a configuration model and that offspring parasites move to neighbouring vertices to infect new hosts in discrete generations. Parasites will (usually) reproduce only when infecting a host simultaneously and then generate many offspring. In this regime, we will identify and analyse the spatial scale of the population structure (comparison between parameter of the configuration model and the offspring number of parasites) at which invasion of parasites achieve a phase transition by turning from being an unlikely to an highly probable event. The study of the model will be guided first by the analysis of epidemics on random graphs, and especially by using couplings (from above and below) with (truncated) Galton-Watson processes (having "close" offspring distribution) until $N^{\alpha}$ hosts get infected for some $\alpha$ sufficiently large. And then, we will show that after exceeding the level $N^{\alpha}$ of infected hosts, with high probability the epidemic process accelerates so much that in a finite number of generations the remaining hosts get infected. |
Résumé : |
Résumé : En 1873, afin d'étudier le disparition (ou non) des familles nobles et des patronymes associés, Galton introduit le modèle de branchement le plus simple qui soit: Chaque individu a des enfants selon une loi de probabilité mu et le nombre d'enfants de chaque individu est indépendant des autres. Ce modèle est connu aujourd'hui comme le modèle de Galton-Watson. Un cas remarquable est le cas critique où l'espérance de mu est 1. Si on note Z_n le nombre d'individus à la génération n, le théorème de Yaglom affirme que, conditionnellement à Z_n>0, Z_n/n tend vers une loi exponentielle. La preuve classique de ce résultat est un peu technique et peu amusante. Nous verrons dans cette exposé une autre preuve de Geiger qui est, elle, purement probabiliste et nettement plus intéressante. |
Résumé : Les arbres (aléatoires) sont des objets ayant une structure très simple, il s'agit de graphes connexes sans cycle, mais qui possèdent un champ d'étude et d'application très vaste en probabilité : concernant les graphes et cartes aléatoires, les permutations aléatoires, l'étude des marches aléatoires, le processus de contact, etc.... Dans cet exposé, nous commencerons tout d'abord par compter le nombre d'arbres de "taille n" et nous donnerons quelques exemples de modèles encodés par des arbres. Puis nous essayerons de motiver leur étude et leur utilisation au travers de deux applications s'articulant autour des arbres de Galton-Watson. |
Résumé : Comprendre la diversité génétique au sein des tumeurs est d'un intérêt majeur pour les cliniciens afin de proposer des stratégies adaptatives de traitements. Dans cet exposé, je présenterai un modèle probabiliste jouet de la tumorogenèse afin de fournir des résultats quantitatifs sur la diversité génétique au cours du temps. Chaque cellule est représentée par un trait, où l'espace des traits est un graphe orienté fini. La population de cellules suit un processus de branchement continu en temps. Les phénomènes biologiques pris en compte dans la dynamique sont la mort cellulaire et la division cellulaire. Lors de chaque événement de division, chaque cellule fille mute, indépendamment l'une de l'autre, vers un autre trait (en utilisant les arêtes du graph) avec une certaine probabilité. Le régime de « grande population et mutation rare » est considéré après avoir été biologiquement motivé. Ce régime classique signifie que l'on s'intéresse à la diversité génétique de la population cellulaire aux instants aléatoires où la population totale atteint une taille de $n^{t}$ cellules, en considérant des probabilités de mutations proportionnelles à $\frac{1 }{n^{\ell}}$. Les résultats présentés portent sur les tailles asymptotiques de toutes les sous-populations de cellules lorsque $n$ tend vers l’infini. Notamment, le comportement des cellules mutantes dépendra du fait que la mutation soit délétère, neutre ou sélective. |
Résumé : Lors de cet exposé, je vais introduire la théorie des Reproducting Kernel Hilbert Space (RKHS). L'idée est de plonger un espace X assez quelconque dans un espace de Hilbert H pour utiliser toutes les bonnes propriétés de ces espaces réguliers. Je donnerai des applications de cette théorie pour séparer des points dans un espace (SVM) ou déterminer les composantes principales d'un jeu de données (ACP). Pour finir cet exposé, je présenterai des résultats plus proches de ma thèse, où au lieu de plonger un espace X, on plongera l'espace des mesures M(X). |
Résumé : Varifolds represent a natural generalization of manifolds in the measure theoretic sense, they encode a joint distribution of mass and tangents and were introduced mainly as a model for soap films and to solve the plateau problem. |
Résumé : It is now a well know theorem by Feigin-Frenkel that the center of the completed enveloping algebra of the affine algebra $\mathfrak{\hat{g}}_k$ at the critical level is canonically isomorphic to the algebra of functions on the space of Opers |
Résumé : Imaginez que vous ayez en votre possession des prototypes de médicaments contre une maladie. Vous souhaitez déterminer quel médicament est le plus efficace et pour cela, vous pouvez choisir séquentiellement (i.e. un par un) un des médicaments, l’administrer à un malade et observer sa réaction. Quelle sera votre stratégie : allez-vous directement éliminer les médicaments qui ne fonctionnent par sur leurs premières tentatives, ou leur laisser une seconde chance ? Quel médicament administrerez-vous au prochain patient ? Quand allez-vous vous arrêter et décider que vous avez assez d’information pour savoir quel est le meilleur médicament ? Dans cet exposé, je présenterai un cadre permettant de modéliser la situation ci-dessus : les problèmes de bandits. J’introduirai quelques stratégies et étudierai leurs propriétés. Guidé par des applications, je discuterai de deux approches possibles et montrerai que leur compréhension mathématique diffère. |
Résumé : Bien que nous utilisions toutes et tous la rigueur logique au quotidien, celle-ci fait rarement partie de notre cursus en tant qu'objet d'étude et tout ce qui y fait référence peut faire un peu peur... Dans cet exposé très accessible, j'essaierai de présenter ce qu'est la théorie des modèles, comment elle se propose de parler de structures en fonction des énoncés qui y sont vrais, et j'utiliserai ce prisme pour aborder certaines questions sur les fameux axiomes de ZFC et leur incomplétude, avec l'espoir que vous sortiez avec une meilleure compréhension de certaines questions auxquelles les réponses sont souvent floues, telle que "Ca veut dire quoi, qu'un résultat est indécidable ?". Je précise que, bien que j'ai reçu une formation en théorie des modèles, ce n'est pas ma spécialité, et que l'exposé sera plutôt pensé comme une introduction accessible et quelque peu informelle que comme une occasion de présenter des résultats importants. |
Résumé : Nous considérons un couplage agro-écologiquement motivé entre un système proie-prédateur et un système d'épidémie vectorielle. Le système couplé contient une ODE, deux EDP de réaction-diffusion et une EDP de réaction-diffusion-advection ; il n'a pas de structure variationnelle ou monotone complète et les coefficients sont spatialement hétérogènes. Nous étudions le comportement à long terme des solutions du problème de Cauchy-Neumann, qui s'avère être largement décidé par un critère de stabilité linéaire, mais qui implique encore des subtilités non linéaires. Nous considérons ensuite un problème de contrôle optimal non standard et étudions analytiquement et numériquement l'existence, l'unicité et les propriétés des optimiseurs. |
Résumé : The goal of this talk is to give a very brief introduction to quantum mechanics from a mathematician perspective by answering the question: what is quantization? Or more explicitly: how does one go from a classical theory of mechanics to a quantum one? We will start by some classical mechanics context and then discuss what axioms a quantum theory should satisfies with a focus on observables (intuitively: quantities that can be observed in a physics laboratory). Finally we will give one possible answer to the question by introducing the Wigner-Weyl transform. |
Résumé : We will consider a recently introduced model of color-avoiding percolation defined as follows. Every edge in a graph G is colored in some of k colors. Two vertices u and v in G are said to be CA-connected if u and v may be connected using any subset of k-1 colors. CA-connectivity defines an equivalence relation on the vertex set of G whose classes are called CA-components. In this talk, we will study the structure of CA-components in a randomly colored random graph. Our main focus will be on the size of the largest CA-component. We will see that one may naturally define three regimes - a supercritical, an intermediate, and a subcritical one. After a general introduction to the topic, we will explain the reasons for this change in behavior and study the size of the largest component in all three regimes. |
Résumé : Chacun·e d'entre vous sait qu'un polynôme complexe de degré d a génériquement d racines distinctes. Ainsi la topologie de l'ensemble des zéros d'un polynôme complexe est génériquement déterminé par son degré. Que se passe-t-il dans le cas réel ? En degré 2 les choses sont déjà plus riche. Il y a deux comportements dominants : deux racines ou bien aucune ... Que peut-on dire en dimensions supérieures ? Pour les courbes ou les surfaces algébriques par exemple. Et bien dans le cas complexe les choses restent stables quand la dimension augmente : la topologie d'une hypersurface est toujours génériquement par son degré, deux hypersurfaces génériques de même degré sont isotopes. Quant à lui, le cas réel se complique d'avantage. Les nombres de Betti sont l'outil de prédilection de la Topologie Algébrique pour estimer la richesse de la topologie d'un espace. Ainsi, il est très naturel de vouloir calculer les nombres de Betti des hypersurfaces algébriques réelles. Cependant, décrire l'ensemble des combinaisons de nombres de Betti possibles pour une hypersurface d'un degré donné est une tâche ardue. Il est alors naturel de se demander plutôt comment ces nombres se comportent en moyenne. C'est l'une des questions posées par la géométrie algébrique réelle aléatoire. |
Résumé : La réécriture est une théorie combinatoire des relations d’équivalence. La théorie de réécriture est introduite par Thue afin de résoudre le problème du mot dans les monoïdes. La réécriture a été étendue à de nombreux contextes algébriques avec la réécriture de termes et la réécriture linéaire. Elle permet d’étudier la décidabilité du problème de mot dans ces contextes algébriques. En particulier, le problème du mot est décidable pour les monoïdes présentés par des systèmes de réécriture de mots finis et convergents par l’algorithme de la forme normale.
|
Résumé : On peut apprendre beaucoup de choses sur les solutions rationnelles ou entières d'équations polynomiales (en plusieurs variables) rien qu'en s'intéressant à la géométrie de leurs solutions complexes. |
Résumé : Comme il est toujours bon de revenir aux fondamentaux, on apprendra ici à compter. Mais on verra aussi que derrière l'énumération se cachent des procédés pour simuler aléatoirement de grands objets combinatoires, et étudier leur géométrie. Pour cela nous suivrons plus ou moins chronologiquement l'histoire de l'étude, combinatoire puis probabiliste, des cartes planaires. En attendant l'exposé, fabriquez vos propres cartes planaires en appuyant sur "p" à répétition dans http://www.nbi.dk/~budd/planarmap/examples/editor.html. C'est ainsi qu'a été obtenu le dessin de l'affiche. |
Résumé : Dans cet exposé, je vais parler de surfaces singulières et, sous certaines conditions, d'une méthode basée sur des oscillations pour construire une surface sans point singulier proche en norme infinie de la surface initiale. Le cône nous servira d'exemple-test avant de s'attaquer à une surface plus revêche. |
Résumé : Quel est le point commun entre un opérateur différentiel elliptique et un fibré vectoriel ? Vous voulez un indice ? Ou même deux ? La réponse lundi où nous introduirons la K-théorie topologique. Ce sont ces groupes qui permettent de donner une définition élégante de l'indice topologique d'un opérateur différentiel. Cet indice est en fait égal à l'indice analytique de l’opérateur : c'est le théorème d'Atiyah-Singer. |
Résumé : La paramétrisation des convolutions généralisées de lois gammas en grandes dimensions par leur mesure de Thorin fournit un cadre d’analyse pratique pour étudier l’infinie divisibilité de certaines distributions, qui a historiquement permis d’établir l’infinie divisibilité des lois log-Normale et Pareto. Nous décrirons ce cadre théorique et la classe de distribution associée, et expliquerons pourquoi leur estimation est complexe. Nous proposerons plusieurs solutions originales à cette problématique d’estimation paramétrique, avec un focus sur les questions de complexité algorithmiques liées à la dimension du problème. |
Résumé : In this presentation, we will introduce some basic notions and tools in model theory, which, together with some elementary facts about real algebra, will give us an easy proof of Hilbert's seventeenth problem. |
Résumé : The subject of this talk will be about a physical achievements which were first |
Résumé : Cet exposé portera sur la relativité générale, un domaine qui a récemment atteint son centenaire. L'exposé reste introductif, le but étant de vous présenter les idées les plus fondamentales du domaine. On va discuter de l'espace temps - comment le définir et comment le représenter par des diagrammes de Penrose afin de mieux comprendre ses propriétés. Enfin, à partir de l'intuition gagnée en regardant ces diagrammes, on va changer le point de vue afin de considérer l'espace-temps comme le résultat d'un problème d’évolution et voir quels sont les genres de questions qu'on peut se poser sur ses données initiales. |
Résumé : Comme chacun sait, les doctorants sont presque tous constitués de cellules. Les doctorantes aussi d’ailleurs, mais là n’est pas le sujet : je dis presque car c’est bien de probabilités qu’il s’agit. Nos braves cellules sont probabilistes ! Cette révélation est grave je sais... alors pas de panique, on va tout faire comme si c’était de l’algèbre linéaire, et en plus c’est le cas. Vous avez toujours voulu savoir comment embobiner des biologistes un peu trop farouches avec de savantes formules ? Alors cet exposé est fait pour vous. Vous avez encore du mal à définir votre moi profond ? Dans cet exposé, j’essaierai de vous montrer que nous ne sommes ni plus ni moins que des grosses populations de cellules qui ont réussi à s’organiser relativement bien... Ça donne la pêche ! |
Résumé : Durant cet exposé, nous introduirons quelques outils (les plus classiques) pour étudier les espaces topologiques. Plus précisément, nous parlerons de groupe fondamental, de groupes d'homotopie supérieurs ainsi que d'homologie. Ce sont des invariants de type d'homotopie très utilisés en topologie algébrique. Nous illustrerons bien sûr tous ces concepts à travers plusieurs exemples. Nous finirons sur quelques applications classiques et peut-être parlerons-nous de la fameuse et indispensable question : Peut-on couper d'un seul coup de couteau un sandwich Jambon fromage de telle sorte qu'il soit parfaitement coupé en deux ? (c'est à dire qu'il y ait autant de fromage, autant de jambon et autant de pain de chaque côté !). |
Résumé : Dans le domaine de l'imagerie (étude systématique des images), de nombreux modèles probabilistes sont utilisés pour comprendre et exploiter les propriétés statistiques des images. Les applications pratiques sont nombreuses, citons par exemple la compression ou la restauration d'images. Le but de la présentation sera d'exposer un modèle récent pour les images, qui s'appuie sur la théorie des fonctions aléatoires de Gelfand. Concrètement, une image sera décrite comme une fonction aléatoire, solution d'une équation différentielle stochastique basée sur un bruit blanc non-Gaussien. Notre but sera d'introduire à la théorie de Gelfand et de donner un sens rigoureux aux termes de la phrase précédente. Enfin, on appliquera la théorie à un court problème de restauration d'image. L'exposé ne présuppose pas d'autre connaissance que la définition d'une variable aléatoire et de sa fonction caractéristique et l'on veillera à être accessibles aux non-probabilistes. |
Résumé : Un jeu répété à deux joueurs est décrit par un ensemble d'états, un ensemble d'actions pour chaque joueur, un ensemble de signaux, une fonction de paiement et un noyau de transition. A chaque étape, les joueurs choisissent simultanément une action, et reçoivent un paiement déterminé par les actions qu'ils viennent de jouer et l'état courant. Puis un nouvel état est tiré aléatoirement, suivant une distribution qui dépend des actions qui viennent d'être jouées et de l'état précédent. Les joueurs reçoivent alors un signal aléatoire corrélé au nouvel état. On s'intéressera à l'étude des stratégies optimales pour des jeux répétés un grand nombre de fois, ainsi qu'aux paiements qu'elles induisent. Aucune notion de théorie des jeux n'est requise pour suivre l'exposé, tous les concepts de base seront redéfinis et illustrés par des exemples. |
Résumé : Les équations de Navier-Stokes décrivent l’évolution au cours du temps de fluides visqueux. Dans cet exposé, après avoir présenté la formulation de ces équations, je vous expliquerai leurs principales caractéristiques. Ensuite, je vous présenterai l’un des sept problèmes du Millénaire en mathématiques, proposés par la Fondation Clay en 2000, sur les équations de Navier-Stokes. Enfin je présenterai mon sujet d’étude : évanescence d’un petit solide dans un fluide visqueux incompressible. |
Résumé : Il existe un lien fondamental entre la direction du vent à la surface de la terre, les cinq solides de Platon, et une tête chevelue qu’on n’arrive définitivement pas à coiffer. Ce lien fut survolé par Leonhard Euler, avant d’être compris par Henri Poincaré et Heinz Hopf. Leur théorème relie les points d’annulation d’un champ de vecteurs sur une variété différentielle et les triangles qu’on peut dessiner sur cette variété. Pour comprendre tout cela, nous parlerons de combinatoire (CW-complexes), de géométrie (variétés différentiables) et de topologie algébrique (degré d’une application). |
Résumé : Ces dernières années, la notion de mesures de risque a pris une importance considérable dans de nombreux domaines tels que l'environnement, ainsi que la finance et l'assurance. Par exemple, depuis la crise financière de 2008, les autorités de contrôle prudentielles imposent aux banques ainsi qu'aux compagnies d'assurances une certaine solidité financière. Le bilan annuel d'une entreprise étant aléatoire, il est nécessaire d'appréhender le risque de cet aléa. Les mesures de risque, qui ne sont ni plus ni moins que des fonctions d'un espace de probabilité dans IR, remplissent ce rôle, et suscitent un intérêt croissant dans la littérature. Les mesures dites "extrêmes" s'intéressent spécifiquement aux évènements rares, et leur estimation pose alors un certain nombre de problèmes, si les données disponibles ne sont pas suffisantes.
Imaginons maintenant que l'on veuille estimer un risque sur une variable financière, en ayant connaissance de certains indicateurs. On s'intéressera donc dans ce travail à l'estimation de mesures de risque extrêmes pour une variable aléatoire Y conditionnée par un vecteur de covariables X. On considérera pour cela que le vecteur (X,Y) est elliptique. Plusieurs mesures de risque sont proposées et discutées. |
Résumé : La réécriture est une théorie des relations d'équivalences utilisée en informatique fondamentale
pour transformer des objets syntaxiques (termes, programmes, preuves, etc.) en utilisant des règles données,
et en calcul formel fournissant une théorie du calcul. Depuis quelques années, des méthodes inspirées de cette
théorie se sont développées dans diverses structures algébriques comme les monoïdes, les catégories de dimension
supérieure ou les algèbres afin d'étudier ces structures.
Dans cet exposé, nous présenterons les bases de la théorie de la réécriture, puis nous verrons comment les propriétés
de terminaison et de confluence pour des systèmes de réécriture de mots permettent de décider du problème du mot
dans un monoïde ou encore de fournir des critères de finitude homologique. Nous finirons par élargir les perspectives
sur les nouvelles questions intervenant en réécriture, notamment pour les groupes et les catégories linéaires de dimension
supérieure. |
Résumé : La dynamique complexe est l'étude de l'itération de fonctions holomorphes. On exposera (sans prérequis au delà de la L3!) les bases fondamentales de la théorie dans le cas de l'itération des fractions rationnelles, notamment la dichotomie Fatou/Julia, le théorème de non-errance de Sullivan et la classification des composantes de Fatou. On abordera dans une seconde partie la théorie de Teichmüller dynamique : étant donnée une fraction rationnelle, comment peut-on la déformer topologiquement pour obtenir de nouvelles fractions rationnelles ayant une dynamique similaire ? |
Résumé : Je présenterai la théorie des partitions d'entiers et certains résultats classiques sur la combinatoire de ces partitions (la bijection de Sylvester entre autre), qui est loin d'être connue parfaitement à l'heure actuelle, malgré la simplicité de cet objet. Ce sera aussi l'occasion d'introduire la notion de série génératrice et de constater sur des exemples simples comment cette notion peut alléger considérablement le travail d'énumération. Enfin, je montrerai une preuve simple d'une conjecture de Ambederhan sur des séries génératrices. Bien entendu, aucun prérequis ne sera nécessaire pour suivre l'exposé. |
Résumé : Huygens énonce dans "Traité de la lumière" autour de 1680 un principe qui dicte toute une théorie de la propagation d'ondes issues d'une source. J'expliquerai que ce principe se reformule en un fait simple et général en géométrie de contact, tout en vous introduisant courtoisement à cette dernière, surnommée géométrie du patin à glace ou du satané créneau. |
Résumé : La catégorie des EDP Hamiltoniennes comprend de nombreux modèles de physique mathématique comme les équations de Korteweg-de Vries (KdV) ou de Schrödinger non-linéaire (NLS). Ces équations sont connues pour admettre une grande variété de solutions périodiques et, dans cet exposé, nous nous intéresserons à la stabilité de ces ondes.
Je commencerai par présenter différentes notions de stabilité, puis j’expliquerai comment on peut obtenir des critères à évaluer afin d’établir le caractère stable ou non d’une onde périodique.
On présentera quelques résultats numériques concernant ces critères. |
Résumé : Le problème de Schrödinger est un problème d'entropie minimale qui est une approximation régulière du problème de Monge-Kantorovich, à la base de la théorie du transport optimal.
Dans cet exposé, je vais d'abord introduire les deux problèmes. Puis je décrirai des analogies entre eux, comme la formulation duale de Kantorovich, la représentation dynamique de Benamou-Brenier, et aussi des propriétés et une formule qui caractérisent les solutions respectives.
Pour finir, je mentionnerai une application de ces analogies pour donner une idée de l'intérêt d'utiliser l'entropie minimale à la place du transport optimal. |
Résumé : Cet exposé aura pour but d'introduire quelques modèles originaux adaptés des équations bien connues de Navier-Stokes utilisées pour décrire l'écoulement d'un fluide. Les applications envisagées concerneront par exemple les mouvements collectifs ou les milieux granulaires vus comme des fluides hétérogènes.
En lien avec ces phénomènes d'hétérogénéités, on s'intéressera à la prise en compte de contraintes de concentrations maximales et aux phénomènes de congestion. On montrera comment les outils mathématiques, théoriques et numériques peuvent être adaptés pour aborder ces problèmes. |
Résumé : Comment auriez-vous enseigné si vous aviez été à l’École polytechnique au XIXème siècle ?
A l'époque, on ne parlait pas de "chargés de Tds" à l'X mais plutôt de répétiteurs. Parmi eux, on retrouve les noms de Poincaré, Laguerre, Hermite... Souvent recrutés jeunes, ils étaient en charge de l'organisation de colles, de séances d'exercices, de séances de révisions, parfois même de conférences. Cette activité d'enseignement était très réglementée par l’École.
En parallèle, les répétiteurs menaient, pour la plupart, une activité de recherche en mathématiques. Au XIXème siècle il n'était d'ailleurs pas rare que la recherche et l'enseignement en mathématiques soient liés. A l'image de Cauchy et de son Cours d'Analyse, il était parfois possible qu'un professeur enseigne le sujet de ses propres recherches. Ces libertés pédagogiques valent en fait pour le cours de l’École polytechnique. Mais nous essayerons de montrer que cela pouvait être également le cas de l'activité des répétiteurs lorsqu'ils avaient à choisir un exercice ou le sujet d'une conférence par exemple. Pour ce faire, on s'intéressera à un sujet qui était à la mode à l'époque : la résolution numérique d'équations polynomiales. |
Résumé : Un polymère est une longue chaîne de composants élémentaires (ou |
Résumé : Parmi les modèles du trafic routier congestionné, la notion d'équilibre de Wardrop est devenue populaire, depuis son introduction dans les années 50. Nous allons d'abord décrire le modèle discret et nous verrons que c'est aussi un problème de minimisation et d'analyse convexe. Nous montrerons ensuite comment on peut passer à un modèle continu, grâce notamment à la notion de \Gamma-convergence. Enfin, nous donnerons quelques résultats liés au modèle continu. |
Résumé : L'étude de structures combinatoires sur des espaces topologiques intéresse de nombreux mathématiciens, que ce soit pour faire de la classification, vérifier ou proposer des conjectures, ou pour définir des espaces aléatoires. Je vous présenterai une de ces structures, celle des espaces triangulés colorés, qui sont naturellement reliés à une classe particulière de graphes. |
Résumé : The Jeu de taquin, also known as the 15-puzzle, is a puzzle introduced by Sam Loyd in the 1870s. The objective of the puzzle is to obtain the numbers 1 to 15 in the correct ordering, by performing moves which ’slide’ a neighboring number into the empty space. Considering the starting position as a permutation in S 16 , including the empty space as the 16th element, we show that the puzzle is solvable if and only if the corresponding permutation restricts (in some sense) to an even permutation in the alternating group A 15. We also present a graph theoretic generalization of the 15-puzzle. Finally we show how the idea behind the ’sliding moves’ in the 15-puzzle gives rise to an equivalence relation in the set of skew-symmetric standard Young tableaux. These are objects that play an important role in algebraic combinatorics, and especially find use in the representation theory of Lie algebras and algebraic groups. |
Résumé : En machine learning, la descente de gradient est un outil encore très utilisé (en particulier pour les réseau de neurones), pourtant elle est souvent un outil situationnel (nécessitant la convexité de la fonction de coût pour trouver le minimum global). Il y a plusieurs propositions d'amélioration de la descente de gradient, mon angle d'attaque est de modifier un peu l'équation différentielle très simple derrière la descente de gradient : on ajoute un mouvement Brownien, une non-linéarité et une Réflexion pour avoir une Equation Différentielle Stochastique non-linéaire Réfléchie. L'idée est que cette nouvelle équation permettrait de trouver le bon minimum, plus vite que si on ajoute seulement le mouvement Brownien. Je propose dans cet exposé de présenter (avec des conditions de base simples) la preuve de l’existence d'une solution à une telle équation. |
Résumé : Je ne vais pas utiliser le mot "moyennable" dans ce résumé. Ce mot apparaîtra dans l’exposé, mais je vous promet d’en donner des définitions à la fois belles et sympathiques. De quoi parlera-t-on d’autre ? Et bien on parlera d’actions de groupes, de probabilités et de combinatoire (il va sans dire que ma connaissance limitée de la combinatoire me poussera à n’évoquer que des graphes, mais combinatoire ça fait plus classe). Je me permet de préciser en quelques lignes comment ces sujets interagissent entre eux. Les fins connaisseurs auront sans doute remarqué que si je met "actions" et "probabilités", et au vu du titre, c’est sans doute que je veux mesurer des actions de groupes. L’autre partie du titre vous oriente vers le type d’actions que je veux mesurer, et c’est bien entendu là qu’intervient la combinatoire (ou théorie des modèles, puisqu’il faut faire une escalade du chic). En effet, les groupes considérés sont en fait des groupes d’automorphismes de structures dénombrables, ces derniers ayant des actions spécifiques auxquelles on s’intéressera. Il apparaîtra donc des actions raisonnablement compréhensibles et je m’efforcerai même de colorier des graphes! |
Résumé : L'objectif de cet exposé est de faire évoluer des "formes géométriques" dans le temps. Le principe est simple : on peut décrire l'évolution d'un point en lui prescrivant sa vitesse. On fait de même en chaque point d'une surface et on obtient un mouvement géométrique. Lorsque la vitesse normale est proportionnelle à la courbure moyenne, on parle de mouvement (ou flot) par courbure moyenne. Par exemple, un cercle suivant ce mouvement évolue en un cercle de même centre et de rayon plus petit, se réduisant en un point en temps fini. La dynamique de ce flot peut aussi être vue comme la meilleure façon de minimiser le périmètre : c'est ce qu'on appelle le flot de gradient associé au périmètre. Du point de vue numérique, il nous suffit alors d'approcher ce flot de gradient par des flots discrets dont l'implémentation est plus simple. Une deuxième partie sera donc d'expliquer d'où viennent ces flots discrets. Cela nous permettra en partie de faire des simulations sur différentes formes. Enfin, si nous avons le temps, on introduira les réseaux de neurones convolutifs qui donnent une autre approche pour traiter les flots géométriques. |
Résumé : Dans l'analyse de sensibilité globale, les très populaires indices de sensibilité de Sobol visent à quantifier comment la variance de la sortie d'un modèle mathématique peut être répartie entre les différentes variances de ses variables aléatoires d'entrée. Ces indices sont basés sur la décomposition fonctionnelle de la variance et leur interprétation devient difficile en présence de dépendance entre les entrées. Cependant, la présence de dépendance dans de nombreux cas d'étude favorise le développement d'indices de sensibilité interprétables. Récemment, les valeurs de Shapley développées dans le domaine de la théorie des jeux coopératifs ont été reliées à l'analyse de sensibilité globale et présentent de bonnes propriétés en présence de dépendance. Nous comparerons sur un exemple les résultats des indices de Shapley avec les extensions existantes des indices de Sobol dans le cadre dépendant. |
Résumé : Les modèles de milieux poreux compressibles et incompressibles ont été utilisés dans la littérature pour décrire les aspects mécaniques des tissus vivants. En utilisant une loi de pression rigide, il est possible de construire un lien entre ces deux représentations différentes. Dans la limite incompressible, les modèles compressibles génèrent des problèmes de frontières libres de type Hele-Shaw où la saturation se maintient dans le domaine mobile. Dans cet exposé, je présenterai l'étude de la limite incompressible pour les équations d'advection-milieu poreux motivée par le développement de tumeurs. La dérivation de l'équation de pression dans la limite rigide était un problème ouvert pour lequel la forte compacité du gradient de pression est nécessaire. Pour l'établir, nous utilisons deux nouvelles idées : une version L 3 de la célèbre estimation d'Aronson-Benilan, également appliquée récemment à des problèmes connexes, et une limite L 4 uniforme nette sur le gradient de pression. De plus, nous fournissons une estimation du taux de convergence à la limite incompressible dans une norme négative de Sobolev. |
Résumé : Une structure est dite ultrahomogène si tout isomorphisme entre sous-structures finiment engendrées s'étend à un automorphisme de la structure. En 1954, Roland Fraïssé a développé une méthode pour construire des structures ultrahomogènes à partir de certaines classes de structures finies, appelées classes de Fraïssé. Dans cet exposé, je vous présenterai la méthode ainsi que quelques applications à l'étude des groupes Polonais. |
Résumé : La théorie de Hodge p-adique est une branche des mathématiques née dans les années 70. Elle est un analogue de la théorie de Hodge classique pour les variétés (algébriques) p-adiques et intervient dans l’étude des représentations de Galois. Son important développement au cours des quarante dernières années a permis de nombreuses avancées dans plusieurs domaines de l’arithmétique. |
Résumé : La convergence locale faible de graphes, introduite par Itai Benjamini et Oded Schramm en 2001, décrit la notion qu’un graphe fini, vu d’un sommet spécifique, ressemble à un certain graphe limite. Plus précisément, ces objets limites sont des graphes aléatoires enracinés (infinis) qui décrivent la géométrie interne de grands graphes (finis) vus d’un sommet choisi uniformément au hasard. |
Résumé : "Le jeu était mal mélangé !". Voici une excuse imparable invoquée au moins une fois par tout joueur de cartes qui se respecte. Notre curiosité mathématique nous amène ici à nous poser la question de ce qu'est un paquet de cartes bien mélangé, et surtout, comment en obtenir un à partir d'un paquet "trié". Plus généralement, dans des domaines variés (moteur de recherche, physique statistique, etc.), il arrive que l'on veuille créer un aléa suivant une loi bien précise. Une stratégie envisageable est alors de construire une suite de lois se rapporchant peu à peu de la loi désirée. |
Résumé : In the industry, numerical codes are well spread to model physical phenomena at stake in the products. Computer experiments make easier the control of product performance as they are less complex to set up and run than physical experiments. However computer codes still can’t be self-sufficient as they are often computationally expensive. The standard way of proceeding is to create a surrogate model in parallel. A surrogate model is a simpler model, quicker to evaluate, that approximates the output of the computer code. It helps selecting potential interesting points to simulate through the computer code, that enables to use it more efficiently. I will first present some simple and famous surrogate models. Then I will detail the Kriging model, also called Gaussian Process Regression, viewed through its probabilistic interpretation. |
Résumé : Pour tout ensemble $X$ infini on peut définir son groupe de permutation $\mathfrak{S}(X)$. On note alors $\mathfrak{S}_{\mathrm{fin}}(X)$ le sous-groupe des permutations à support fini sur lequel il existe un morphisme signature naturel. Cependant, une observation de Vitali (1915) remarque que ce morphisme ne s'étend pas à $\mathfrak{S}(X)$. Dans cet exposé nous donnerons des sous-groupes de $\mathfrak{S}(X)$ qui contiennent $\mathfrak{S}_{\mathrm{fin}}(X)$ en particulier nous nous intéresserons au groupe des transformations d'échanges d'intervalles avec flip : IET$^{\bowtie}$. Puis nous construirons une extension du morphisme signature sur ces groupes et dans un dernier temps nous regarderons comment ce morphisme nous permet de classifier leurs sous-groupes normaux. |
Résumé : The Balescu-Lenard equation describes the thermalization of a spatially homogeneous plasma. As the Landau equation, it can be seen as a Fokker-Planck equation arising from grazing collisions of particles. Contrary to the Landau equation, the Balescu-Lenard equation takes into account dynamical screening effects. We will discuss the meaning and significance of dynamical screening, as well as Guo's argument for proving well-posedness. This is a joint work with Mitia Duerinckx. |
Résumé : Le système point-vortex est un modèle déjà centenaire décrivant l'évolution de tourbillons parfaits dans un fluide incompressible et non visqueux. Nous verrons dans cet exposé que la fonction de Green du domaine dans lequel évolue le système joue un rôle prépondérant dans sa dynamique. L'objectif sera d'établir des propriétés des fonctions de Green, intéressantes en hydrodynamique, en passant du disque aux domaines simplement connexes via des transformations conformes, puis aux domaines non simplement connexes via des techniques d'analyse harmonique. |
Résumé : Imaginez un espace et un groupe agissant sur celui-ci. Chaque point se déplace sous l'action du groupe, cette dynamique donnant naissance à des orbites. Si maintenant on oublie l'action pour ne garder que cette structure d'orbites, peut-on retrouver l'action qui lui a donné naissance ? Il se trouve que des actions très différentes, même venant de groupes très différents, peuvent donner naissance à la même structure d'orbites : on dit alors qu'elles sont orbitalement équivalentes. |
Résumé : The construction of Tropical Geometry began with optimisation problems. Back then we would have used the word idempotent instead of tropical. The idea was to reformulate some optimisation problems in the vocabulary of linear algebra by weakening the hypotheses that make a field. It provided a translation of optimisation problems into geometric ones. Even if tropical linear algebra doesn't behave completely as in the classical case the resemblance was close enough to leave the linear realm, consider polynomials and define a "tropical algebraic geometry". Which is what people usually mean by tropical geometry. In my talk I will present through examples the basics of tropical geometry and try to highlight (in dimension 2) the interactions between complex, realistic and tropical with 3 fundamental theorems: Maslov's dequantisation theorem by Kapranov, Itenberg/Katzarkov/Mikhalkin/Zharkov's theorem on tropical homology and Viro's patchworking. |
Résumé : Semi-Open Quantum Walks (SOQW's) are a class of quantum walk, which are unitary and purely driven by interactions with the dissipative environment. In this talk, I will introduce a nice model of an out of equilibrium quantum system simulated with this family of quantum walks to depict behaviours like the quantum Fourier Law. Primarily, I will focus on the results and developments, covering the general formalism, examples on $\mathbb{Z}$, probability distributions via numerical simulations as well as some possible applications if implemented. |
Résumé : Fisher’s infinitesimal model (or polygenic model) is a widely used statistical model in quantitative genetics. It was proposed by Ronald Fisher to describe the propagation of a quantitative trait along generations of a population which is subjected to sexual reproduction. Recently, this model has pulled the attention of more theoretical communities and some integro-differential equations have been proposed to study the precise dynamics of traits under the coupled effect of sexual reproduction and natural selection. Whilst some partial results have already been obtained, the complete understanding of the long-term behavior is essentially unknown. In this talk, I will present a simpler time-discrete version inspired in the previous time-continuous models. Our novel approach relies on a better understanding of the propagation of the trait value across the ancestors in the family tree. For trait dependent selection with quadratic shape, our technique unravels an ergodicity-type property leading to quantitative convergence rates towards a unique global equilibrium. This is a joint work with Vincent Calvez and Thomas Lepoutre. |
Résumé : On introduit les groupes algébriques affines sur un corps et on montre, via l'exemple du noyau de Frobenius $\alpha_p$, certains comportements bizarres en caractéristique non nulle. Ensuite on décrit les espaces homogènes projectifs $G/P$ dans le cas $G=GL_n$, ayant stabilisateur lisse ou pas lisse. Si le temps le permet, on va conclure avec quelques questions et idées pour le contexte plus général d'un groupe réductif, non simplement lacé en caractéristique 2 ou 3. |
Résumé : The aggregation equation is a nonlinear and nonlocal PDE used to model the dynamics of individuals in interaction (chemotaxis, crowd motion, ...). In this talk, I will try to give some insight about the dynamics of this model, then I will present some convergence results of the relaxation approximation à la Jin-Xin for the aggregation and discuss some numerical aspects. This is a joint work with Benoît Fabrèges, Frédéric Lagoutière et Nicolas Vauchelet. |
Résumé : Batalin-Vilkoviskiy formalism was introduced in 1980s to overcome difficulties of path integral approach to quantization of gauge theories. In the talk we will focus on main physical ideas and mathematical aspects of this formalism. Finally we will treat basic examples arising in field theory. |
Résumé : In data analysis, high dimensionality is often a delicate obstacle to overcome. The problem can be solved by representing the data in a lower dimensional space using projection methods like the Partial Least Squares regression (PLS) or by resorting to variable selection methods like the lasso approach. The Sparse Partial Least Squares (SPLS) combines the two approaches in order to better interpret the results due to the sparsity imposed on the new directions. Several implementations have been proposed. However, problems of accuracy of predictions and correct interpretation of regression coefficients arise in these approaches. Hence we developed the Dual Sparse Partial Least Squares, a flexible method that results in more accurate predictions and better interpretation of the coefficients due to their sparsity. In this paper we present the theory behind Dual-SPLS and some applicative results on petroleum data sets. |
Résumé : Loewner's theory provides a one-to-one correspondence between Loewner chains (which is a certain family of compact sets in the complex plane) and its driver (which is a real valued continuous function). When the driver is chosen to be Brownian motion, it gives rise to Schramm-Loewner-Evolution (SLE). We will address the question: When is this family of compact sets generated by a curve? Answering this question is of fundamental importance in order to make sense of SLEs as curves. Furthermore, it also leads to other applications in SLE theory, e.g. stability with respect to perturbations in the driver. |
Résumé : Les mots Sturmiens constituent la classe de mots les plus simples, au sens de leur nombre de facteurs, juste au-dessus des mots ultimement périodiques. Cette condition de non-complexité, très rigide, permet de les caractériser à l'aide de deux paramètres : leur pente et leur intercept. Constituant une classe relativement bien comprise de mots infinis, nous nous intéresserons au calcul de leur graphes des facteurs (graphes de Rauzy), ainsi que de leur fonction de répétition (temps avant la première répétition d'un facteur), pour s'approcher du calcul de leur exposant diophantien.
|
Résumé : The Large deviations theory for stochastic processes has been mainly developed by Freidlin and Wentzell for Stochastic Differential Equations. I will give some insight about the tools that are used in this theory, in particular its analogy with Hamiltonian mechanics. I will then present a formal method for building the rate function of the Large deviations principle for a stochastic hybrid process used in cell biology for modeling gene expression dynamics, and how it can be used. |
Résumé : Vous êtes fan d'Iron Man* ? Vous ne manquez jamais Game of Thrones ? Tous les soirs dans votre fauteuil (conçu par un designer prénommé Philippe**) vous relisez avec nostalgie votre manga préféré Bleach ? Ne manquez surtout pas le prochain épisode : l'unité de Stark ! * ou fan de lapins*** ** je ne parle pas d'un siège automobile *** ou fan de carottes |
Résumé : "Quand y en a une ça va, c'est quand il y en a beaucoup que ça crée des problèmes." Cette phrase abjecte a été prononcée par un mathématicien anonyme au beau milieu du XXème siècle. Il parlait bien sûr des sphères et de leurs structures différentiables. Car en effet, dans les années 50, un grand mathématicien, John Milnor, trouve avec stupeur des variétés différentiables homéomorphes à la sphère standard mais non difféomorphes à la sphère standard. C'est une véritable petite révolution dans le monde de la topologie différentielle.
Au cours de l'exposé, nous verrons, sans prise de tête, les techniques développées qui ont pu amener de tels résultats, et qui ont forgé la topologie différentielle du XXème siècle. On redéfinira tout ce qu'il y a à définir pour que le plus grand nombre puisse profiter de cette histoire formidable. |
Résumé : Les dessins d'enfants, ou de manière plus pédante les revêtements ramifiés de la sphère de Riemann à trois points singuliers, sont des objets fondamentaux en géométrie énumérative. Mais ils apparaissent aussi en théorie des graphes sous la forme des hypercartes, et en combinatoire sous la forme des 3-constellations... Je définirai ces trois notions, et expliquerai pourquoi elles sont équivalentes. Cet exposé se veut parfaitement accessible, que vous veniez de l'un de ces domaines ou non, et sera l'occasion de voir un exemple de "traduction" entre différentes disciplines mathématiques. * J'offre un bonbon à la première personne qui me donnera la référence culturelle subtilement cachée dans le titre. |
Résumé : Algèbre au XIXème siècle. Le nom de Galois est sans doute celui qui nous vient le plus souvent à l'esprit quand on parle d'algèbre à cette période. Pourtant, la théorie des équations continuait, pendant tout le XIXème siècle, d'être un sujet beaucoup plus vaste que la seule théorie de Galois. Revenir sur ce qui nous semble aujourd'hui constituer les "marges" de l'algèbre nous permettra de discuter des conceptions mathématiques du XIXème siècle, d'une manière historique et sans anachronisme. Il sera traité de résolution des équations, du dénombrement des racines, de leur séparation et de leur approximation. On finira également par discuter de résolutions graphiques voire même de construction de dispositifs physiques permettant de résoudre des équations. |
Résumé : Ah oui, c'est le truc avec les bulles de savon, là ? Je vous propose, le temps d'un croissant, une brève excursion dans l'intéressante histoire de l'inégalité isopérimétrique, des Grecs jusqu'à aujourd'hui. On complètera la preuve de Zénodore, on parlera de dimension 2, et n, et puis finalement, on verra pourquoi elle est fameusement équivalente à l'inégalité de Sobolev (optimale !). |
Résumé : In this talk, I will present a selection-mutation model which was introduced in a paper by Barles and Perthame (Indiana Univ. Math. J., 2008) and further studied in many other works. The model is a non-local parabolic PDE describing the adaptive dynamics of a population structured with a phenotypical trait. The mutations and the competition for resources lead the population to concentrate around the fittest traits over time. I will discuss how this behaviour is proved analytically, based on the previous literature, and introduce an asymptotic preserving (AP) numerical scheme which complements the analytical results. This is a joint work with Vincent Calvez and Hélène Hivert. |
Résumé : Nous rappellerons tout d'abord brièvement le principe du calcul des variations, les problèmes de Dirichlet et de Neumann pour l'énergie de Dirichlet et la définition du degré topologique pour des applications de S¹ dans S¹. Nous considérerons ensuite la minimisation de l'énergie de Dirichlet, pour des applications de A (ouvert borné de C) dans C, avec des conditions de degré au bord. On donnera un résultat pour la minimisation de cette énergie dans le cas où A est simplement connexe et dans le cas où A est doublement connexe. |
Résumé :
Les points épais sont une spécificité de la géométrie algébrique. Ils apparaissent naturellement dans de nombreux contextes très courants, comme l'intersection de deux courbes tangentes, ou tout simplement lorsqu'on fait tendre un point vers un autre. Nous verrons ce que sont ces objets au travers d'un exemple typique, tout en donnant un aperçu de certaines notions fondamentales de géométrie algébrique.
|
Résumé : Dans cet exposé, je vais introduire une méthode de résolution de problèmes d’optimisation qui est la programmation dynamique. Je vais expliquer son lien avec l’équation d’Hamilton-Jacobi(-Bellman). Je vais aussi présenter les problèmes de contrôle optimal qui sont une généralisation du calcul des variations. Enfin, grâce à ces outils, nous allons aborder la théorie des jeux à champ moyen. |
Résumé : Foliations are well-behaved decompositions of a manifold into submanifolds with certain properties, called leaves. Here we focus on the more recent definition of singular foliations after I. Androulidakis and G. Skandalis, which carry more data than just a leaf decomposition, and we define singular Riemannian foliations (SRF) over this family. |
Résumé : On doit obligatoirement 'courber' un lacet de 4\pi pour le nouer, c'est le théorème de Fary-Milnor. Une jolie preuve de ce résultat utilise la formule de Cauchy-Crofton, cette dernière permet de mesurer la longueur d'une courbe du plan si l'on sait en combien de points une droite affine prise au hasard coupe cette courbe. La formule de Cauchy-Crofton permet également d'étudier la complexité des ensembles algébriques réels, par exemple l'espace des coniques singulières du plan. |
Résumé : Résumé : une fourmi fait son footing sur Z^2, comme tous les matins,
lorsque tout d'un coup, alors qu'elle était au plus loin de son point de
départ, un incendie universel grille la moitié des arêtes, de manière
aléatoire, indépendante et surtout gratuite.
Question : la fourmi a-t-elle raisonnablement une chance de pouvoir
retrouver le chemin de sa maison ? Nous mettrons de côté tout l'aspect
biologique : l'odorat de la fourmi, lui permettant de se repérer, ne
sera donc pas perturbé par l'odeur de brûlé. |
Résumé : Les particules à la dérive dans un gaz mènent une vie rude et aléatoire : les plus petites d'entre elles se voient contraintes à une trajectoire non 1/2-hölderienne, tandis que les plus grandes suivent une équation différentielle stochastique. Pour mieux les comprendre, nous commencerons par jouer avec une formule d'Itô à la physicienne, puis nous prendrons nos pincettes mathématiques afin d'extraire leurs richesses cachées. |
Résumé : Considérons un problème « tout simple » de théorie des opérateurs : soit T une application linéaire continue sur l’espace de Hilbert. Pouvons-nous affirmer avec certitude que T admet un sous-espace invariant non trivial ?
Cette question (encore ouverte !) montre bien l’importance de l’étude des sous-espaces invariants en théorie des opérateurs.
Vous avez toujours rêvé de découvrir le monde merveilleux de la théorie des opérateurs ? Vous ne voulez plus avoir peur des séries de Fourier ? Vous avez besoin d’un prétexte pour spolier le séminaire de ses chocolatines ? N’hésitez plus, cet exposé est fait pour vous ! |
Résumé : Quel rapport entre du ketchup, du gel à cheveux et de la boue ? Outre le fait qu'ils soient non-comestibles, ces fluides sont non-newtoniens et plus précisément présentent un caractère viscoplastique. Plus précisément, ces matériaux sont rigides si la contrainte qui s'exerce dessus n'est pas assez forte et ne se déforment que si elle excède un certain seuil. Après avoir dérivé le modèle qui nous intéresse (celui d'un fluide idéalisé purement viscoplastique), on s'intéressera à plusieurs résultats fondateurs, portant sur l'existence de solutions et sur leur approximation numérique. Vous n'avez plus touché aux EDP depuis votre L3 et vous n'avez jamais approché les milieux continus ? PAS DE PANIQUE, cet exposé reprendra tout depuis la base. |
Résumé : Nous considérons une marche aléatoire aux plus proches voisins sur un arbre aléatoire (arbre de Galton-Watson). Quels sont les critères de récurrence/transience de la marche ? Quel est le comportement du marcheur en temps long ? À travers un exposé se voulant accessible au plus grand nombre, je présenterai une méthode très visuelle (la "méthode du peintre", basée sur l'étude des temps locaux de la marche) permettant d'obtenir un théorème central limite sur la hauteur du marcheur dans l'arbre. |
Résumé : Lors de cet exposé, je commencerai par présenter les notions et les outils de base de la Combinatoire (notamment les séries génératrices), et j'illustrerai par des exemples l'utilité de ces séries, en particulier pour l'énumération des chemins. J'introduirai ensuite les groupes de Coxeter, qui sont des groupes engendrés par un nombre fini de générateurs vérifiant certaines relations. Enfin, je montrerai comment on peut énumérer certains éléments des groupes de Coxeter, les éléments (cycliquement) pleinement commutatifs, à l'aide de chemins. Bien entendu, aucun prérequis ne sera nécessaire pour suivre l'exposé. |
Résumé : Le groupe de Heisenberg de dimension 3 est un groupe de Lie naturellement rencontré en géométrie, en algèbre et en théorie du contrôle. Il porte naturellement une géométrie, dite de Carnot-Théodory. Dans cet exposé, nous étudierons de manière simple cette géométrie, d'un point de vue métrique, et comprendrons pourquoi ce groupe de Lie de dimension 3 est en réalité de dimension 4. |
Résumé : The optimal transport problem was born in 1781 in the "mémoire sur la théorie des déblais et remblais" of Gaspard Monge. From an heuristic point of view, this problem can be seen as follow : given a pile (déblai) and a hole (remblai), we want to find the optimal way to put the pile in the hole. During the twentieth century, this field received a new formalization in the measure theory framework. From this theory, a distance on the set of all probability measures of a given space was born: the Wasserstein distance. At the very beginning of the twenty first century, Felix Otto had the great idea of seeing the set of probability measures of a given space endowed with the Wasserstein distance as a "weak Riemannian manifold", on an article which gave birth to a theory named Otto calculus. We will see how the Otto calculus leads to the definition of some objects of the differential calculus in the Wasserstein space. At the end, we will see how the Otto calculus can lead us to have a better understanding of the Schrödinger problem, which is an entropic minimisation problem from quantum physics. |
Résumé : In experimental science, the model is greatly influenced by the scale at which one works. One has thus to make sure that the models are consistent with the change of scale. In some cases, taking the limit can be tricky, and an hunch can be misleading. In this talk, I will present a Stochastic Differential Equation (SDE) depending on a scaling parameter epsilon, and the perturbed test functions method which allows us to rigourously recover the limit when epsilon tends to 0.
|
Résumé : A large area of study in algebra and topology is that of Lie groups, and their linear counterparts the Lie algebras. The product in Lie algebras being slightly unusual, these objects are better understood by another linearization process: representation theory. The representation theory of Lie algebras is entirely encoded in an associative monoid called the plactic monoid. This monoid admits two notable different characterizations: by a presentation via generators and relations, and as a crystal monoid. In this talk I will discuss how these two approaches interact with one another, a byproduct of which are certain infinite dimensional extensions of these monoids. The components of these infinite dimensional extensions can be parametrized by a graphical calculus called trees. These construction open up an approach towards studying homological and homotopical properties of the plactic monoids. |
Résumé : The Chronic Myeloid leukemia (CML) is a blood cancer attributed to mutations in the white blood cells. The leukemic cells tend to proliferate rapidly and to have better survival capacities than healthy cells, while the immune system plays an important role in the long term response. We develop a system of PDEs that describes the interactions of leukemic and immune cells. The purpose of this work was primarily to see if the PDE model can better describe the real distribution of differentiated cells compared to ODE systems that already exist and do the stability analysis. The model is based on a non-monotonic immune response. At low levels, immune response increases with the tumor load whereas for high levels tumor is suppressing the effect of immune response (immunosuppression). In particular, under certain hypothesis, immune response grows fast at intermediate levels (in the ‘immune window’). With this model we find an unstable disease free-equilibrium point and alternated stability of high equilibria (high tumor load), the highest one being stable. For the remission equilibrium point the stability is not guaranteed. There are cases where this point is stable and others where stability is perturbed. We will investigate the robustness of the stability result. |
Résumé : In this talk, we will introduce the theory of the mathematical models for geophysical fluids like the atmosphere and the oceans. These fluids on large scales are characterized by a presence of a strong Coriolis force. |
Résumé : Selon Albert Einstein, "Dieu ne joue pas aux dés, enfin, sauf de temps en temps, par exemple en stat". Dans cet exposé qui se voudra le plus accessible possible, on (re)verra avec le Pr. Shadoko quelques-uns des concepts de base de statistique inférentielle, qui n'ont rien de bien sorcier au-delà d'un formalisme un peu tordu. On parlera en particulier de la notion de test : décider entre deux hypothèses en observant un échantillon aléatoire, en se permettant de dire n'importe quoi mais seulement avec faible probabilité. Le cœur de l'exposé sera consacré au risque minimax, qui est une quantification très pessimiste de ce que l'on peut faire de mieux dans un problème donné. C'est donc un descripteur assez théorique de la difficulté d'un problème statistique : montrer que votre test préféré atteint le risque minimax, c'est jurer que personne au monde, pas même avec la carte Kiwi, ne sait faire mieux. Vous avez alors gagné votre badge World's #1 Statistician, au moins dans votre catégorie ! |
Résumé : Le problème de Schrödinger a été introduit par Schrödinger himself dans les années 30. La question est la suivante: si on observe deux fois un nuage de particules, peut-on retrouver les positions intermédiaires? On verra dans un premier temps l'approche historique du problème, puis dans un deuxième temps le formalisme mathématique moderne. Dans un exposé aussi accessible que possible. |
Résumé : Je vous propose une présentation introductive sur certains des objets les plus classiques développés en inférence causale. En particulier, nous verrons les différentes problématiques auxquelles ils cherchent à répondre en nous imaginant être des épidémiologistes… Pour rappel, l’un des objectifs en épidémiologie est l’étude des liens causaux entre différents facteurs (tabagisme, diabète...) et un évènement donné (la survenue d’une maladie par exemple). Nous commencerons par voir la différence entre association et causalité, puis nous intéresserons ensuite aux modèles causaux structuraux, qui permettent notamment de définir les variables contrefactuelles. Ces variables contrefactuelles permettent de définir formellement les effets causaux ; nous verrons aussi des conditions assurant que ces effets puissent être estimés à partir de données dont nous disposons. Enfin, nous nous intéresserons aux analyses en médiations, qui cherchent à aller encore plus loin en décomposant les effets causaux comme une somme entre un effet direct et un (ou des) effet(s) indirect(s), médié(s) par des facteurs intermédiaires. |
Résumé : Le modèle de Keller et Segel parabolique-elliptique a été introduit dans les années 1970 pour décrire le chimiotactisme, c'est-à-dire le mouvement collectif de cellules induit par un signal chimique qu'en l'occurence elles émettent elles-même. On verra que ce modèle peut être vu comme un flot de gradient dans l'espace de Wasserstein pour une certaine fonctionnelle, et que l'étude de cette fonctionnelle permet de comprendre formellement et sans trop de calculs le phénomène de masse critique observé en pratique : si la quantité initiale de cellules dépasse un certain seuil, alors on constate qu'elles se concentrent en un point en temps fini. Il y aura plus de vieux que de nouveau dans cet exposé. |
Résumé : Le fil conducteur de cet exposé sera un objet récurrent en physique et en mathématiques : la divergence d'un champ de vecteurs. Pour le plus grand nombre, elle intervient d'abord en électrostatique : c'est elle qui fait le lien entre le champ électrique et les charges qui le génèrent (c'est l'équation de Maxwell-Gauss). D'autres penseront aux lois de conservation, au transport du volume par le flot d'une équation différentielle, ou même à des problèmes cohomologiques... |
Résumé : Localization and reconstruction of defects in waveguides is of crucial interest in nondestructive evaluation of structures. In this talk, I will present a new multi-frequency inversion method to image shape variations in slowly varying waveguides. Contrary to previous works done on this field, I choose to take advantage of the near resonance frequencies of the waveguide, where the Helmholtz problem is known to be ill conditioned. At these frequencies, a phenomenon strangely close to the tunnel effect in quantum mechanics can be observed and resonant modes propagate in the waveguide. These resonant modes are very sensitive to width variations, and measuring their amplitude enables to reconstruct the local variations of the waveguide shape with very high sensibility. I will provide numerical illustrations of this method, and apply it to detect defects like dilation or shrinkage of a waveguide. |
Résumé : Quelle est la forme optimale d'un donut? Il s'agit de la Conjecture de Willmore, une question demeurant ouverte chez les mathématiciens boulangers pendant un demi-siècle et résolue en 2012. En partant de la recherche de géodésiques fermées, l'exposé vise à présenter un cadre variationnel pour construire des surfaces d'aire minimales dans la sphère tridimensionnelle via la technique de min-max mise en oeuvre par Codá Marques et Neves, à qui l'on doit la preuve de cette conjecture. |
Résumé : Cet exposé abordera de façon accessible à toutes les notions d'aléa et de généricité, dans des contextes variés. |
Source : Indico - Math évènementiel - GDS Mathrice |