Rencontres Statistiques Lyonnaises



L'objectif des Rencontres Statistiques Lyonnaises est, comme son nom l'indique, de permettre aux personnes intéressées par la recherche en Statistique à Lyon de se rencontrer et de mieux connaître ce qui est fait dans les différentes institutions lyonnaises.  Ces rencontres ont débuté en octobre 2009, et ont lieu sur la base d'environ une rencontre par mois. Les premiers exposés ont été d'ordre introductif, accessibles à tous. Il n'y a jusqu'à ce jour pas de créneau fixe, mais chaque rencontre est fixée après consultation des membres de la liste de diffusion.
Si vous souhaitez adhérer à cette liste de diffusion, merci d'écrire à fougeresATmath.univ-lyon1.fr (remplacer 'AT' par @).

Résumé : Quand on observe des données fonctionnelles, il faut prendre en compte au moins 2 types de variabilités : la variabilité en amplitude et la variabilité en phase. L'alignement de données fonctionnelles (se focalisant sur la variabilité en phase) est un sujet de recherche assez ancien, qui intéresse de nombreuses communautés. Dans le tutoriel, je présenterai différentes méthodes proposées dans la littérature, allant d'outils de statistiques mathématiques (Kneip et Gasser, Annals of Statistics, 1992) à des algorithmes développés pour la reconnaissance vocale (Sakoe, IEEE Transactions on Acoustics, Speech and Signal Processing, 1978).
Des chercheurs de domaines très différents s'intéressent à ce sujet, et ce tutoriel sera l'occasion de dresser un état de l'art.
Ensuite, dans l'exposé plus technique, je présenterai la méthode d'analyse de données fonctionnelles, appelée 'warpMix', que j'ai développée pendant mon post-doctorat, en collaboration avec Irène Gijbels et Gerda Claeskens (KU Leuven, Belgique). Le but principal est d'étudier la moyenne globale des courbes. Basée sur des modèles mixtes fonctionnels non linéaires, la méthode ne repose pas sur l'existence de 'pics', ce qui rend l'utilisation plus aisée, et est validée par des résultats théoriques asymptotiques, permettant d'obtenir des bornes de confiance pour cette courbe moyenne.





Résumé : Les fonctionnelles de clusters d’extrêmes ont été introduites et étudiées par Yun (2000) pour les chaînes de Markov d’ordre d. Quelques années plus tard, Segers (2003) et Drees & Rootzén (2010) fournissent des résultats asymptotiques dans le cadre des processus stationnaires unidimensionnels et multidimensionnels respectivement. Cependant, ces résultats sont démontrés sous des conditions de dépendance de type mélange, qui sont très restrictives : elles sont particulièrement adaptées aux modèles de finance et d’histoire, et elles sont de plus compliquées à vérifier. Généralement, pour d’autres modèles fréquemment rencontrés dans les domaines applicatifs, les conditions de mélange ne sont pas satisfaites. En revanche, les conditions de dépendance faible de Doukhan & Louhichi (1999) et Dedecker & Prieur (2004a) sont plus générales et comprennent une grande liste de modèles. Plus précisément, sous des conditions faibles, tous les processus causaux ou non causaux sont faiblement dépendants : les processus Gaussiens, associés, linéaires, ARCH(∞), bilinéaires et notamment Volterra entrent dans cette liste. À partir de ces conditions favorables, nous étendons certains de ces résultats aux processus faiblement dépendants.
Comme une grande partie des estimateurs utilisés dans l’analyse statistique des extrêmes peuvent être écrits en termes de fonctionnelles de clusters, nous utilisons ce fait et les résultats précédents pour démontrer des théorèmes limites pour certains estimateurs comme l’estimateur de l’extrémogramme et l’indice extrémal.
L’exposé conclura avec des extensions aux champs aléatoires et des applications à l’étude d’éoliennes au Chili et de températures en Uruguay



Résumé : This presentation will provide an update on how to manage missing data (imputation, mechanism that generate missing values, etc). Most of the methods have been developed with the objective of estimating the parameters and their variance as best as possible with missing values and not in a predictive framework. Thus, many practical questions have not been studied much: what to do with missing data in a test dataset, should the response variable be integrated into imputation methods.... In particular, we will focus on establishing predictive models with missing data with random forests that have the advantage of being able to be used to make causal inferences with double robust  methods.