Rencontres Statistiques Lyonnaises



L'objectif des Rencontres Statistiques Lyonnaises est, comme son nom l'indique, de permettre aux personnes intéressées par la recherche en Statistique à Lyon de se rencontrer et de mieux connaître ce qui est fait dans les différentes institutions lyonnaises.  Ces rencontres ont débuté en octobre 2009, et ont lieu sur la base d'environ une rencontre par mois. Les premiers exposés ont été d'ordre introductif, accessibles à tous. Il n'y a jusqu'à ce jour pas de créneau fixe, mais chaque rencontre est fixée après consultation des membres de la liste de diffusion.
Si vous souhaitez adhérer à cette liste de diffusion, merci d'écrire à fougeresATmath.univ-lyon1.fr (remplacer 'AT' par @).

Résumé :  On considère le problème d'estimer la position et l'intensité de sources ponctuelles réparties en $L$ groupes, ou "spike trains" et dont chacun est convolué par une "point spread function"  $g(\dots/\mu_l)$, $l=1,\ldot,L$. Dans de multiples applications, seule la somme de ces spike trains convolués, appelée "mélange", est accessible à l'observation. Ce problème est une géneralisation du problème de super-résolution, qui correspond au cas $L = 1$, et qui a été l'objet d'une récente et intense activité de recherche, sous l'impulsion de Azais, de Castro, Gamboa, Cand\`es, Fernandes-Granda, Recht, Schiebinger, Bandari, Moitra, etc. Nous démontrons dans ce travail qu'en choisissant des échantillons de la transformée de Fourier du mélange de manière adéquate, l'application successive d'un algorithme proposé récemment par Moitra permet d'estimer la position des sources dans chaque groupe avec des garanties non asymptotiques précises. Ces résultats seront appuyés par des illustrations numériques. » Voir https://arxiv.org/pdf/1807.02862.pdf     

Résumé : This presentation will provide an update on how to manage missing data (imputation, mechanism that generate missing values, etc). Most of the methods have been developed with the objective of estimating the parameters and their variance as best as possible with missing values and not in a predictive framework. Thus, many practical questions have not been studied much: what to do with missing data in a test dataset, should the response variable be integrated into imputation methods.... In particular, we will focus on establishing predictive models with missing data with random forests that have the advantage of being able to be used to make causal inferences with double robust  methods.