Prochaines journées

Les prochaines journées auront lieu à Caen mi novembre 2024, le 14 après midi et 15 matin. Elles se termineront par un buffet dinatoire convivial vendredi midi offert à tous les participants.

Programme

 

Jeudi 14 novembre 2024

Salle S3 259

 

14h Andrei Romashchenko, LIRMM, CNRS et Univ. Montpellier

Information mutuelle de trois variables aléatoires en combinatoire et complexité de communication.

La notion d'information mutuelle pour un triplet de variables aléatoires (et, plus généralement, d'information mutuelle multivariée) a une mauvaise réputation : cette quantité peut être soit positive, soit négative, et ses sens physique et opérationnel sont vagues. Nous discuterons certaines propriétés naturelles d'un triplet de variables aléatoires qui permettent de déterminer le signe de son information mutuelle (prédire si elle est positive ou négative). Nous considérerons des liens de l'information multivariée avec les propriétés combinatoires des graphes (propriété de mélange, forte connectivité, écart spectral) et avec les bornes inférieures dans les problèmes de complexité de communication.

14h45 Pierre Maréchal, IMT Toulouse

Sur l'approche variationnelle de la mollification

La régularisation des problèmes inverses mal posés constitue un domaine important, tant par le nombre et la diversité des problèmes concernés dans les sciences appliquées que par la variété des approches proposées. La famille des méthodes variationnelles occupe aujourd'hui une place prépondérante dans ce domaine. Parmi ces méthodes, nous nous intéressons particulièrement à la mollification, qui offre de belles perspectives, tant sur le plan théorique que pratique. Dans cette présentation, nous donnerons un aperçu de la méthode variationnelle de mollification et aborderons plusieurs applications, dont la déconvolution, l'inversion de la transformée de Laplace réelle, ainsi qu'un problème de Cauchy pour l'équation inhomogène de Helmholtz.


15h30 Pause Café

16h Martino Trassinelli, CNRS - Institut des NanoSciences de Paris
Une introduction à l'analyse des données basée sur la statistique bayésienne.

Les concepts de la statistique bayésienne sont ici présentés pour une application concrète à l'analyse des données. En partant des règles de base de la probabilité, nous présentons le théorème de Bayes et ses applications. Nous discutons des limites des méthodes statistiques standard (fréquentistes) et des cas dans lesquels elles ne sont plus suffisantes et pour lesquels une analyse bayésienne est nécessaire. En particulier, nous présentons comment traiter certains problèmes courants, comme :

a) ajuster correctement aux données des modèles dont les paramètres sont soumis à des contraintes,

b) comment traiter les problèmes multimodaux,

et, plus important encore,

c) comment attribuer une probabilité à différents modèles possibles à partir du même jeu de données (par exemple, comment déterminer le nombre de pics dans un spectre partiellement résolu, déterminer le type de profil des pics, etc.).

Contrairement aux méthodes standard de test de modèles généralement basées sur des critères, l’approche bayésienne consiste en l’attribution d’une probabilité quantitative aux différents modèles (ou hypothèses). Ceci permet de traiter en particulier les cas où une hypothèse de travail n’est pas dominante sur les autres. Dans ce cas, une moyenne pondérée entre les différents modèles d'un paramètre en commun (par exemple pour déterminer la position d'un pic, mais pas sa forme spécifique) peut être déterminée. L'incertitude résultant du choix du modèle est donc quantifiée et ajoutée à l'incertitude statistique.

16h45 Raphaël Leman, LBGC, Centre François Baclesse, Caen

De la modélisation des données de séquençage à haut débit de l’ADN au traitement des cancers de l’ovaire : exemple du test GIScar

Les cancers ovariens séreux de haut grade présentant un déficit de réparation de l'ADN par recombinaison homologue sont particulièrement sensibles aux traitements d'entretien incluant un inhibiteur de PARP, l’olaparib. Ces déficits de réparation génèrent des « cicatrices » génomiques tumorales. Il est donc essentiel d’identifier les patientes dont les tumeurs présentent ces déficits de réparation dès le diagnostic initial. Nous avons développé une nouvelle méthode de détection de ces cicatrices, GIScar (Genomic Instability Scar). GIScar a été mis au point grâce au séquençage ciblé d'un panel de 127 gènes. Ces données permettent dans un premier temps de détecter ces cicatrices par segmentation binaire circulaire des valeurs de couvertures. Le modèle intégré dans GIscar est basé sur une régression logistique multivariée et a été entrainé à partir d'une étude non interventionnelle portant sur 250 échantillons de tumeurs ovariennes collectés de manière prospective. GIScar a été validé sur 469 échantillons d’ADN tumoraux provenant de l'étude PAOLA-1 évaluant l'efficacité de l’olaparib pour le cancer de l'ovaire nouvellement diagnostiqué, et sa valeur prédictive a été comparée au test historique Myriad Genetics MyChoice. Ainsi notre test GIScar a montré sa capacité à identifier les patientes qui peuvent bénéficier d’un traitement par l'olaparib avec un taux d’échec inférieur à 1 %. Ces performances autorisent le déploiement de GIScar dans les laboratoires universitaires et hospitaliers de biologie moléculaire.

 

Vendredi 15 novembre

Amphi S3 - 049

10h30 Ayoub Otmani, LITIS, Université de Rouen Normandie

Entropie en cryptographie

La cryptographie repose sur le concept d’impossibilité pour une partie illégitime d’accéder à un secret. Le premier outil pour offrir une telle garantie est d’avoir accès à une source d’aléa qui soit en mesure de produire à la demande une séquence de bits de manière efficace et fiable. L’entropie introduite par Shannon est une mesure de la qualité de l’aléa mais il existe en cryptographie d’autres notions d’entropie définies pour des notions de sécurité différentes.
Cet exposé a pour vocation d’offrir un panorama des différentes entropies et de leur utilité en cryptographie.

11h15 Julien Béguinot, LTCI, TELECOM Paris

Qu'est ce que l'information peut deviner ?

Nous verrons comment l'inégalité de Gibbs et sa généralisation naturelle aux entropies de Rényi permet de borner inférieurement le nombre minimal moyen d'essais nécessaire a un adversaire pour deviner une variable aléatoire secrète M-aire en terme de l'information (information mutuelle ou alpha information de Sibson) fournie sur le secret par une variable auxiliaire fournie a l'adversaire.
Nous appliquerons ce résultat aux attaques par canaux cachés. En particulier, nous verrons que dans le pire cas l'avantage de l'adversaire en terme de nombre d'essais par rapport a un adversaire sans aucune information décroit comme la racine carrée de l'information qui lui est fournie.

Les journées suivantes auront lieu à Reims en mars 2025.

Personnes connectées : 2 Vie privée
Chargement...