Home » HDRs

HDRs 2020



  Benoit Delahaye, Modeling and Verification of Systems with Uncertainties
Modeling and Verification of Systems with Uncertainties
Author : Benoit Delahaye
Document :


Keywords : ModelingVerificationModel CheckingUncertainties
Abstract



Defense date : 10-12-2020
Jury president : Colin de la Higuera
Jury :
  • Christel Baier
  • Béatrice Bérard
  • Patricia Bouyer-Decitre
  • Pedro R. D’Argenio
  • Holger Hermanns

  Damien Eveillard, From Systems Biology to Systems Ecology: A Computational Journey Through Biological Scales
From Systems Biology to Systems Ecology: A Computational Journey Through Biological Scales
Author : Damien Eveillard
Document :


Keywords : Systems biologyComputational modelingConstraintsMicrobial ecology
Abstract

Recent progress in metagenomics has promoted a change of paradigm to investigate microbial ecosystems. These ecosystems are today analyzed by their gene content that, in particular, allows to emphasize the microbial composition in term of taxonomy (i.e., «who is there and who is not») or more recently their putative functions. However, understanding the interactions between microbial communities and their environment well enough to be able to predict diversity based on physicochemical parameters is a fundamental pursuit of microbial ecology that still eludes us. This task requires to decipher the mechanistic rules that prevail at the molecular level. Such a task must be achieved by dedicated computational approaches or modeling, as inspired by Systems Biology. Nevertheless, the direct application of standard cellular systems biology approaches is a complicated task. Indeed, the metagenomic description of ecosystems shows a large number of variables to investigate. Furthermore, communities are complex, mostly described qualitatively, and the quantitative understanding of the way communities interacts with their surroundings remains incomplete. Within this research summary, we will illustrate how systems biology approaches must be adapted to overcome these points in different manners. First, we will present the application of bioinformatics protocol on metagenomics data, with a particular emphasis on network analysis. Second, we will describe how to integrate heterogeneous omics knowledge via logic programming. Such integration will emphasize putative functional units at the community level. Third, we will illustrate the design and the use of quantitative modeling from this network. In particular, constraint-Based modeling will be used to predict microbial community structure and its behaviors based on genome-scale knowledge.


Defense date : 13-10-2020
Jury president : Philippe Vandenkoornhuyse
Jury :
  • Christopher Quince [Rapporteur]
  • Claudine Medigue [Rapporteure]
  • Eric Rivals [Rapporteur]
  • Alexander Bockmayr [examinateur]
  • Jérémie Bourdon [examinateur]
  • Karoline Faust [examinatrice]

  David Lemoine, Vers une intégration décisionnelle en planification de production
Vers une intégration décisionnelle en planification de production
Author : David Lemoine
Document :


Keywords : Lot-sizingTactical planningSupply ChainIndustry 40WCRMaintenanceFinanceDecision-making integration
Abstract



Defense date : 09-09-2020
Jury president : Nathalie Bostel
Jury :

      Dalila Tamzalit, TOWARDS SOFTWARE EVOLUTION ENGINEERING: AN ARCHITECTURAL APPROACH. LOCKS, CONTRIBUTIONS AND PERSPECTIVES
    TOWARDS SOFTWARE EVOLUTION ENGINEERING: AN ARCHITECTURAL APPROACH. LOCKS, CONTRIBUTIONS AND PERSPECTIVES
    Author : Dalila Tamzalit
    Document :


    Keywords : Software architectures evolutionSustainable Software architectures
    Abstract



    Defense date : 26-06-2020
    Jury president : Claude Jard
    Jury :
    • Yamine Aït-Ameur
    • Marianne Huchard
    • Houari Sahraoui
    • Mireille Blay-Fornarino
    • Xavier Blanc
    • Mourad Oussalah
    • Yves Caseau

      Patricia Serrano-Alvarado, Protecting user data in distributed systems
    Protecting user data in distributed systems
    Author : Patricia Serrano-Alvarado
    Document :


    Keywords : Data privacyLicensesTrustPeer-to-peer systemsLinked DataFederated query processingUsage control
    Abstract

    Protecting user data in distributed systems nowadays is very dicult. In this thesis, we focus on various issues related to the protection of user data on distributed data management systems, whose architectures range from client-server architectures to federations of servers or huge peer-to-peer organizations. Our first contribution is about trust in a system. We propose a metamodel based on first order logic, that allows to model a system considering entities of the social and digital worlds and their relations. Then we propose two approaches that allow users to evaluate trust in systems. In the context of peer-to-peer systems, we propose a data privacy model, and its DHT- based implementation, as well as a framework to measure and improve users’ satisfaction. In the context of the semantic web, in particular the Linked Data, we propose two approaches for deducing BGPs of SPARQL queries. Finally, we propose a lattice-based model that allows to position licenses in terms of compatibility and compliance.


    Defense date : 16-06-2020
    Jury president : Pascale Kuntz-Cosperec
    Jury :
    • Luc Bouganim [Rapporteur]
    • Sébastien Gambs [Rapporteur]
    • Daniel Le Métayer [Rapporteur]
    • Catherine Faron Zucker
    • Marie-Christine Rousset

      Sébastien Bourguignon, Modèles et algorithmes dédiés pour la résolution de problèmes inverses parcimonieux en traitement du signal et de l'image
    Modèles et algorithmes dédiés pour la résolution de problèmes inverses parcimonieux en traitement du signal et de l'image
    Author : Sébastien Bourguignon
    Document :


    Keywords : Signal processingInverse problemsOptimizationSparsityOperations researchAstrophysicsHyperspectral imagingUltrasonic imagingNondestructive testing
    Abstract

    Dans de nombreux problèmes inverses rencontrés en traitement du signal et de l'image, le manque d'information contenue dans les données peut être compensé par la prise en compte d'une contrainte de parcimonie sur la solution recherchée. L'hypothèse de parcimonie suppose que l'objet d'intérêt peut s'exprimer, de manière exacte ou approchée, comme la combinaison linéaire d'un petit nombre d'éléments choisis dans un dictionnaire adapté. Je présenterai différentes contributions apportées dans la construction de modèles parcimonieux. Dans plusieurs contextes applicatifs, nous cherchons à raffiner les représentations classiques reliant les données aux grandeurs d'intérêt à estimer, afin de les rendre plus fidèles à la réalité des processus observés. Cet enrichissement de modèle, s'il permet d'améliorer la qualité des solutions obtenues, s'opère au détriment d'une augmentation de la complexité calculatoire. Nous proposons donc des solutions algorithmiques dédiées, relevant essentiellement de l'optimisation mathématique. Un premier volet envisage la restauration de données d'imagerie hyperspectrale en astronomie, où l'observation de champs profonds depuis le sol s'effectue dans des conditions très dégradées. Le débruitage et la déconvolution sont abordés sous une hypothèse de parcimonie des spectres recherchés dans un dictionnaire de formes élémentaires. Des algorithmes d'optimisation capables de gérer la grande dimension des données sont proposés, reposant essentiellement sur l'optimisation de critères pénalisés par la norme l_1, par une approche de type descente par coordonnée. Une deuxième application concerne la déconvolution parcimonieuse pour le contrôle non destructif par ultrasons. Nous construisons, d'une part, un modèle "à haute résolution", permettant de suréchantillonner la séquence parcimonieuse recherchée par rapport aux données, pour lequel nous adaptons les algorithmes classiques de déconvolution. D'autre part, nous proposons de raffiner le modèle convolutif standard en intégrant des phénomènes de propagation acoustique, débouchant sur un modèle non invariant par translation. Ces travaux sont ensuite étendus à l'imagerie ultrasonore, par la construction de modèles de données adaptés et l'optimisation de critères favorisant la parcimonie. Nous abordons enfin des travaux plus génériques menés sur l'optimisation globale de critères parcimonieux impliquant la "norme" l_0 (le nombre de coefficients non nuls dans la décomposition recherchée). Alors que l'essentiel des travaux en estimation parcimonieuse privilégie des formulations sous-optimales adaptées aux problèmes de grande taille, nous nous intéressons à la recherche de solutions exactes des problèmes l_0 au moyen d'algorithmes branch-and-bound. De tels modèles parcimonieux, s'ils s'avèrent plus coûteux en temps de calcul, peuvent fournir de meilleures solutions et restent de complexité abordable sur des problèmes de taille modérée. Des applications sont proposées pour la déconvolution de signaux monodimensionnels et pour le démélange spectral. La présentation de quelques pistes de recherche à court et moyen terme conclura cet exposé.


    Defense date : 06-02-2020
    Jury president : Pierre Chainais
    Jury :
    • Laure Blanc-Féraud (Rapporteure)
    • Stéphane Canu ( Rapporteur)
    • Olivier Michel (Rapporteur)
    • Christine De Mol (Examinatrice)
    • Nicolas Gillis (Examinateur)
    • Pierre Chainais (Président)
    Annexes :

      Vincent Ricordel, Outils et méthodes pour le codage vidéo perceptuel
    Outils et méthodes pour le codage vidéo perceptuel
    Author : Vincent Ricordel
    Document :


    Keywords : Video codingPerceptuel video codingH264/AVCH265/HEVCHuman visual systemArchiPEG ANR projectPERSEE ANR projectPROVISION ITN projectOriented wavelets transformVisual texturesTextures similaritySpatio-temporal tubeVisual attention3D visual attention3D points cloudsTree-structured lattice vector quantization
    Abstract

    On ne peut que constater combien la technologie vidéo est devenue omniprésente en un peu plus d’une décennie. Si les besoins des nouveaux services vidéo ont été en partie satisfaits par l’efficacité des réseaux et de leurs technologies de couche physique, en parallèle les codecs vidéo ont été primordiaux en offrant compression et nouvelles fonctionnalités. La recherche en codage vidéo se caractérise alors par un fort contexte normatif où le point de compatibilité se fait au niveau du décodage. Les performances de chaque nouveau standard sont remarquables, car typiquement chacun par rapport au précédent, code avec la même qualité objective un format vidéo donné mais en divisant par deux le débit nécessaire. Il est cependant frappant de constater que le paradigme de la couche de codage n’a pas changé depuis l’origine, avec un codec dissymétrique où les décisions sont prises à l’encodage via un schéma hybride intégrant les étapes de prédiction, transformation, quantification et codage entropique. Il est aussi surprenant de constater la persistance de l’implantation dans les codeurs pour la phase d’optimisation débit-distorsion, d’un calcul de distorsion de type erreur quadratique moyenne, alors que l’on sait la corrélation pauvre entre les résultats de cette métrique et le jugement humain. C’est à ce niveau que se définit l’objectif du codage vidéo perceptuel qui est d’aller vers une représentation de l'information basée sur le contenu perçu et qui puisse servir de paradigme pour un codage basé qualité perceptuelle des contenus des vidéos 2D et 3D. Pour être en phase avec les approches standards, l’objectif devient de guider les choix de codage de façon à aller vers la fidélité perceptuelle sans perte des vidéos décodées. Mes travaux se positionnent donc dans cette recherche des outils et des méthodes où les choix pour améliorer la qualité perceptuelle guident le codage vidéo. Mon mémoire retrace mon itinéraire scientifique au sein des équipes IVC IRCCyN puis IPI LS2N qui, du fait des recherche qui y sont conduites sur la modélisation du système visuel humain, ont offert et offrent encore un cadre collaboratif particulièrement propice aux travaux liés au codage vidéo perceptuel. Mes contributions au codage vidéo perceptuel se sont principalement organisées au sein de projets de recherche visant à contribuer aux efforts faits en normalisation, avec le projet ANR ArchiPEG qui avait pour objectif l'optimisation du codage vidéo HD en flux H.264/AVC, le projet ANR PERSEE qui s'intéressait au codage perceptuel des formats vidéo 2D et 3D via le codec H.264 et son extension MVC, et le projet européen ITN PROVISION qui visait le codage perceptuel via HEVC. Mes contributions ont été produites au travers l’encadrement de masters et de thèses (4 soutenues, 1 en cours), et nous verrons que nous avons agi à 2 niveaux de la boucle de codage vidéo hybride. Une première possibilité est d’améliorer directement des unités de la boucle de codage. C’est ainsi que nous avons mis en œuvre une transformation directionnelle tenant compte des orientations géométriques au sein de l’image. Nous avons exploité cette représentation de l’information afin de construire des classes de structures, puis adapté la quantification de leur contenu en se basant sur des critères perceptuels. Nous avons aussi, après avoir défini la notion de textures spatio-temporelles visuelles, proposé un modèle mesurant la similarité entre ces textures visuelles. Ce modèle computationnel basé sur le traitement cortical du SVH, a ensuite été utilisé afin d’améliorer la boucle de codage de HEVC : en identifiant des classes de textures visuelles et en faisant correspondre à la distorsion objective standard calculée par le codeur sa valeur dans le domaine perceptuel. Une autre approche consiste à mettre en place un schéma de pré-analyse avant encodage afin de piloter ensuite efficacement le codage des régions d’intérêt. La modélisation de l’attention visuelle est donc essentielle au niveau de cette analyse. Nous avons conçu un schéma de pré-analyse basé sur des tubes spatio-temporels. Cet outil réalise la segmentation et le suivi des objets constitués de tubes connexes, et il leur associe une saillance visuelle. L’ensemble de ces informations est exploitée afin d’assurer un codage cohérent des objets en flux H.264/AVC. Exactement nous avons testé l’adaptation de la structure du GOP, et le guidage de la qualité visuelle. Nous avons aussi développé le premier modèle computationnel de l’attention visuelle 3D s’appliquant à la visualisation d’images stéréoscopiques. Ce modèle combine deux cartes de saillance visuelle : celle 2D et celle de profondeur. Nous avons utilisé ce modèle afin d’améliorer la qualité d’expérience de visualisation de la TV3D, par ajout d’un flou de défocalisation sur la région ayant moins d’intérêt. Dans la dernière partie de mon mémoire, un bilan et des perspectives sont donnés. Nous nous intéressons en particulier au codage des formats vidéo immersifs représentés par des nuages de points 3D. Nos derniers travaux montrent l’intérêt d’une approche basée quantification vectorielle algébrique et arborescente, permettant de structurer graduellement la géométrie de la scène, et cela en fonction d’un critère débit-distorsion.


    Defense date : 22-01-2020
    Jury president : Luce Morin(luce.morin@insa-rennes.fr)invading
    Jury :
    • Marc Antonini (rapporteur)
    • William Puech (rapporteur)
    • Olivier Déforges (rapporteur)
    • Marco Cagnazzo (examinateur)
    • Luce Morin (examinatrice)
    • Marc Gelgon (examinateur)
    • Bogdan Cramariuc (examinateur)
    Annexes :

    Copyright : LS2N 2017 - Legal notices - 
     -