Home » Thèses

Thèses soutenues 2022



  Maël Millardet, Amélioration de la quantification des images TEP à l’yttrium 90
Amélioration de la quantification des images TEP à l’yttrium 90
Auteur : Maël Millardet
Manuscript :
Equipe : SIMS.


Mots-clés : TEPAlgorithmes de reconstruction tomographiqueYttrium 90Optimisation linéaireAnalyse multi-objectifs
Résumé

La popularité de l'imagerie TEP à l'yttrium 90 va grandissante. Cependant, la probabilité qu'une désintégration d'un noyau d'yttrium 90 mène à l'émission d'un positon n'est que de 3,2 × 10−5, et les images reconstruites sont par conséquent caractérisées par un niveau de bruit élevé, ainsi que par un biais positif dans les régions de faible activité. Pour corriger ces problèmes, les méthodes classiques consistent à utiliser des algorithmes pénalisés, ou autorisant des valeurs négatives dans l'image. Cependant, une étude comparant et combinant ces différentes méthodes dans le contexte spécifique de l'yttrium 90 manquait encore à l'appel au début de cette thèse. Cette dernière vise donc à combler ce manque. Malheureusement, les méthodes autorisant les valeurs négatives ne peuvent pas être utilisées directement dans le cadre d'une étude dosimétrique, et cette thèse commence donc par proposer une nouvelle méthode de post-traitement des images, visant à en supprimer les valeurs négatives en en conservant les valeurs moyennes le plus localement possible. Une analyse complète multi-objectifs de ces différentes méthodes est ensuite proposée. Cette thèse se termine en posant les prémices de ce qui pourra devenir un algorithme permettant de proposer un jeu d'hyper-paramètres de reconstruction adéquats, à partir des seuls sinogrammes.


Date de soutenance : 11-04-2022
Président du jury : Saïd Moussaoui
Jury :
  • Claude COMTAT
  • Nicolas DOBIGEON
  • Mai NGUYEN-VERGER
  • Emilie CHOUZENOUX
  • Voichita MAXIM
  • Diana MATEUS
  • Françoise KRAEBER-BODÉRÉ
  • Jérôme IDIER

  Ygor Gallina, Indexation de bout-en-bout dans les bibliothèques numériques scientifiques
Indexation de bout-en-bout dans les bibliothèques numériques scientifiques
Auteur : Ygor Gallina
Manuscript :
Equipe : SIMS.


Mots-clés : Indexation automatiqueMots-clésEvaluation extrinsèqueRecherche d'information / Semantic contentsGénération de mots-clésMéthodes de bout en bout
Résumé

Le nombre de documents scientifiques dans les bibliothèques numériques ne cesse d'augmenter. Les mots-clés, permettant d'enrichir l'indexation de ces documents ne peuvent être annotés manuellement étant donné le volume de document à traiter. La production automatique de mots-clés est donc un enjeu important. Le cadre évaluatif le plus utilisé pour cette tâche souffre de nombreuses faiblesses qui rendent l'évaluation des nouvelles méthodes neuronales peu fiables. Notre objectif est d'identifier précisément ces faiblesses et d'y apporter des solutions selon trois axes. Dans un premier temps, nous introduisons KPTimes, un jeu de données du domaine journalistique. Il nous permet d'analyser la capacité de généralisation des méthodes neuronales. De manière surprenante, nos expériences montrent que le modèle le moins performant est celui qui généralise le mieux. Dans un deuxième temps, nous effectuons une comparaison systématique des méthodes états de l'art grâce à un cadre expérimental strict. Cette comparaison indique que les méthodes de référence comme TF×IDF sont toujours compétitives et que la qualité des mots-clés de référence a un impact fort sur la fiabilité de l'évaluation. Enfin, nous présentons un nouveau protocole d'évaluation extrinsèque basé sur la recherche d'information. Il nous permet d'évaluer l'utilité des mots-clés, une question peu abordée jusqu'à présent. Cette évaluation nous permet de mieux identifier les mots-clés importants pour la tâche de production automatique de mots-clés et d'orienter les futurs travaux.


Date de soutenance : 28-03-2022
Président du jury : Béatrice Daille
Jury :

      Pierre Blaud, Pilotage distribué de systèmes multi-énergies en réseau
    Pilotage distribué de systèmes multi-énergies en réseau
    Auteur : Pierre Blaud
    Manuscript :
    Equipes : COMMANDE, CODEX.


    Mots-clés : Systèmes multi-énergiesCommande prédictiveRéseaux de neurones artificiels
    Résumé

    Un système multi-énergie se définit comme un ensemble de convertisseurs énergétiques permettant le couplage de différents vecteurs énergétiques (gaz, électricité, chaud,froid, etc.) pour répondre aux demandes d’unités de production, industrielles ou agricoles, voire d’immeubles abritant les activités humaines (logement, travail, loisirs) par exemple. La littérature actuelle foisonne de cas d’étude démontrant leur potentiel significatif pour des gains de flexibilité et d’efficacité énergétiques, moyennant la valorisation des synergies entre vecteurs et donc une commande optimale. Ce travail contribue à la recherche relative à la problématique de la gestion optimisée des différents vecteurs énergétiques constitutifs des systèmes multi-énergies, au bénéfice de l’entité visée. Il embrasse à la fois la question de la modélisation et du pilotage. La formalisation du modèle s’appuie sur la notion d’energy hub. Son comportement dynamique est décrit par un modèle d’état neuronal. Afin de ne pas dépendre des seules données expérimentales, rarement disponibles en phase de conception, l’approche mise sur la complémentarité entre la modélisation multi-physique et la modélisation neuronale. La première procède par interconnexion de sous-systèmes souvent pré-existants dans les librairies ad hoc (cf. démarche générale de capitalisation de modèles multi-physiques). La seconde procède à partir de données, qui seront, dans le cadre de la méthodologie proposée ici, produite par la simulation du modèle multi-physique du système à l’étude. Notre réflexion ici a porté sur la question du choix d’une structure neuronale adaptée, et sur celle du choix des méta-paramètres d’apprentissage. Les modèles proposés ont ensuite été mis au service du pilotage, utilisés comme modèles internes de la commande dite prédictive ou EMPC (Economic Model Predictive Control). Cette dernière complète bien en effet la méthodologie globale, en ce qu’elle permet de gérer les compromis de pilotage, voire d’optimisation d’un coût économique. Le coût économique peut être relié notamment, au coût relatif des différents supports énergétiques). Le cas d’application considéré in fine est celui du pilotage du système énergétique d’une serre agricole, comprenant comme vecteurs énergétiques de l’électrique, de la chaleur à basse et à haute température, du CO2 et comme source énergétique le gaz naturel. Les résultats obtenus montrent que la méthodologie développée est applicable et que l’utilisation de la commande avancée permet d’optimiser l’utilisation du gaz naturel par l’optimisation de l’utilisation des différents équipements du système énergétique de la serre.


    Date de soutenance : 21-03-2022
    Président du jury : Philippe Chevrel
    Jury :
    • Eric Bideaux [Président]
    • Mazen Alamir [Rapporteur]
    • Hervé Guéguen [Rapporteur]
    • Yacine Gaoua
    • Pauline Kergus
    • Fabien Claveau
    • Pierrick Haurant

      Samuel Buchet, Vérification formelle et apprentissage logique pour la modélisation qualitative à partir de données single-cell
    Vérification formelle et apprentissage logique pour la modélisation qualitative à partir de données single-cell
    Auteur : Samuel Buchet
    Manuscript :
    Equipes : COMMANDE, CODEX.


    Mots-clés : Biologie des systèmesRéseaux de régulation génétiqueSéquençage single-cellModèles qualitatifsMéthodes formellesApprentissage automatique
    Résumé

    La compréhension des mécanismes cellulaires à l’œuvre au sein des organismes vivants repose généralement sur l’étude de leur expression génétique. Cependant, les gènes sont impliqués dans des processus de régulation complexes et leur mesureest difficile à réaliser. Dans ce contexte, la modélisation qualitative des réseaux de régulation génétique vise à établir la fonction de chaque gène à partir de la modélisation discrète d’un réseau d’interaction dynamique. Dans cette thèse, nous avons pour objectif de mettre en place cette approche de modélisation à partir des données de séquençage single-cell. Ces données se révèlent en effet intéressantes pour la modélisation qualitative, car elles apportent une grande précision et peuvent être interprétées de manière dynamique. Nous développons ainsi une méthode d’inférence de modèles qualitatifs basée sur l’apprentissage automatique de programmes logiques. Cette méthode est mise en œuvre sur des données single-cell et nous proposons plusieurs approches pour interpréter les modèles résultants en les confrontant avec des connaissances préétablies


    Date de soutenance : 14-03-2022
    Président du jury : Morgan Magnin
    Jury :
    • Philippe Dague [Président]
    • Madalena Chaves [Rapporteur]
    • Jean-Paul Comet [Rapporteur]
    • Sabine Pérès

      Ali Ak, Évaluation de la qualité perceptuelle de contenus multimédias immersifs : HDR, champs lumineux et vidéos volumétriques
    Évaluation de la qualité perceptuelle de contenus multimédias immersifs : HDR, champs lumineux et vidéos volumétriques
    Auteur : Ali Ak
    Manuscript :
    Equipe : IPI.


    Mots-clés : Évaluation de la qualité médias immersifsMappage ton localChamps lumineuxVidéo volumétrique
    Résumé

    Des formats multimédias immersifs ont émergé comme un puissant canevas dans de nombreuses disciplines pour offrir une expérience utilisateur hyperréaliste. Ils peuvent prendre de nombreuses formes, telles que des images HDR, des champs lumineux, des nuages de points et des vidéos volumétriques. L’objectif de cette thèse est de proposer de nouvelles méthodologies pour l’évaluation de la qualité de tels contenus. La première partie de la thèse porte sur l’évaluation subjective de la qualité d’image. Plus précisément, nous proposons une stratégie de sélection de contenu et d’observateurs, ainsi qu’une analyse approfondie de la fiabilité des plateformes de crowdsourcing pour collecter des données subjectives à grande échelle. Nos résultats montrent une amélioration de la fiabilité des annotations subjectives collectées et répondent aux exigences liées en crowdsourcing à la reproduction d’expériences menés en laboratoire. La deuxième partie contribue à l’évaluation objective de la qualité avec une métrique de qualité d’image basée sur l’apprentissage automatique utilisant les informations de seuil de discrimination, et une métrique de qualité d’image pour les champs lumineux sans référence basée sur des représentations d’images planes épipolaires. Enfin, nous étudions l’impact des méthodologies d’agrégation temporel sur les performances des métriques de qualité objective pour les vidéos volumétriques. Dans l’ensemble, nous démontrons comment nos résultats peuvent être utilisés pour améliorer l’optimisation des outils de traitement


    Date de soutenance : 24-01-2022
    Président du jury : Patrick Le Callet (Patrick.Lecallet@univ-nantes.fr)
    Jury :

      Copyright : LS2N 2017 - Mentions Légales - 
       -