Home » Thèses

Thèses soutenues 2022



  Loïc Pujet, Calculer avec des Principes d'Extensionnalité en Théorie des Types
Calculer avec des Principes d'Extensionnalité en Théorie des Types
Auteur : Loïc Pujet
Manuscript :


Mots-clés : Théorie des TypesAssistants à la PreuvePreuve de NormalisationÉgalité ObservationnelleThéorie Cubique des TypesHomotopie Synthétique
Résumé

Dans cette thèse, j'étudie plusieurs manières d'étendre la théorie des types intuitionniste avec des principes d'extensionnalité, comme par exemple l'extensionnalité des fonctions ou l'axiome d'univalence de Voevodsky, en portant une attention particulière à la préservation des propriétés calculatoires des preuves. Dans une première partie, je développe une méta-théorie complète pour l'égalité observationnelle de Altenkirch et al. J'obtiens notamment une preuve formelle de normalisation, de canonicité et de décidabilité de la conversion pour une théorie des types observationnelle avec des propositions imprédicatives. Dans une seconde partie, j'esquisse une traduction de la théorie des types homotopique vers la théorie des types observationnelle, en me basant sur le modèle cubique de Coquand et al. Enfin dans une dernière partie, j'explique comment tirer parti des propriétés calculatoires de la théorie des types cubique pour obtenir des preuves synthétiques élégantes de résultats classiques de la théorie de l'homotopie, notamment la construction de la fibration de Hopf et le lemme 3x3 pour les sommes amalgamées homotopiques.


Date de soutenance : 13-12-2022
Président du jury : Nicolas Tabareau
Jury :
  • Tom Hirschowitz [Président]
  • Thierry Coquand [Rapporteur]
  • Conor McBride [Rapporteur]
  • Paige Randall North
  • Jonathan Sterling
  • Ambrus Kaposi
  • Kuen-Bang Hou (Favonia)

  Faezeh Khorram, Un environnement de test pour les langages dédiés exécutables
Un environnement de test pour les langages dédiés exécutables
Auteur : Faezeh Khorram
Manuscript :


Mots-clés : Ingénierie dirigée par les modèles IDMLangage de modélisation dédié LMDTests de modèlesMesure de la qualité des testsDébogage des testsAmplification des tests
Résumé

La croissance continue de la complexité des logiciels soulève le besoin d’une gestion efficace de la complexité. L’ingénierie dirigée par les modèles (IDM) est un paradigme de développement qui répond à ce problème par la mise en place d’une séparation des préoccupations à l’aide de modèles. Un modèle est une abstraction spécifique d’un système qui peut être défini par un langage de modélisation dédié (LMD). Un LMD doté de fonctions d’exécution, appelé un LMD exécutable (LMDx), offre de de nouvelles possibilités dans l’activité de modélisation en permettant l’utilisation de techniques de vérification et de validation (V&V) dynamiques. Le test est la technique de V&V dynamique actuellement la plus répandue dans le domaine du génie logiciel. Bien qu’il existe de nombreux environnements de test pour les langages de programmation, produire un outillage de test pour un LMDx donné reste aujourd’hui une tâche coûteuse et difficile. Dans cette thèse, nous proposons un environnement de test générique et réutilisable pour les LMD exécutables. Étant donné un LMDx, l’environnement fournit un langage de test qui prend en charge l’utilisation de concepts spécifiques au LMDx dans la définition de scénarios de test. Cela permet aux utilisateurs du LMDx, à savoir les experts du domaine, d’écrire des scénarios de test pour leurs modèles. Les scénarios de test écrits peuvent ensuite être exécutés sur les modèles, ce qui entraîne la production de résultats des tests. Pour aider davantage les experts du domaine à tester les modèles, l’environnement proposé offre trois services supplémentaires : (i) la mesure de la qualité des tests pour s’assurer que les scénarios de test écrits sont suffisamment bons ; (ii) le débogage des tests pour localiser le défaut du modèle testé en cas d’échec du test ; et (iii) l’amélioration automatique des tests pour renforcer la capacité des scénarios de test à détecter des régressions introduites dans les modèles testés.


Date de soutenance : 12-12-2022
Président du jury : Gerson Sunyé
Jury :
  • Antoine Beugnard [Président]
  • Anne Etien [Rapporteur]
  • Juergen Dingel [Rapporteur]
  • Benoit Baudry
  • Javier Troya
  • Jean-Marie Mottu
  • Erwan Bousse

  Albane Lysiak, Développement de méthodes informatiques pour l’évaluation et l’amélioration de l’identification par spectrométrie de masse des peptides modifiés
Développement de méthodes informatiques pour l’évaluation et l’amélioration de l’identification par spectrométrie de masse des peptides modifiés
Auteur : Albane Lysiak
Manuscript :


Mots-clés : BioinformatiqueProtéomiqueSpectrométrie de massePeptideOMS
Résumé

La spectrométrie de masse (MS) est l’une des méthodes privilégiées pour identifier les protéines. Elles sont habituellement identifiées à partir de leurs peptides. Pour cela, les spectres obtenus à partir des peptides sont comparés à une base de données de spectres théoriques à l’aide d’un score de similarité, et les PSM (Peptide-Spectrum Matches) produits aident à l’identification des spectres. Cependant, la plupart des spectres générés ne peuvent pas être correctement identifiés. L’une des raisons est que les protéines, et donc les peptides résultants, portent des modifications, ce qui complexifie l’identification des spectres issus de ces peptides. Pour résoudre ce problème, les approches OMS (Open Mass Search) offrent des éléments prometteurs. Cependant ces méthodes sont encore confrontées à certains obstacles, surtout lorsque le peptide comporte des modifications inconnues. De plus, l’évaluation de leurs résultats est complexe. Dans le cadre de cette thèse, j’ai d’abord évalué des stratégies OMS à l’aide de spectres théoriques jouant le rôle de spectres expérimentaux, ce qui a permis de développer de nouveaux critères pour évaluer les PSM. À la suite de ce travail, j’ai développé SpecGlob, un algorithme qui repose sur la programmation dynamique pour aligner les masses contenues dans un PSM, afin d’identifier plusieurs modifications inconnues qui séparent le peptide qui a généré le spectre à identifier du peptide candidat.


Date de soutenance : 06-12-2022
Président du jury : Guillaume Fertin
Jury :

      Sirine Sayadi, Architectures réparties et conteneurs logiciels sécurisés pour coopérations médicales multi-sites
    Architectures réparties et conteneurs logiciels sécurisés pour coopérations médicales multi-sites
    Auteur : Sirine Sayadi
    Manuscript :


    Mots-clés : Analyse de données biomédicalesAnalyses distribués multi-Site et multi-PartenairesProtection et sécurisation des donnéesMédecine de précisionContextualisation distribuée
    Résumé

    L’analyse de larges quantités de données biomédicales permet d’obtenir une meilleure précision des résultats et aide les chercheurs et les cliniciens à établir de bonnes diagnostiques et prendre les bonnes décisions. Les collaborations nationales et internationales qui explorent la médecine de précision se fondent sur des analyses sur des données provenant de populations variées et nombreuses. Les analyses biomédicales actuelles sont sujets à des problèmes en terme de protection de données.Dans cette thèse multidisciplinaire, nous contribuons à la résolution de ces problèmes par le développement d’analyses de données biomédicales distribuées ainsi que par leur déploiement dans des infrastructures informatiques et leur intégration dans des outils médicaux réels. Dans le cadre d’une application de transplantation rénale, nous proposons une nouvelle solution de contextualisation distribuée qui aide les cliniciens à évaluer les problèmes rénaux de patients. Pour la même application nous proposons également une nouvelle version distribuée de l’analyse factorielle des données mixtes (FAMD) pour la réduction des dimensions. Dans le cadre des données HLA, nous proposons un nouveau modèle distribué et sécurisé pour l’estimation de fréquences appliquées sur des bases de données HLA. Nous proposons également un nouveau algorithme pour l’estimation distribuée de la fréquence d’haplotypes HLA en utilisant l’algorithme EM. Toutes nos contributions ont été déployées sur une infrastructure réelle de nuage géodistribués et évaluées sur des données réelles ou réalistes. Les expérimentations ont montré de (très) bons résultats en terme de performances comparés aux solutions centralisées.


    Date de soutenance : 05-12-2022
    Président du jury : Mario Südholt
    Jury :
    • Walid Gaaloul [Président]
    • Marc Cuggia [Rapporteur]
    • Anne-Sophie Jannot
    • Nicolas Vince

      Mahmoud El Krim Ferhat, Découverte et géneralisation de connaissances appliquées aux procédés de fabrication
    Découverte et géneralisation de connaissances appliquées aux procédés de fabrication
    Auteur : Mahmoud El Krim Ferhat
    Manuscript :


    Mots-clés : Ontologie génériqueSystème de détection de défauts
    Résumé

    L’objectif de cette thèse est de proposer une nouvelle architecture dédiée à la détection de défauts dans les procédés de fabrication. Cette dernière repose sur la combinaison des techniques d’apprentissage automatique (ML) avec une Ontologie générique. L’architecture est évolutive dans le sens où de nouveaux défauts peuvent être découverts par le ML et ajoutés en tant que nouvelles connaissances dans l’ontologie de façon périodique. Cela facilite la détection des défauts dans les contextes industriels, où les défauts sont généralement rares. D’autres part, l’inspection périodique des connaissances capturées itérativement par l’Ontologie nous permet de définir des connaissances plus génériques. Celles-ci permettront dans un premier temps d’améliorer la détection de défauts dans des contextes connus et puis, dans un second temps, de reconnaître les défauts connus dans de nouveaux contextes industriels. Ces tâches sont liées aux domaines de l’apprentissage par transfert et de l’adaptation au domaine, appliquées ici pour induire de nouvelles connaissances dans l’Ontologie, et augmenter les performances du système de détection de défauts. Des expériences sur des données UCI ainsi que sur des données issues des opérations de vissage réelles nous ont permis de valider la fiabilité et la robustesse de l’approche.


    Date de soutenance : 05-12-2022
    Président du jury : Philippe Leray
    Jury :
    • Benoît Iung [Président]
    • Julien Le Duigou [Rapporteur]
    • Faicel Chamroukhi [Rapporteur]
    • Catherine Da Cunha

      Ons Aouedi, Analyse du trafic réseau basée sur l’apprentissage automatique
    Analyse du trafic réseau basée sur l’apprentissage automatique
    Auteur : Ons Aouedi
    Manuscript :


    Mots-clés : Apprentissage automatiqueApprentissage fédéréAnalyse du traficSécurityClassification du trafic
    Résumé

    L’Internet des Objets entraînent par son nombre de terminaux une explosion du trafic de données. Pour augmenter la qualité globale de réseau, il est possible d’analyser intelligemment le trafic réseau afin de détecter d’éventuel comportement suspect ou malveillant. Les modèles d’apprentissage automatique et d’apprentissage profond permettent de traiter ce très grand volume de données. Néanmoins, il existe certaines limites dans la littérature, notamment la confidentialité des données, le sur-apprentissage (manques de diversité dans les données) ou tout simplement le manque de jeu de données labélisées. Dans cette thèse, nous proposons de nouveaux modèles s’appuyant sur l’apprentissage automatique et l’apprentissage profond afin de traiter une grande quantité de données tout en préservant la confidentialité. Notre première approche utilise un modèle d’ensemble. Les résultats montrent une diminution du sur-apprentissage, tout en augmentant de 10% la précision comparé à des modèles de l’état de l’art. Notre seconde contribution s’attache aux problèmes de disponibilité des données labélisées. Nous proposons un modèle d’apprentissage semi-supervisé capable d’améliorer la précision de 11% par rapport à un modèle supervisé équivalent. Enfin, nous proposons un système de détection d’attaque s’appuyant sur l’apprentissage fédéré. Nommé FLUIDS, il permet de réduire la surcharge réseau de 75% (comparé à son équivalent centralisé) tout en préservant de très haute performance et la confidentialité.


    Date de soutenance : 02-12-2022
    Président du jury : Benoît Parrein
    Jury :

        Ons Aouedi, Analyse du trafic réseau grâce à l'apprentissage automatique
      Analyse du trafic réseau grâce à l'apprentissage automatique
      Auteur : Ons Aouedi
      Manuscript :


      Mots-clés : Apprentissage fédéréAnalyse du trafic
      Résumé

      L’Internet des Objets entraînent par son nombre de terminaux une explosion du trafic de données. Pour augmenter la qualité globale de réseau, il est possible d’analyser intelligemment le trafic réseau afin de détecter d’éventuel comportement suspect ou malveillant. Les modèles d’apprentissage automatique et d’apprentissage profond permettent de traiter ce très grand volume de données. Néanmoins, il existe certaines limites dans la littérature, notamment la confidentialité des données, le surapprentissage (manques de diversité dans les données) ou tout simplement le manque de jeu de données labellisées. Dans cette thèse, nous proposons de nouveaux modèles s’appuyant sur l’apprentissage automatique et l’apprentissage profond afin de traiter une grande quantité de données tout en préservant la confidentialité. Notre première approche utilise un modèle d’ensemble. Les résultats montrent une diminution du surapprentissage, tout en augmentant de 10% la précision comparé à des modèles de l’état de l’art. Notre seconde contribution s’attache aux problèmes de disponibilité des données labellisées. Nous proposons un modèle d’apprentissage semisupervisé capable d’améliorer la précision de 11% par rapport à un modèle supervisé équivalent. Enfin, nous proposons un système de détection d’attaque s’appuyant sur l’apprentissage fédéré. Nommé FLUIDS, il permet de réduire la surcharge réseau de 75% tout en préservant de très haute performance et la confidentialité.


      Date de soutenance : 02-12-2022
      Président du jury : Benoît Parrein
      Jury :
      • Yassine Hadjadj Aoul [Président]
      • Adlen Ksentini [Rapporteur]
      • Sonia Ben Mokhtar [Rapporteur]
      • Yusheng Ji

        Xiaoxiao Song, Optimisation interactive et multiobjectif d’agencement d’espace
      Optimisation interactive et multiobjectif d’agencement d’espace
      Auteur : Xiaoxiao Song
      Manuscript :


      Mots-clés : Recuit simuléAgencement d’espaceIndice de capacitéPlacement constructifIntégration de l’accessibilitéOptimisation multiobjectif
      Résumé

      Dans tous les problèmes d’agencement, les contraintes de non-chevauchement entre composants et les contraintes d’appartenanceau conteneur sont présentes. Un modèle d’agencement multiobjectif avec contraintes fonctionnelles est développé. Intégrer l’accessibilité des composants comme contraintes fonctionnelles assure la maintenance ou le fonctionnement des composants. Cependant, les contraintes fonctionnelles augmentent la complexité d’optimisation d’agencement, notée indice de capacité. Par conséquent, un nouvel algorithme d’optimisation multiobjectif est proposé en utilisant le placement constructif et le recuit simulé pour rechercher des solutions de compromis entre les objectifs multiples. Ensuite, un indicateur de similarité est défini pour évaluer les similaires entre les solutions proposées par l’algorithme. Les expériences indiquent que l’approche d’optimistion proposée fonctionne bien pour garantir l’accessibilité et trouver efficacement des solutions optimales dans les problèmes industriels d’agencement d’espace à un ou plusieurs conteneurs, où l’analyse de similarité démontre une bonne diversité solutions proposées par l’algorithme, qui peut être appliqué en tant qu’outil interactif outil pour leconcepteur.


      Date de soutenance : 22-11-2022
      Président du jury : Fouad Bennis
      Jury :
      • Eduardo Sousa de Cursi [Président]
      • Xavier Fischer [Rapporteur]
      • Bernard Yannou [Rapporteur]
      • Yannick Ravaut

        Rémi Parrot, Réseaux de Petri temporisés pour la synthèse de circuits pipelinés
      Réseaux de Petri temporisés pour la synthèse de circuits pipelinés
      Auteur : Rémi Parrot
      Manuscript :


      Mots-clés : Réseau de petri temporiséSynthèse de pipelinePliage de circuit
      Résumé

      Dans cette thèse, nous nous intéressons à l’optimisation des ressources consommées par un circuit implémentant une loi de commande pour la charge de véhicules électriques sur FPGA. Tout d’abord, nous proposons une nouvelle solution au problème de la synthèse de pipeline minimisant les bascules et garantissant une fréquence minimale de fonctionnement. En se basant sur cette même approche, nous sommes capable de construire un pipeline permettant le pliage (ou multiplexage temporel) du circuit, c’est-à-dire qui permet la fusion de portions du circuit identiques en séquençant leur accès. Ainsi, les ressources consommées sont réduites à la fois en nombre de bascule et en nombre d’unités logiques. Notre approche est basée sur un modèle de Réseau de Petri Temporisé avec des transitions retardables, pouvant rater leur date de tir, et une action spécifique appelée reset qui réinitialise les horloges de toutes les transitions. Ce modèle s’avère équivalent à un automate à une horloge. Une surclasse de ce modèle, les Réseaux de Petri Temporisés avec transitions retardables (sans reset), s’avère être incomparable, en terme d’expressivité en sémantique faible, avec les classes de Réseaux de Petri Temporels ou Temporisés en temps dense ou discret. Enfin, une exploration symbolique de ce modèle ainsi que des résultats de complexité théorique et pratique sont étudiés.


      Date de soutenance : 15-11-2022
      Président du jury : Olivier Henri Roux
      Jury :
      • Isabelle Demongodin [Président]
      • François B. Vernadat [Rapporteur]
      • Florent Dupont de Dinechin [Rapporteur]
      • Miassa Taleb

        Tristan Gomez, Attention spatiale artificielle pour des modèles profonds interprétables de qualité embryonnaire
      Attention spatiale artificielle pour des modèles profonds interprétables de qualité embryonnaire
      Auteur : Tristan Gomez
      Manuscript :


      Mots-clés : Attention artificielle
      Résumé

      L’un des traitements les plus courants de l’infertilité est la fécondation in vitro (FIV). Cette procédure consiste notamment a cultiver des embryons en milieu contrôle et a en évaluer la qualité après plusieurs jours de croissance. La technologie time-lapse permet un suivi continu des embryons et génère une grande quantité d’images qui a déjà été exploitée par des applications d’apprentissage profonds. Une limitation importante au développement de ces solutions est la nature opaque des modèles proposes qui pose des problèmes éthiques déjà soulevés par la communauté. Nous avons développe une base de données annotées par plusieurs experts pour permettre a la communauté de comparer les algorithmes développes et d’arriver a un consensus. Pour rendre les décisions des réseaux plus transparentes et explicables, nous avons travaille sur un nouveau mécanisme d’attention artificielle non-paramétrique (BR-NPA). Nous comparons cette proposition avec l’état de l’art de l’attention visuelle artificielle du point de vue de la fiabilité des cartes de saillance produites a l’aide de métriques objectives. Nous discutons des limites de ces metriques et proposons d’autres metriques complémentaires. Ce travail montre l’intérêt des modèles d’attention spatiale pour améliorer l’interprétabilité des modèles d’apprentissages profonds, dans le but d’aider les biologistes travaillant dans le domaine de la FIV mais aussi tous les praticiens utilisant des modèles de classification d’images dans leur travail quotidien.


      Date de soutenance : 08-11-2022
      Président du jury : Harold Mouchère
      Jury :
      • Jean-Baptiste Fasquel [Président]
      • Camille Kurtz [Rapporteur]
      • Clément Chatelain [Rapporteur]
      • Jenny Benois Pineau

        Sobhan Razm, Modèles de planification tactique pour la production combinée de biocarburants et de bioénergies
      Modèles de planification tactique pour la production combinée de biocarburants et de bioénergies
      Auteur : Sobhan Razm
      Manuscript :


      Mots-clés : Planification de la production de bioénergieIncertitudeOptimisation robusteBiomassePérissabilitéStockage
      Résumé

      Cette thèse propose un modèle de planification de production pour une bioraffinerie générant du biocarburant et de la bioénergie sous incertitude. Plusieurs défis sont abordés dans la thèse. Premier défi, le stockage de la biomasse sur une longue durée entraîne une baisse de qualité, car la biomasse est une matière périssable. Deuxième défi, les conditions climatiques imprévisibles ont un impact sur la disponibilité de la biomasse. Nous définissons trois facteurs : i) les précipitations,ii) la température et iii) l’ensoleillement pour modéliser les conditions climatiques. L’incertitude météorologique est définie en fonction de ces facteurs. Le troisième défi, la fluctuation des prix du marché conduit à l’incertitude des prix. Le quatrième défi est le stockage de l’énergie. Un modèle hybride, un modèle d’optimisation robuste en ligne et en colonne, est proposé, et plusieurs expériences numériques sont conçues. Les résultats montrent, premièrement, que la périssabilité de la biomasse entraîne une réduction significative du profit.Nous nous attendons à stocker plus de biomasse sur l’horizon de planification dans des conditions d’incertitude, bien que les résultats soient surprenants. Deuxièmement, l’incertitude climatique a plus d’effets que l’incertitude des prix. Troisièmement, le stockage d’énergie augmente le profit jusqu’à 12,6%.


      Date de soutenance : 04-11-2022
      Président du jury : Alexandre Dolgui
      Jury :
      • Mohamed Zied Babai [Président]
      • Faicel Hnaien [Rapporteur]
      • Caroline Thierry [Rapporteur]
      • Ali Siadat
      • Khaled Hadj Hamou
      • Nadjib Brahimi

        Houssein Al Attar, Contrôle du Chargeur Réversible pour Véhicule Electrique
      Contrôle du Chargeur Réversible pour Véhicule Electrique
      Auteur : Houssein Al Attar
      Manuscript :


      Mots-clés : Chargeur VE réversibleConvertisseur AC-DCConvertisseurs DC-DC LLC et DABModulation par fréquence d’ImpulsionModulation par décalage de phaseContrôle non-linéaire robuste
      Résumé

      Dans cette thèse inscrite dans le cadre de la chaire Renault-Centrale Nantes, l’objectif est de concevoir des stratégies de contrôle pour améliorer les performances et le rendement du chargeur réversible du Véhicule Electrique (VE). Dans le mode décharge, le nouveau défi consiste à concevoir une stratégie de Modulation par Décalage de Phase (MDP) pour améliorer la zone de fonctionnement et le rendement du convertisseur DC-DC. La loi de commande est basée sur l’inversion de gain du convertisseur DC-DC LLC. Du point de vue coût, la contribution porte essentiellement sur la conception d’une stratégie d’optimisation pour diminuer le dimensionnement du convertisseur DC-DC LLC mais aussi d’améliorer les performances de la stratégie de Modulation par Fréquence d’Impulsion (MFI). Ensuite, un développement d’un modèle grand signal du convertisseur LLC basé sur la stratégie MDP est élaboré. La contribution principale consiste à implémenter des stratégies du contrôle robuste, telles que la commande sans modèle et la commande adaptive super twisting, combinées avec la stratégie MDP. D’autre part, l’apport principal conduit à fournir une stratégie de contrôle hybride du chargeur afin de réguler la tension du bus DC dans les zones de saturation du convertisseur DC-DC. Enfin, une nouvelle topologie d’un chargeur VE avec la structure DAB est étudiée. Une stratégie de contrôle en cascade est proposée pour régler le bus DC et le courant réseau. Différentes stratégies de modulation, telles que les modulations par décalage d’un ou de deux déphasages, sont étudiées. Des résultats de simulation de modèles de chargeurs réels sont présentés afin de mettre en évidence l’efficacité des stratégies de contrôle proposées.


      Date de soutenance : 14-10-2022
      Président du jury : Malek Ghanes
      Jury :
      • Patrick Coirault [Président]
      • Marco Liserre [Rapporteur]
      • Hervé Guéguen [Rapporteur]
      • Zohra Kader
      • Miassa Taleb

        Vamsi Krishna Guda, Contributions à l'utilisation de cobots comme interfaces haptiques à contact intermittent en réalité virtuelle
      Contributions à l'utilisation de cobots comme interfaces haptiques à contact intermittent en réalité virtuelle
      Auteur : Vamsi Krishna Guda
      Manuscript :


      Mots-clés : SécuritéInterface à contact intermittentPrédiction de l'intention humainePlanification de trajectoiresCollaboration homme-robotRéalité virtuelle
      Résumé

      La réalité virtuelle (RV) est de plus en plus utilisée dans des simulations industrielles mais la possibilité de toucher les objets manque rapidement par exemple pour juger de la qualité perçue dans la conception de véhicule automobile. Les interfaces haptiques actuels ne permettent de restituer aisément la notion de texture, l’approche envisagée est donc une interface à contact intermittent. Un cobot vient positionner une surface mobile à l’endroit du contact avec un objet virtuel pour permettre un contact physique avec la main de l’opérateur.Les contributions de cette thèse portent sur plusieurs aspects : le placement du robot, la modélisation de l’opérateur, la gestion du déplacement et de la vitesse du robot et la détection des intentions de l’opérateur. Le placement du robot est choisi pourpermettre d’atteindre les différentes zones de travail et pour assurer une sécurité passive en rendant impossible au robot de heurter la têteet le buste de l’opérateur en position normale de travail, i.e. assis dans un fauteuil. Un modèle de l'utilisateur, incluant un torse et desbras, est conçu et testé pour suivre les mouvements de l'utilisateur en temps réel. L’interaction est possible sur un ensemble de pose prédéfinies que l’utilisateur enchaine comme il le désire. Différentes stratégies sont proposées pour prédire les intentions de l'utilisateur. Les aspects clés de la prédiction sont basés sur la direction du regard et la position de la main de l'utilisateur. Une étudeexpérimentale ainsi que l'analyse qui en découle montrent l’apport de la prise en compte de la direction du regard. L’intérêt d’introduire des points dit « de sécurité » pour éloigner le robot de l’opérateur et permettre des déplacements rapides du robot est mis en évidence.


      Date de soutenance : 26-08-2022
      Président du jury : Damien Chablat
      Jury :
      • Anatole Lécuyer [Président]
      • Gérard Poisson [Rapporteur]
      • Charles Pontonnier [Rapporteur]
      • Fouad Bennis

        Gauthier Soleilhac, Optimisation de la distribution de marchandises avec sous-traitance du transport : une problématique chargeur
      Optimisation de la distribution de marchandises avec sous-traitance du transport : une problématique chargeur
      Auteur : Gauthier Soleilhac
      Manuscript :


      Mots-clés : Optimisation des transportsTournées de véhiculesRecherche à voisinage largeMétaheuristique
      Résumé

      Cette thèse a pour but d'optimiser le transport de marchandises dans un réseau logistique incluant des chargeurs et un ensemble d'entrepôts ou points de vente de la grande distribution. Nous étudions en particulier la problématique des chargeurs qui achètent des services de transport à différents prestataires logistiques proposant des tarifs FTL ou LTL. Dans une première partie, nous résolvons un problème de tournées de véhicules depuis un dépôt unique avec des flottes hétérogènes proposées par plusieurs transporteurs. Une caractéristique originale du problème est la formulation d'une contrainte d'engagement maximum des transporteurs en terme de nombre de véhicules. Nous résolvons ce problème avec une métaheuristique de type Recherche à Voisinage Large intégrant un algorithme de filtrage issu de la programmation par contraintes. Dans une seconde partie, nous étudions un problème de collectes et de livraisons avec la possibilité de livrer les marchandises sur des plateformes intermédiaires. Des transporteurs régionaux assurent alors la distribution en aval de ces plateformes. Nous formulons ce problème comme un problème de collectes et livraisons avec options et proposons une métaheuristique alternant des destructions de petite et de grande taille. Nous concluons cette thèse par plusieurs cas d'étude menés au sein de la société CRC Services.


      Date de soutenance : 12-07-2022
      Président du jury : Olivier Péton
      Jury :
      • Eric Pinson [Président]
      • Nicolas Jozefowiez [Rapporteur]
      • Michel Gendreau [Rapporteur]
      • Diego Cattaruzza
      • Juliette Medina
      • Yannick Kergosien

        Hamidreza Rezaei, Conception de chaines logistiques avec intégration de la dimension financière
      Conception de chaines logistiques avec intégration de la dimension financière
      Auteur : Hamidreza Rezaei
      Manuscript :


      Mots-clés : LocalisationChaine logistiqueFinanceModélisation mathématiqueRecherche à voisinage large
      Résumé

      Cette thèse porte sur le développement d'un modèle mathématique et d'algorithmes pour optimiser la conception de chaîne logistiques, en intégrant des dimensions financières. Nous proposons un modèle multi-périodique, avec contraintes de capacité, sur un réseau à un échelon et avec un produit unique. L'objectif est de maximiser la valeur présente ajustée (APV) de l'entreprise. Les variables de décision binaires sont liées à la localisation des sites logistiques ; les variables continues concernent les flux de marchandises et la planification de la dette. Le modèle mathématique est tout d'abord évalué en résolvant, à l'aide d'un solveur, un ensemble d'instances générées aléatoirement. Nous proposons une approche séquentielle, consistant à optimiser d'abord les variables logistiques, puis les variables financières. Nous décrivons ensuite une métaheuristique de Recherche à Voisinage Large (LNS) pour résoudre des instances de plus grande taille. Enfin, nous considérons le cas où les dimensions logistiques et financières comme deux objectifs indépendants. Nous proposons un algorithme de type Multidirectional local search, utilisant le LNS comme algorithme mono-objectif. Des expériences numériques approfondies évaluent la pertinence de notre modèle et comparent les performances de nos algorithmes à celles du solveur.


      Date de soutenance : 30-06-2022
      Président du jury : Olivier Péton
      Jury :
      • Khaled Hadj Hamou [Président]
      • Ramzi Hammami [Rapporteur]
      • Andréa Cynthia Santos [Rapporteur]
      • Joana Matos Dias

        Constance Fourcade, Suivi de l'évolution du cancer du sein métastasé via le recalage et la segmentation d'images TEP en utilisant des réseaux entraînés et non-entraînés
      Suivi de l'évolution du cancer du sein métastasé via le recalage et la segmentation d'images TEP en utilisant des réseaux entraînés et non-entraînés
      Auteur : Constance Fourcade
      Manuscript :


      Mots-clés : Cancer du sein métastaséRecalage d’imagesTEPApprentissage profond
      Résumé

      Le cancer du sein métastasé nécessite un suivi régulier. Au cours du traitement, des images de TEP- scan sont régulièrement acquises puis interprétées selon des recommandations telles que PERCIST pour décider d’un éventuel ajustement thérapeutique. Cependant, PERCIST se concentre seulement sur la lésion présentant l’activité tumorale la plus élevée. L’objectif de cette thèse est de développer des outils permettant de prendre en compte toutes les zones actives à l’aide du TEP-scan, afin de suivre au mieux l’évolution du cancer du sein. Notre première contribution est une méthode pour la segmentation automatique d’organes actifs (cerveau, vessie). Notre deuxième contribution formule la segmentation de lésions sur les images de suivi comme un problème de recalage d’images. Pour résoudre le recalage longitudinal d’images TEP corps entier, nous avons développé une nouvelle méthode nommée MIRRBA (Medical Image Registration Regularized By Architecture), qui combine les avantages des méthodes conventionnelles et de celles utilisant l’apprentissage profond. Nous avons validé trois approches (conventionnelle, apprentissage profond et MIRRBA) sur une base de données privées d’images TEP longitudinales obtenues dans le contexte de l’étude EPICURE. Finalement, notre troisième contribution est l’évaluation de biomarqueurs extraits des segmentations de lésions obtenues grâce au recalage. Nous proposons donc un nouvel outil automatisé pour améliorer suivi du cancer du sein métastasé.


      Date de soutenance : 27-06-2022
      Président du jury : Diana Carolina Mateus Lamus
      Jury :
      • Caroline Petitjean [Président]
      • Vincent Noblet [Rapporteur]
      • Irène Buvat
      • Mathieu Hatt
      • Nicolas Duchateau

        Meven Lennon-Bertrand, Bidirectional Typing for the Calculus of Inductive Constructions
      Bidirectional Typing for the Calculus of Inductive Constructions
      Auteur : Meven Lennon-Bertrand
      Manuscript :


      Mots-clés : Assistants à la PreuveTypage BidirectionnelCalcul des Constructions InductivesTypage Graduel
      Résumé

      Durant leurs plus de 50 ans d’existence, les assistants à la preuve se sont établis comme des outils permettant un haut niveau de fiabilité dans de nombreuses applications. Cependant, du fait de leur complexité grandissante, la solution historique de faire confiance à un petit noyau stable n’est plus suffisante pour avancer en évitant des bugs critiques. Mais les assistants à la preuve sont utilisés depuis des décennies pour certifier la correction de programmes, pourquoi pas la leur ? C’est l’ambition du projet METACOQ, visant à construire le premier noyau réaliste à la correction formellement prouvée, pour l’assistant à la preuve COQ. Ne faites plus confiance au programme, seulement à sa preuve! Cette thèse étudie la structure bidirectionnelle qui sous-tend l’algorithme de typage implémenté par le noyau de COQ, dans le contexte du Calcul des Constructions Inductives (CIC) qui fonde celui-ci. Le tout est formalisé dans le cadre de METACOQ, et constitue un passage obligé pour atteindre l’objectif du projet, fournissant un intermédiaire entre limplémentation et sa spécification. Enfin, le contrôle renforcé sur le calcul offert par le typage bidirectionnel est une pièce nécessaire à la conception d’une extension graduelle de CIC, qui vise à apporter au développement en COQ la flexibilité du typage dynamique et constitue la dernière partie de la thèse.


      Date de soutenance : 24-06-2022
      Président du jury : Nicolas Tabareau
      Jury :
      • Conor McBride [Rapporteur]
      • Neel Krishnaswami [Rapporteur]
      • Assia Mahboubi
      • Hugo Herbelin
      • Herman Geuvers
      • Jesper Cockx

        Juan Emmanuel Ayala Hernandez, Optimisation de la topologie des robots dynamiquement équilibrés
      Optimisation de la topologie des robots dynamiquement équilibrés
      Auteur : Juan Emmanuel Ayala Hernandez
      Manuscript :


      Mots-clés : Équilibrage dynamiqueRobots équilibré dynamiquementOptimisation topologique multi-corpsMécanisme à quatre barres équilibré dynamiquementÉquilibrage dynamique partiel d’un mécanisme à cinq barres
      Résumé

      L’équilibrage dynamique est un domaine d’étude important en robotique à grande vitesse et pour la robotique spatiale. La prise en compte des performances d’équilibrage dynamique des robots lors de leur conception permet de réduire les vibrations du bâti, une meilleure précision et des temps de cycle réduits. Dans le but de développer une méthode de conception de robot équilibrés dynamiquement, l’optimisation topologique structurelle est étudiée dans ce travail de recherche en tant qu’outil pour concevoir des robots équilibrés dynamiquement, c’est à dire un robot ne transmettant pas de réaction sur le châssis. La pertinence de la méthodologie proposée est confirmée par la réalisation d’une conception optimisée d’un mécanisme à quatre barres équilibré dynamiquement et l’équilibrage dynamique partiel d’un mécanisme à cinq barres. L’importance de la conception d’un mécanisme à quatre barres équilibré dynamiquement est liée à la possibilité d’exploiter ce mécanisme optimisé comme un module utile à la conception de robots équilibrés dynamiquement. Le mécanisme à cinq barres a une importance toute particulière en raison de ses applications industrielles, où il est généralement utilisé dans des opérations de prise et de dépose.


      Date de soutenance : 17-06-2022
      Président du jury : Sébastien Briot
      Jury :
      • José Maria Rico-Martinez [Président]
      • Marco Carricato [Rapporteur]
      • Mario Acevedo Alvarado [Rapporteur]
      • Volkert Van Der Wijk

        Valentin Le Mesle, Conception et analyse d'un robot parallèle à cinq degrés de liberté pour des opérations d'empaquetage rapides
      Conception et analyse d'un robot parallèle à cinq degrés de liberté pour des opérations d'empaquetage rapides
      Auteur : Valentin Le Mesle
      Manuscript :


      Mots-clés : Robot parallèlePrise et déposeIndustrie agro-alimentaireDeltaOptimisation
      Résumé

      Les opérations de prise et dépose rapides, telles que l’insertion de produits dans des cartons, sont très importantes dans l’industrie agro-alimentaire. Ces opérations sont généralement réalisées par des robots Delta équipes de chaines UPU, reliant la base et l’effecteur du robot par des liaisons cardans. Cependant, l’utilisation de ces chaines généré une réduction de l’espace de travail du robot Delta, ainsi qu’une usure prématurée des cardans. Cette thèse CIFRE, réalisée avec l’entreprise MG-Tech, introduit plusieurs cinématiques de jambes Delta modifiées permettant de transmettre une rotation vers l’effecteur grâce a une succession de parallélogrammes (ou anti-parallélogrammes) intégrés a une jambe Delta. L’utilisation d’une ou plusieurs de ces jambes permet d’apporter jusqu’à trois rotations supplémentaires vers l’effecteur. Un processus d’optimisation a été mis en place afin de déterminer les paramètres géométriques d’un robot a cinq degrés de liberté, menant a la réalisation d’un prototype pré-industriel. Après un fonctionnement continu d’un million de cycles dans des conditions typiques des applications de MG-Tech, une étude comparative a été réalisée entre le prototype et le robot actuel de MG-Tech. Les résultats montrent des performances cinématostatiques équivalentes pour les deux robots : les principales sources de jeu proviennent de mécanismes embarques sur la plateforme.


      Date de soutenance : 16-06-2022
      Président du jury : Sébastien Briot
      Jury :
      • Vigen Arakelyan [Président]
      • Ilian Bonev [Rapporteur]
      • Hélène Chanal [Rapporteur]
      • Marc Gouttefarde
      • Mikaël Trebouvil

        Vamsi Krishna Guda, Contributions à l'utilisation de cobots comme interfaces haptiques à contact intermittent en réalité virtuelle
      Contributions à l'utilisation de cobots comme interfaces haptiques à contact intermittent en réalité virtuelle
      Auteur : Vamsi Krishna Guda
      Manuscript :


      Mots-clés : SécuritéInterface à contact intermittentPrédiction de l'intention humainePlanification de trajectoiresCollaboration homme-robotRéalité virtuelle
      Résumé

      La réalité virtuelle (RV) est de plus en plus utilisée dans des simulations industrielles mais la possibilité de toucher les objets manque rapidement par exemple pour juger de la qualité perçue dans la conception de véhicule automobile. Les interfaces haptiques actuels ne permettent de restituer aisément la notion de texture, l’approche envisagée est donc une interface à contact intermittent. Un cobot vient positionner une surface mobile à l’endroit du contact avec un objet virtuel pour permettre un contact physique avec la main de l’opérateur. Les contributions de cette thèse portent sur plusieurs aspects : le placement du robot, la modélisation de l’opérateur, la gestion du déplacement et de la vitesse du robot et la détection des intentions de l’opérateur. Le placement du robot est choisi pour permettre d’atteindre les différentes zones de travail et pour assurer une sécurité passive enrendant impossible au robot de heurter la tête et le buste de l’opérateur en position normale de travail, i.e. assis dans un fauteuil. Un modèle de l'utilisateur, incluant un torse et des bras, est conçu et testé pour suivre les mouvements de l'utilisateur en temps réel. L’interaction est possible sur un ensemble de pose prédéfinies que l’utilisateur enchaine comme il le désire. Différentes stratégies sont proposées pour prédire les intentions de l'utilisateur. Les aspects clés de la prédiction sont basés sur la direction du regard et la position de la main de l'utilisateur. Une étude expérimentale ainsi que l'analyse qui en découle montrent l’apport de la prise en compte de la direction du regard. L’intérêt d’introduire des points dit « de sécurité » pour éloigner le robot de l’opérateur et permettre des déplacements rapides du robot est mis en évidence.


      Date de soutenance : 16-06-2022
      Président du jury : Damien Chablat
      Jury :
      • Anatole Lecuyer
      • Fouad Bennis
      • Gérard Poissoni
      • Charles Pontonnier

        Paul Marti, Étude de l’état attentionnel des conducteurs en conduite automatisée à partir des stratégies visuelles
      Étude de l’état attentionnel des conducteurs en conduite automatisée à partir des stratégies visuelles
      Auteur : Paul Marti
      Manuscript :


      Mots-clés : Stratégies visuellesConduite automatiséeSortie de boucleReprise en mainVagabondage de la pensée
      Résumé

      Ce travail a porté sur l'évaluation de l'état attentionnel de conducteurs à bord d'un véhicule hautement automatisé. Un accent particulier a été mis sur l'analyse des stratégies visuelles du conducteur. Les deux premières expérimentations ont porté sur le lien entre distraction, stratégies visuelles et qualité de la reprise en main. Pour ce faire, les conducteurs ont réalisé des activités non liées à la conduite pendant une phase de conduite autonome et ont dû faire face à une demande de reprise en main non planifiée dans une situation d'évitement d'obstacle. Les résultats montrent qu'il existe un effet de la localisation du regard au moment de la demande de reprise en main mais également du niveau de l’élaboration de la conscience de la situation sur la qualité de la reprise en main. La dernière expérimentation s'est intéressée à l'effet de différentes modalités d'automatisation sur l'inattention du conducteur, prenant la forme d'un vagabondage de la pensée. L'évolution du vagabondage au fil du temps a été estimé en modélisant les stratégies visuelles des conducteurs. Les résultats montrent que le vagabondage augmente très fortement pour atteindre des niveaux élevés très rapidement puis fluctue autour d'une tendance stable. Ces résultats sont discutés dans la perspective du développement des outils d'évaluation de l'état du conducteur à bord des véhicules autonomes.


      Date de soutenance : 09-06-2022
      Président du jury : Franck Mars
      Jury :
      • Christian Bastien
      • Jordan Navarro
      • Jean-Michel Boucheix
      • Christophe Jallais

        Jeffery Petit, Évaluation du risque ressenti par un passager de véhicule autonome naviguant parmi des piétons
      Évaluation du risque ressenti par un passager de véhicule autonome naviguant parmi des piétons
      Auteur : Jeffery Petit
      Manuscript :


      Mots-clés : Perception du risqueConduite autonomeRéactions électrodermalesRéseau bayésien
      Résumé

      La perception du risque est un aspect crucial qu'il est nécessaire d'étudier dans le but de favoriser l'acceptation des véhicules autonomes dans des espaces partagés avec des piétons. Ce travail s'articule autour de trois contributions empiriques. La première contribution porte sur la possibilité de modéliser la dynamique de perception subjective du risque par le biais d'une réponse impulsionnelle Les performances obtenues sont assez inégales et reflètent une grande variabilité interindividuelle dans la stratégie d'évaluation du risque. Les deux autres contributions mettent en évidence que la perception du risque peut se mesurer en temps réel et dans des interactions dynamiques complexes en s'appuyant à la fois sur des mesures subjectives et des mesures de réactions électrodermales.Les résultats de ces contributions sont basés sur une modélisation par réseau bayésien permettant d'analyser simultanément les relations entre facteurs dynamiques et mesures de perception du risque. Les conclusions de ces travaux apportent des éléments théoriques sur les liens entre les dimensions implicite et explicite du risque ressenti, ainsi que des éléments concrets permettant de prendre en compte le facteur humain dans le développement des comportements de navigation des véhicules autonomes.


      Date de soutenance : 16-05-2022
      Président du jury : Franck Mars
      Jury :
      • Christine Chauvin [Présidente]
      • Aurélie Dommes [Rapporteure]
      • ‪Dominique Vaufreydaz [Rapporteur]
      • Stéphanie Cœugnet

        Guillaume Jeanneau, Analyse et conception d'un robot parallèle sous-actionné intrinsèquement sûr
      Analyse et conception d'un robot parallèle sous-actionné intrinsèquement sûr
      Auteur : Guillaume Jeanneau
      Manuscript :


      Mots-clés : Robot parallèleRobot intrinsèquement sûrRobot R-MinEffort d’impactRobot sous-actionnéRaideur dynamique
      Résumé

      Cette thèse introduit le robot R-Min, un concept de robot parallèle sous-actionné conçu pour réduire les efforts dus à un impact avec une personne. L’architecture est basée sur celle du mécanisme à cinq barres sur lequel des liaisons pivots sont ajoutées sur les avant-bras. Les modèles géométrico-statique et cinémato-statique sont déduits des conditions énergétiques nécessaires à l’équilibre du robot. Une étude discrète des solutions à ces modèles permet d’obtenir l’espace de travail du robot et le lieu de ces singularités. L’étude se concentre alors sur l’analyse de la sécurité. Un modèle réduit masse-ressort-masse, prenant en compte une raideur dynamiquement cohérente, est défini permettant d’obtenir une simplification du modèle dynamique au moment de l’impact et ainsi donne une nouvelle manière de caractériser la sécurité des robots souples. Une analyse expérimentale du robot R-Min permet en premier lieu de valider la faisabilité de modéliser et de contrôler ce type de structure tout en réduisant ses oscillations. Ensuite, l’effet sur la sécurité du sousactionnement, de la raideur, des vitesses, de l’objet impacté, est évalué lors d’un impact entre le robot R-Min et un dispositif de mesure dédié. Les résultats sont renforcés en simulation et permettent de conclure qu’une structure parallèle souple est une nouvelle solution permettant l’amélioration de la sécurité des robots de manière intrinsèque.


      Date de soutenance : 11-05-2022
      Président du jury : Sébastien Briot
      Jury :
      • Stéphane Caro [Président]
      • Pierre Renaud [Rapporteur]
      • Lionel Birglen [Rapporteur]
      • Philippe Wenger
      • Pauline Maurice
      • Catherine Bidard

        Maël Millardet, Amélioration de la quantification des images TEP à l'yttrium 90
      Amélioration de la quantification des images TEP à l'yttrium 90
      Auteur : Maël Millardet
      Manuscript :


      Mots-clés : TEPAlgorithmes de reconstruction tomographiqueYttrium 90Optimisation linéaireAnalyse multi-objectifs
      Résumé

      La popularité de l'imagerie TEP à l'yttrium 90 va grandissante. Cependant, la probabilité qu'une désintégration d'un noyau d'yttrium 90 mène à l'émission d'un positon n'est que de 3,2 × 10-5, et les images reconstruites sont par conséquent caractérisées par un niveau de bruit élevé, ainsi que par un biais positif dans les régions de faible activité. Pour corriger ces problèmes, les méthodes classiques consistent à utiliser des algorithmes pénalisés, ou autorisant des valeurs négatives dans l'image. Cependant, une étude comparant et combinant ces différentes méthodes dans le contexte spécifique de l'yttrium 90 manquait encore à l'appel au début de cette thèse. Cette dernière vise donc à combler ce manque. Malheureusement, les méthodes autorisant les valeurs négatives ne peuvent pas être utilisées directement dans le cadre d'une étude dosimétrique, et cette thèse commence donc par proposer une nouvelle méthode de posttraitement des images, visant à en supprimer les valeurs négatives en en conservant les valeurs moyennes le plus localement possible. Une analyse complète multi-objectifs de ces différentes méthodes est ensuite proposée. Cette thèse se termine en posant les prémices de ce qui pourra devenir un algorithme permettant de proposer un jeu d'hyperparamètres de reconstruction adéquats, à partir des seuls sinogrammes.


      Date de soutenance : 11-04-2022
      Président du jury : Saïd Moussaoui
      Jury :
      • Maï Khong Nguyen-Verger [Président]
      • Claude Comtat [Rapporteur]
      • Nicolas Dobigeon [Rapporteur]
      • Voichiţa Theodora Maxim
      • Emilie Chouzenoux
      • Françoise Kraeber-Bodéré
      • Jérôme Idier

        Maël Millardet, Amélioration de la quantification des images TEP à l’yttrium 90
      Amélioration de la quantification des images TEP à l’yttrium 90
      Auteur : Maël Millardet
      Manuscript :


      Mots-clés : TEPAlgorithmes de reconstruction tomographiqueYttrium 90Optimisation linéaireAnalyse multi-objectifs
      Résumé

      La popularité de l'imagerie TEP à l'yttrium 90 va grandissante. Cependant, la probabilité qu'une désintégration d'un noyau d'yttrium 90 mène à l'émission d'un positon n'est que de 3,2 × 10−5, et les images reconstruites sont par conséquent caractérisées par un niveau de bruit élevé, ainsi que par un biais positif dans les régions de faible activité. Pour corriger ces problèmes, les méthodes classiques consistent à utiliser des algorithmes pénalisés, ou autorisant des valeurs négatives dans l'image. Cependant, une étude comparant et combinant ces différentes méthodes dans le contexte spécifique de l'yttrium 90 manquait encore à l'appel au début de cette thèse. Cette dernière vise donc à combler ce manque. Malheureusement, les méthodes autorisant les valeurs négatives ne peuvent pas être utilisées directement dans le cadre d'une étude dosimétrique, et cette thèse commence donc par proposer une nouvelle méthode de post-traitement des images, visant à en supprimer les valeurs négatives en en conservant les valeurs moyennes le plus localement possible. Une analyse complète multi-objectifs de ces différentes méthodes est ensuite proposée. Cette thèse se termine en posant les prémices de ce qui pourra devenir un algorithme permettant de proposer un jeu d'hyper-paramètres de reconstruction adéquats, à partir des seuls sinogrammes.


      Date de soutenance : 11-04-2022
      Président du jury : Saïd Moussaoui
      Jury :
      • Claude COMTAT
      • Nicolas DOBIGEON
      • Mai NGUYEN-VERGER
      • Emilie CHOUZENOUX
      • Voichita MAXIM
      • Diana MATEUS
      • Françoise KRAEBER-BODÉRÉ
      • Jérôme IDIER

        Ygor Gallina, Indexation de bout-en-bout dans les bibliothèques numériques scientifiques
      Indexation de bout-en-bout dans les bibliothèques numériques scientifiques
      Auteur : Ygor Gallina
      Manuscript :


      Mots-clés : Indexation automatiqueMots-clésEvaluation extrinsèqueRecherche d'information / Semantic contentsGénération de mots-clésMéthodes de bout en bout
      Résumé

      Le nombre de documents scientifiques dans les bibliothèques numériques ne cesse d'augmenter. Les mots-clés, permettant d'enrichir l'indexation de ces documents ne peuvent être annotés manuellement étant donné le volume de document à traiter. La production automatique de mots-clés est donc un enjeu important. Le cadre évaluatif le plus utilisé pour cette tâche souffre de nombreuses faiblesses qui rendent l'évaluation des nouvelles méthodes neuronales peu fiables. Notre objectif est d'identifier précisément ces faiblesses et d'y apporter des solutions selon trois axes. Dans un premier temps, nous introduisons KPTimes, un jeu de données du domaine journalistique. Il nous permet d'analyser la capacité de généralisation des méthodes neuronales. De manière surprenante, nos expériences montrent que le modèle le moins performant est celui qui généralise le mieux. Dans un deuxième temps, nous effectuons une comparaison systématique des méthodes états de l'art grâce à un cadre expérimental strict. Cette comparaison indique que les méthodes de référence comme TF×IDF sont toujours compétitives et que la qualité des mots-clés de référence a un impact fort sur la fiabilité de l'évaluation. Enfin, nous présentons un nouveau protocole d'évaluation extrinsèque basé sur la recherche d'information. Il nous permet d'évaluer l'utilité des mots-clés, une question peu abordée jusqu'à présent. Cette évaluation nous permet de mieux identifier les mots-clés importants pour la tâche de production automatique de mots-clés et d'orienter les futurs travaux.


      Date de soutenance : 28-03-2022
      Président du jury : Béatrice Daille
      Jury :

          Pierre Blaud, Pilotage distribué de systèmes multi-énergies en réseau
        Pilotage distribué de systèmes multi-énergies en réseau
        Auteur : Pierre Blaud
        Manuscript :


        Mots-clés : Systèmes multi-énergiesCommande prédictiveRéseaux de neurones artificiels
        Résumé

        Un système multi-énergie se définit comme un ensemble de convertisseurs énergétiques permettant le couplage de différents vecteurs énergétiques (gaz, électricité, chaud,froid, etc.) pour répondre aux demandes d’unités de production, industrielles ou agricoles, voire d’immeubles abritant les activités humaines (logement, travail, loisirs) par exemple. La littérature actuelle foisonne de cas d’étude démontrant leur potentiel significatif pour des gains de flexibilité et d’efficacité énergétiques, moyennant la valorisation des synergies entre vecteurs et donc une commande optimale. Ce travail contribue à la recherche relative à la problématique de la gestion optimisée des différents vecteurs énergétiques constitutifs des systèmes multi-énergies, au bénéfice de l’entité visée. Il embrasse à la fois la question de la modélisation et du pilotage. La formalisation du modèle s’appuie sur la notion d’energy hub. Son comportement dynamique est décrit par un modèle d’état neuronal. Afin de ne pas dépendre des seules données expérimentales, rarement disponibles en phase de conception, l’approche mise sur la complémentarité entre la modélisation multi-physique et la modélisation neuronale. La première procède par interconnexion de sous-systèmes souvent pré-existants dans les librairies ad hoc (cf. démarche générale de capitalisation de modèles multi-physiques). La seconde procède à partir de données, qui seront, dans le cadre de la méthodologie proposée ici, produite par la simulation du modèle multi-physique du système à l’étude. Notre réflexion ici a porté sur la question du choix d’une structure neuronale adaptée, et sur celle du choix des méta-paramètres d’apprentissage. Les modèles proposés ont ensuite été mis au service du pilotage, utilisés comme modèles internes de la commande dite prédictive ou EMPC (Economic Model Predictive Control). Cette dernière complète bien en effet la méthodologie globale, en ce qu’elle permet de gérer les compromis de pilotage, voire d’optimisation d’un coût économique. Le coût économique peut être relié notamment, au coût relatif des différents supports énergétiques). Le cas d’application considéré in fine est celui du pilotage du système énergétique d’une serre agricole, comprenant comme vecteurs énergétiques de l’électrique, de la chaleur à basse et à haute température, du CO2 et comme source énergétique le gaz naturel. Les résultats obtenus montrent que la méthodologie développée est applicable et que l’utilisation de la commande avancée permet d’optimiser l’utilisation du gaz naturel par l’optimisation de l’utilisation des différents équipements du système énergétique de la serre.


        Date de soutenance : 21-03-2022
        Président du jury : Philippe Chevrel
        Jury :
        • Eric Bideaux [Président]
        • Mazen Alamir [Rapporteur]
        • Hervé Guéguen [Rapporteur]
        • Yacine Gaoua
        • Pauline Kergus
        • Fabien Claveau
        • Pierrick Haurant

          Samuel Buchet, Vérification formelle et apprentissage logique pour la modélisation qualitative à partir de données single-cell
        Vérification formelle et apprentissage logique pour la modélisation qualitative à partir de données single-cell
        Auteur : Samuel Buchet
        Manuscript :


        Mots-clés : Biologie des systèmesRéseaux de régulation génétiqueSéquençage single-cellModèles qualitatifsMéthodes formellesApprentissage automatique
        Résumé

        La compréhension des mécanismes cellulaires à l’œuvre au sein des organismes vivants repose généralement sur l’étude de leur expression génétique. Cependant, les gènes sont impliqués dans des processus de régulation complexes et leur mesureest difficile à réaliser. Dans ce contexte, la modélisation qualitative des réseaux de régulation génétique vise à établir la fonction de chaque gène à partir de la modélisation discrète d’un réseau d’interaction dynamique. Dans cette thèse, nous avons pour objectif de mettre en place cette approche de modélisation à partir des données de séquençage single-cell. Ces données se révèlent en effet intéressantes pour la modélisation qualitative, car elles apportent une grande précision et peuvent être interprétées de manière dynamique. Nous développons ainsi une méthode d’inférence de modèles qualitatifs basée sur l’apprentissage automatique de programmes logiques. Cette méthode est mise en œuvre sur des données single-cell et nous proposons plusieurs approches pour interpréter les modèles résultants en les confrontant avec des connaissances préétablies


        Date de soutenance : 14-03-2022
        Président du jury : Morgan Magnin
        Jury :
        • Philippe Dague [Président]
        • Madalena Chaves [Rapporteur]
        • Jean-Paul Comet [Rapporteur]
        • Sabine Pérès

          Ali Ak, Évaluation de la qualité perceptuelle de contenus multimédias immersifs : HDR, champs lumineux et vidéos volumétriques
        Évaluation de la qualité perceptuelle de contenus multimédias immersifs : HDR, champs lumineux et vidéos volumétriques
        Auteur : Ali Ak
        Manuscript :


        Mots-clés : Évaluation de la qualité médias immersifsMappage ton localChamps lumineuxVidéo volumétrique
        Résumé

        Des formats multimédias immersifs ont émergé comme un puissant canevas dans de nombreuses disciplines pour offrir une expérience utilisateur hyperréaliste. Ils peuvent prendre de nombreuses formes, telles que des images HDR, des champs lumineux, des nuages de points et des vidéos volumétriques. L’objectif de cette thèse est de proposer de nouvelles méthodologies pour l’évaluation de la qualité de tels contenus. La première partie de la thèse porte sur l’évaluation subjective de la qualité d’image. Plus précisément, nous proposons une stratégie de sélection de contenu et d’observateurs, ainsi qu’une analyse approfondie de la fiabilité des plateformes de crowdsourcing pour collecter des données subjectives à grande échelle. Nos résultats montrent une amélioration de la fiabilité des annotations subjectives collectées et répondent aux exigences liées en crowdsourcing à la reproduction d’expériences menés en laboratoire. La deuxième partie contribue à l’évaluation objective de la qualité avec une métrique de qualité d’image basée sur l’apprentissage automatique utilisant les informations de seuil de discrimination, et une métrique de qualité d’image pour les champs lumineux sans référence basée sur des représentations d’images planes épipolaires. Enfin, nous étudions l’impact des méthodologies d’agrégation temporel sur les performances des métriques de qualité objective pour les vidéos volumétriques. Dans l’ensemble, nous démontrons comment nos résultats peuvent être utilisés pour améliorer l’optimisation des outils de traitement


        Date de soutenance : 24-01-2022
        Président du jury : Patrick Le Callet (Patrick.Lecallet@univ-nantes.fr)
        Jury :

          Copyright : LS2N 2017 - Mentions Légales - 
           -