Home » Thèses

Thèses soutenues 2020



  Yassir Dahmane, Gestion d'énergie optimisée étendue véhicules infrastructures
Gestion d'énergie optimisée étendue véhicules infrastructures
Auteur : Yassir Dahmane
Manuscript :


Mots-clés : Voiture électriqueOptimisationBatteries Li-ionEffet de la températureAlgorithmes de planificationGestion d’énergie de flotteRéseau intelligentV2GRégulation de fréquence
Résumé

Cette thèse de doctorat s’inscrit dans le cadre de la chaire Renault/Centrale Nantes sur l’amélioration des performances des véhicules électriques (EV/HEV). Elle est dédiée à la problématique de la gestion de la recharge des véhicules électriques, en utilisant des algorithmes d’optimisation et des stratégies de recharge intelligentes. Dans ce cadre, plusieurs contributions ont été proposées sur les sujets de la recharge intelligente d’une voiture électrique et la gestion de la recharge d’une flotte de véhicules électriques, en considérant les contraintes de mobilités (SOC désiré à la fin de la recharge et heure de dé part), la température des batteries Li-ion, les infrastructures de recharge, et le réseau électrique. Sur le sujet de la recharge intelligente d’une voiture électrique, les contributions se sont concentrées sur le développement des algorithmes embarqués permettant la planification du profil de la puissance de recharge afin de réduire le coût de la recharge. Les algorithmes proposés prennent en compte les besoins de mobilités des utilisateurs de véhicules électriques, et l’effet de la température sur la puissance de recharge des batteries Li-ion. Sur le sujet de la gestion de recharge de flotte de véhicules, les contributions portent essentiellement sur les algorithmes centralisés dans les stations de recharge de véhicules électriques. Un algorithme de recharge unidirectionnelle a été proposé afin d’évaluer le nombre optimal de véhicules électriques à recharger avec un bon niveau de satisfaction des contraintes de mobilités et sans aucun renforcement de l’infrastructure. Le passage à l’algorithme bidirectionnel est fait grâce à l’exploitation de la fonctionnalité V2G qui permettra la participation des véhicules électriques dans la régulation de fréquence. Les contributions proposées sur le premier sujet ont l’avantage d’augmenter la précision d’estimation de SOC final en très basse température, et d’être embarquable sur le véhicule grâce à la légèreté des algorithmes et la rapidité d’exécution. D’autre part, les algorithmes de gestion de recharge de flotte de véhicules permettent une intégration des véhicules électriques à grande échelle sur le réseau et montrent le potentiel des voitures électriques dans la contribution à la stabilité du réseau électrique. Les algorithmes et les stratégies développées ont été testés en simulation et seront testés sur un système de recharge de voiture électrique. Les résultats obtenus ont permis de mettre en évidence l’avantage de la recharge intelligente sur la réduction des coûts, les bienfaits sur le réseau et l’importance de la gestion de la recharge des flottes de véhicules électriques dans développement des services réseaux.


Date de soutenance : 16-12-2020
Président du jury : Malek Ghanes
Jury :
  • Jean-Pierre Barbot [Président]
  • Mickaël Hilairet [Rapporteur]
  • Delphine Riu [Rapporteur]
  • Raphaël Chenouard
  • Hervé Guéguen
  • Mario Alberto Alvarado Ruiz

  Minglei Zhu, Conception de robot orientée commande
Conception de robot orientée commande
Auteur : Minglei Zhu
Manuscript :


Mots-clés : Robots parallèlesAsservissement visuelConception orientée commandeRobot cachéMoment dans l’image
Résumé

Il est bien connu que les robots parallèles ont de nombreuses applications dans l ’industrie. Cependant, en raison de leur structure complexe, leur contrôle peut être difficile. Lorsqu'une précision élevée est nécessaire , un modèle complet du robot détaillé est nécessaire . Les approches de contrôle référencées capteurs se sont avérées plus efficaces , en termes de précision que les contrôleurs basés modèles puisqu'elles s’affranchissent des modèles de robots complexes et des erreurs de modélisation associées. Néanmoins, lors de l'application de d’un asservissement visuel , il y a toujours des problèmes dans le processus de contrôle , tels que les singularités du contrôleur . Cette thèse propose une méthodologie de conception orientée commande qui prend en compte les performances de précision du contrôleur dans le processus de conception du robot pour obtenir les paramètres géométriques optimaux de ce dernier Trois contrôleurs ont été sélectionnés dans le processus de conception du robot : les commandes basées sur l’observation des directions des jambes, les commandes basées sur l’observation des lignes et les commandes basées sur des moments dans l'image .Pour vérifier les performances en terme de précision des robots optimisés, nous avons effectué des co-simulations des robots optimisés avec les contrôleurs correspondants . En terme d’expérimentation, deux prototypes de robots DELTA ont été conçus et expérimentés afin de valider la précision du contrôleur


Date de soutenance : 15-12-2020
Président du jury : Sébastien Briot
Jury :
  • Philippe Wenger [Président]
  • Nicolas Andreff [Rapporteur]
  • Philippe Martinet [Rapporteur]
  • Abdelhamid Chriette
  • Claire Dune-Maillard

  Félix Gontier, Analyse et synthèse de scènes sonores urbaines par approches d'apprentissage profond
Analyse et synthèse de scènes sonores urbaines par approches d'apprentissage profond
Auteur : Félix Gontier
Manuscript :


Mots-clés : Paysages sonoresRéseaux de capteurs acoustiquesPerception de sources sonoresSynthèse sonore
Résumé

L'avènement de l'Internet des Objets (IoT) a permis le développement de réseaux de capteurs acoustiques à grande échelle, dans le but d'évaluer en continu les environnements sonores urbains. Dans l'approche de paysages sonores, les attributs perceptifs de qualité sonore sont liés à l'activité de sources, quantités d'importance pour mieux estimer la perception humaine des environnements sonores. Utilisées avec succès dans l'analyse de scènes sonores, les approches d'apprentissage profond sont particulièrement adaptées pour prédire ces quantités. Cependant, les annotations nécessaires au processus d'entraînement de modèles profonds ne peuvent pas être directement obtenues, en partie à cause des limitations dans l’information enregistrée par les capteurs nécessaires pour assurer le respect de la vie privée. Pour répondre à ce problème, une méthode pour l'annotation automatique de l'activité des sources d'intérêt sur des scènes sonores simulées est proposée. Sur des données simulées, les modèles d'apprentissage profond développés atteignent des performances « état de l'art » pour l'estimation d'attributs perceptifs liés aux sources, ainsi que de l'agrément sonore. Des techniques d'apprentissage par transfert semisupervisé sont alors étudiées pour favoriser l'adaptabilité des modèles appris, en exploitant l'information contenue dans les grandes quantités de données enregistrées par les capteurs. Les évaluations sur des enregistrements réalisés in situ et annotés montrent qu'apprendre des représentations latentes des signaux audio compense en partie les défauts de validité écologique des scènes sonores simulées. Dans une seconde partie, l'utilisation de méthodes d'apprentissage profond est considérée pour la resynthèse de signaux temporels à partir de mesures capteur, sous contrainte de respect de la vie privée. Deux approches convolutionnelles sont développées et évaluées par rapport à des méthodes état de l'art pour la synthèse de parole.


Date de soutenance : 15-12-2020
Président du jury : Jean-François Petiot
Jury :
  • Catherine Marquis-Favre [Président]
  • Dick Botteldooren [Rapporteur]
  • Gaël Richard [Rapporteur]
  • Mathieu Lagrange
  • Catherine Lavandier
  • Romain Serizel

  Zhiqiang Wang, Aide à la décision en usinage basée sur des règles métier et apprentissages non supervisés
Aide à la décision en usinage basée sur des règles métier et apprentissages non supervisés
Auteur : Zhiqiang Wang
Manuscript :


Mots-clés : Ndustrie 40Machines-outilsFouilles de donnéesGMMClassification contextuelleKPIs
Résumé

Dans le contexte général de l'industrie 4.0, une entreprise de fabrication moderne dispose de nombreuses données numériques qui pourraient être utilisées pour rendre les machines-outils plus intelligentes et faciliter la prise de décision en matière de gestion opérationnelle. Cette thèse vise à proposer un système d'aide à la décision pour les machines-outils intelligentes et connectées par l'exploration des données. L'une des premières étapes de l'approche d'exploration de données est la sélection précise de données pertinentes. Pour ce faire, les données brutes doivent être classées dans différents groupes de contexte. Cette thèse propose un algorithme d'apprentissage automatique non-supervisé, par mélanges gaussiens (GMM), pour la classification contextuelle. Basé sur les informations contextuelles, différents incidents d'usinage peuvent être détectés en temps réel. Il s'agit notamment de broutement, de bris d'outil et de sur-vibration. Cette thèse présente un ensemble de règles métiers pour la détection du broutement, de bris d’outil et de sur-vibration. Le contexte opérationnel a été décrypté lorsque des incidents se produisent, sur la base de la classification contextuelle qui explique les types d'usinage et d'engagement des outils. Ensuite, les nouveaux indicateurs clés de performance (KPIs) pertinents et appropriés peuvent être proposés sur la base de ces informations contextuelles combinés avec les incidents détectés afin de soutenir la prise de décision pour la gestion opérationnelle. Cette thèse propose de nouveaux opérateurs d'agrégation et de nouveaux KPIs pertinents pour les différents besoins des départements.


Date de soutenance : 14-12-2020
Président du jury : Benoît Furet
Jury :

      Rongyao Ling, Synthèse de lois de commande résilientes vis-à-vis de l’implémentation par réseau
    Synthèse de lois de commande résilientes vis-à-vis de l’implémentation par réseau
    Auteur : Rongyao Ling
    Manuscript :


    Mots-clés : Commande par réseauCommande robusteMéthodologie de co-conceptionCommande LQ stochastiqueFiltre H∞Forme descripteur
    Résumé

    Cette thèse apporte des contributions méthodologiques pour l’analyse et la synthèse systématiques de lois de commande implémentée par réseau, confrontées à plusieurs dégradations induites comme les pertes de paquets, les retards ou bien encore les effets de quantification. Plus précisément, les problématiques suivantes sont abordées : 1) sur la base d’un critère LQ stochastique, le problème de suivi de trajectoire pour un système discret multivariable, piloté via un réseau avec pertes de paquets est d’abord considéré. Une solution de co-conception régulateur – codeur / décodeur est proposée, permettant d’exploiter au mieux les capacités du réseau ; 2) le problème de filtrage robuste implémenté aussi sur un réseau avec pertes de paquets est ensuite traité. Une solution à base d’opérateur adjoint est proposée pour résoudre le problème de filtrage H∞, faisant appel à la résolution d’une équation de Riccati discrète modifiée; 3) se focalisant ensuite sur la problématique des estimateurs implémentés de manière distribuée, une méthodologie permettant en une fois de les concevoir et de choisir la réalisation la plus résiliente est ensuite présentée. Cette méthodologie tire profit d’une forme d’état descripteur spécifique, permettant de décrire et analyser les réalisations équivalentes, en explicitant notamment les retards internes et l’impact des phénomènes de quantification. Afin de valider ces différents outils méthodologiques, un exemple basé sur deux robots mobiles coopératifs est introduit. Cet exemple, traité simulation, permet de confronter ces développements méthodologiques sur un problème concret et réaliste.


    Date de soutenance : 10-12-2020
    Président du jury : Philippe Chevrel
    Jury :
    • Christophe Aubrun [Président]
    • James Ferris Whidborne [Rapporteur]
    • Zheng-Guang Wu [Rapporteur]
    • Thibault Hilaire
    • Wenan Zhang
    • Fabien Claveau
    • Yu Feng

      Maverick Chardet, Concilier expressivité du parallélisme et séparation des préoccupations lors de la reconfiguration de systèmes distribués
    Concilier expressivité du parallélisme et séparation des préoccupations lors de la reconfiguration de systèmes distribués
    Auteur : Maverick Chardet
    Manuscript :


    Mots-clés : DéploiementReconfigurationModèles à composantsCoordinationParallélismeSystèmes distribués
    Résumé

    Les systèmes informatiques distribués, qui fonctionnent sur plusieurs ordinateurs, sont désormais courants et même utilisés dans des services critiques. Cependant, ces systèmes deviennent de plus en plus complexes, en termes d'échelle, de dynamicité et de qualité de service attendue. La reconfiguration de systèmes distribués consiste à modifier leur état durant leur exécution. Les systèmes distribués peuvent être reconfigurés pour plusieurs raison, parmi lesquelles leur déploiement, leur mise à jour, leur adaptation pour obéir à de nouvelles contraintes (en termes de capacité utilisateurs, d'efficacité énergétique, de fiabilité, de coûts, etc.) ou même le changement de leurs fonctionnalités. Les systèmes de reconfiguration existants ne parviennent pas à fournir en même temps une bonne expressivité du parallélisme dans les actions de reconfiguration et la séparation des préoccupations entre les différents acteurs qui interagissent avec le système. L'objectif de cette thèse est de prouver que ces propriétés peuvent être conciliées en modélisant précisément le cycle de vie de chaque module des systèmes distribués, tout en fournissant des interfaces appropriées entre différents niveaux de conception. Deux modèles formels implantant cette idée sont fournis, un pour le cas particulier du déploiement et un pour la reconfiguration. Une évaluation est réalisée à la fois sur des cas d'usage synthétiques et réels et montre que ces modèles ont un plus haut niveau d'expressivité du parallélisme que leurs homologues tout en conservant un bon niveau de séparation des préoccupations.


    Date de soutenance : 03-12-2020
    Président du jury : Christian Pérez
    Jury :
    • Laurence Duchien [Président]
    • Daniel Hagimont [Rapporteur]
    • Eric Rutten [Rapporteur]
    • Françoise Baude
    • Hélène Coullon
    • Adrien Lebre

      Franco Fusco, Asservissement Visuel Dynamique pour Bras Manipulateurs Rapides
    Asservissement Visuel Dynamique pour Bras Manipulateurs Rapides
    Auteur : Franco Fusco
    Manuscript :


    Mots-clés : Asservissement visuelCommande par modèle prédictifManipulateurs redondants
    Résumé

    Cette thèse traite de l’augmentation de la productivité des robots manufacturiers, lors de l’exécution de tâches référencées capteurs. De telles tâches peuvent provenir de la cible non positionnée de manière absolue ou d’un environnement mal connu. Les commandes par asservissement visuel sont bien connues pour leur robustesse et leur précision, mais nécessitent généralement de longs temps d’exécution en raison de différents facteurs. La commande est généralement formulée uniquement à un niveau cinématique et caractérisée par des vitesses décroissantes de façon exponentielle. De plus, l’application non linéaire de l’espace opérationnel à l’espace des capteurs peut conduire à des chemins sous-optimaux et plus longs. Pour augmenter les performances de commande et réduire le temps nécessaire à la réalisation d’une tâche, cette thèse étudie l’utilisation de modèles d’interaction de second ordre. Leur utilisation dans une commande au niveau dynamique est étudiée et comparée aux approches classiques. Ils sont ensuite utilisés dans des schémas de commande par modèle prédictif, permettant d’obtenir des vitesses plus élevées tout en générant de meilleures trajectoires. Cependant, un inconvénient des techniques prédictives est leur charge de calcul. Afin d’obtenir de pallier ce défaut, un nouveau type de commande prédictive est étudié. Il conduit à une réduction du nombre de variables impliquées dans les problèmes d’optimisation grâce à l’utilisation d’un paramétrage des séquences d’entrée.


    Date de soutenance : 27-11-2020
    Président du jury : Philippe Martinet
    Jury :
    • Isabelle Fantoni-Coichot [Président]
    • Jacques Gangloff [Rapporteur]
    • Olivier Stasse [Rapporteur]
    • Guillaume Allibert
    • Abdelhamid Chriette
    • Estelle Courtial
    • Olivier Kermorgant

      Matthieu Furet, Analyse cinéto-statique de mécanismes de tenségrité : Application à la modélisation de cous d'oiseaux et de manipulateurs bio-inspirés
    Analyse cinéto-statique de mécanismes de tenségrité : Application à la modélisation de cous d'oiseaux et de manipulateurs bio-inspirés
    Auteur : Matthieu Furet
    Manuscript :


    Mots-clés : Bio-inspirationCinéto-statiqueTenségritéBio-inspiration
    Résumé

    Une structure de tenségrité est un assemblage d'éléments en compression (barres) et d'éléments en traction (câbles, ressorts) maintenus ensemble en équilibre. La tenségrité est connue en architecture et en art depuis plus d'un siècle et est adaptée à la modélisation des organismes vivants. Les mécanismes de tenségrité ont été étudiés plus récemment pour leurs propriétés prometteuses en robotique telles que leur faible inertie, leur compliance naturelle et la capacité de déploiement. Un mécanisme de tenségrité est obtenu lorsqu'un ou plusieurs éléments sont actionnés. Cette thèse s'inscrit dans le cadre du projet AVINECK, auquel participent des biologistes et des roboticiens dans un but double : avoir une meilleure compréhension de la nature et des cous d’oiseaux, et également de s’inspirer de la nature afin de concevoir des manipulateurs bioinspiré innovants. En premier lieu, une étude a été menée sur la cinématique des vertèbres d’oiseaux. Une modélisation des contacts entre surface articulaire a permis de reconstruire en 3D le mouvement d’une vertèbre d’oiseau quelconque par rapport à une autre, à partir de scans 3D de vraies vertèbres. Ensuite, plusieurs mécanismes simples ont été comparés afin de déterminer le meilleur candidat à la modélisation de la cinématique des cous d’oiseaux. En second lieu, deux mécanismes de tenségrité à 1 degré de liberté (DDL) potentiellement intéressants pour la modélisation de cous d’oiseaux et la réalisation de manipulateurs ont été modélisées. A partir d’une démarche de conception optimale, deux mécanismes optimaux selon un critère donné ont été dimensionnés, puis comparés afin de déterminer le mécanisme le plus intéressant d’un point de vue conception de manipulateurs. Le mécanisme à 1 DDL retenu a été un antiparallélogramme actionné de manière antagoniste, appelé mécanisme en X. Un prototype de manipulateur à 2 DDL a ensuite été conçu et réalisé. Une étude du modèle géométrique d’un tel manipulateur a mis en évidence des phénomènes intéressants comme le comportement cuspidal du robot sous certaines conditions. Une étude cinéto-statique du manipulateur a ensuite été effectué. Le comportement du manipulateur dépendant fortement de la stratégie d’actionnement, celles-ci ont été énumérées et certaines d’entre elles comparées. Les résultats obtenus ont été vérifiés et mis en évidence sur un prototype. Enfin, la modélisation de manipulateurs plans a été étendue aux manipulateurs à N DDL. Un modèle dynamique complet a été obtenu, et une démarche de conception a été menée afin d’obtenir les dimensions et spécifications d’un manipulateur plan bio-inspiré à 10 DDL.


    Date de soutenance : 13-11-2020
    Président du jury : Philippe Wenger
    Jury :
    • Stéphane Caro [Président]
    • Mohamed Amine Laribi [Rapporteur]
    • Pierre Renaud [Rapporteur]
    • Christine Chevallereau
    • David Daney
    • Anick Abourachid

      Thomas Minier, La Préemption Web pour interroger le Web des Données
    La Préemption Web pour interroger le Web des Données
    Auteur : Thomas Minier
    Manuscript :


    Mots-clés : Web sémantiqueGestion des données liéesServeurs SPARQL publics
    Résumé

    En suivant les principes du Linked Open Data, les fournisseurs de données ont publié des milliards de documents RDF via des services publics d'évaluation de requêtes SPARQL. Pour garantir la disponibilité et la stabilité de ces services, ils appliquent des politiques de quotas sur l'utilisation des serveurs. Les requêtes qui excèdent ces quotas sont interrompues et ne renvoient que des résultats partiels. Cette interruption n'est pas un problème s'il est possible de reprendre l'exécution des requêtes ultérieurement, mais il n'existe aucun modèle de préemption le permettant. Dans cette thèse, nous proposons de résoudre le problème relatif à la construction des services qui permettent à n'importe quel utilisateur d'exécuter n'importe quelle requête SPARQL en obtenant des résultats complets. Nous proposons la préemption Web, un nouveau modèle d'exécution qui permet l'interruption de requêtes SPARQL après un quantum de temps, ainsi que leur reprise sur demande des clients. Nous proposons également SaGe, un moteur d'évaluation de requêtes SPARQL qui implémente la préemption Web tout en garantissant un surcoût de préemption minimal. Nos résultats expérimentaux démontrent que SaGe est plus performant que les approches existantes, en termes de temps moyen d'exécution des requêtes et d'obtention des premiers résultats.


    Date de soutenance : 10-11-2020
    Président du jury : Pascal Molli (pascal.molli@univ-nantes.fr)
    Jury :
    • Fabien Gandon (rapporteur)
    • Ruben Verborgh (rapporteur)
    • Pascale Kuntz-Cosperec [Président]
    • Fatiha Saïs (examinatrice)

      Benjamin Moreau, Faciliter la Réutilisation sur le Web des Données
    Faciliter la Réutilisation sur le Web des Données
    Auteur : Benjamin Moreau
    Manuscript :


    Mots-clés : Web des donnéesDonnées liéesRDFSPARQLLicencesContrôle d’usageTraitement des requêtes fédéréesRelâchement de requêteIntégration de donnéesMappings RDF
    Résumé

    Le Web des données est un ensemble de données liées qui peuvent être interrogées et réutilisées à l’aide de moteurs de requêtes fédérées. Pour protéger les jeux de données, les licences renseignent leurs conditions d’utilisation. Cependant, choisir une licence conforme n’est pas toujours aisé. En effet, pour protéger la réutilisation de plusieurs jeux de données, il est nécessaire de prendre en considération la compatibilité entre leurs licences. Pour faciliter la réutilisation, les moteurs de requêtes fédérées devraient respecter les licences. Dans ce contexte, nous nous intéressons à deux problèmes (1) comment calculer la relation de compatibilité entre des licences, et (2) comment respecter les licences pendant le traitement de requêtes fédérées. Pour le premier problème, nous proposons CaLi, un modèle capable d’ordonner partiellement n’importe quel ensemble de licences selon leur compatibilité. Pour le second problème, nous proposons FLiQue, un moteur de requêtes fédérés respectant les licences. FLiQue utilise CaLi pour détecter les conflits de compatibilité entre licences et assure que le résultat d’une requête fédérée respecte les licences. Dans le cadre de cette thèse, nous proposons également trois approches ODMTP, EvaMap et SemanticBot, ayant pour objectif de faciliter l’intégration de données au Web des données.


    Date de soutenance : 06-11-2020
    Président du jury : Patricia Serrano Alvarado
    Jury :

        Swaminath Venkateswaran, Conception d'un robot bio-inspiré pour l'inspection des canalisations
      Conception d'un robot bio-inspiré pour l'inspection des canalisations
      Auteur : Swaminath Venkateswaran
      Manuscript :


      Mots-clés : SingularitésOptimisationTenségritéRobots bio-inspirésInspection de la canalisation
      Résumé

      Les robots d'inspection de canalisations jouent un rôle important dans des industries telles que le nucléaire, la chimie et les eaux usées. Ils peuvent opérer avec précision dans un environnement irradié ou pollué, réduisant ainsi les risques pour les humains. Cette thèse porte sur la conception d'un robot bio-inspiré pour l'inspection des canalisations. La thèse commence par l'étude du cas d'un robot d'inspection bio-inspiré rigide qui a été développé au LS2N, France pour AREVA. Des modèles statiques et dynamiques sont développés pour comprendre les forces de serrage et les couples des actionneurs du robot. Des validations expérimentales sont également effectuées sur le prototype pour interpréter les forces d’actionnement en temps réel. Pour améliorer sa mobilité, l'architecture du robot est rendue flexible par l'ajout d'un mécanisme de tenségrité. Deux types de mécanismes de tenségrité sont proposés et analysés avec des méthodes algébriques pour comprendre leurs limites d'inclinaison et pour connaître l’influence des paramètres de conception. Des expériences sont réalisées sur l'un des prototypes des mécanismes de tenségrité développés au LS2N avec deux types de trajectoire en positions horizontale et verticale. Ensuite, une optimisation est réalisée pour identifier les moteurs qui peuvent permettre du robot d'inspection de canalisation flexible de passer les coudes et les jonctions pour une plage donnée de diamètres de tuyaux. Une maquette numérique du robot flexible est réalisée dans un logiciel de CAO.


      Date de soutenance : 04-11-2020
      Président du jury : Damien Chablat
      Jury :
      • Pierre Moretto [Président]
      • Belhassen Chedi Bouzgarrou [Rapporteur]
      • Pierre Renaud [Rapporteur]
      • Olivier Company
      • Ramakrishnan Ramachandran
      • Margot Vulliez

        Berna Bou Farraa, Modélisation et commande des systèmes à retards contraints sous incertitudes
      Modélisation et commande des systèmes à retards contraints sous incertitudes
      Auteur : Berna Bou Farraa
      Manuscript :


      Mots-clés : Réseaux et systèmes logistiquesSystèmes à retardsContraintes d’intervalles et polyédralesPropriétés d’invarianceCommande par feedback-prédicteurAnalyse de robustesse
      Résumé

      Ce travail de thèse porte sur l’étude analytique de la dynamique des réseaux logistiques et des systèmes logistiques élémentaires, soumis aux retards d’acquisition des produits, aux pertes de stockage vu la nature périssable des produits, et aux contraintes de positivité et de saturation des ressources du système. La finalité est de maîtriser la production afin de satisfaire la demande des clients incertaine mais bornée, sans risque ni de rupture ni de débordement de stockage, et en tenant compte des diverses spécifications notamment les capacités de production et de stockage. En se basant sur les formalismes des systèmes Entrée-Sortie et les propriétés d’invariance, un premier objectif consiste à proposer des méthodes de calcul de bornes, afin d’identifier les ensembles de sortie atteignables, du réseau logistique. Un objectif secondaire, repose sur l’étude de nouvelles méthodes de synthèse et de conception de commandes du type feedback-prédicteur, linéaires ou saturées, pour déterminer des conditions d’existence de lois de commande satisfaisantes pour le système élémentaire. Un troisième aspect guidant ce sujet est de prendre en compte les incertitudes sur certains paramètres intrinsèques du système ou des perturbations supplémentaires, d’où l’introduction de nouvelles techniques de commandes robustes et réactives


      Date de soutenance : 30-10-2020
      Président du jury : Jean-Jacques LOISEAU
      Jury :

          Emile Cadorel, Prise en compte de l’énergie dans la gestion des workflows scientifiques dans le Cloud : une vision centrée sur le fournisseur de service
        Prise en compte de l’énergie dans la gestion des workflows scientifiques dans le Cloud : une vision centrée sur le fournisseur de service
        Auteur : Emile Cadorel
        Manuscript :


        Mots-clés : Workflows scientifiquesFournisseur de services de CloudOrdonnancementExécutionOptimisation energétiqueSystèmes distribuésInfrastructures distribuées
        Résumé

        Les simulations scientifiques par ordinateur sont généralement très complexes et se caractérisent par de nombreux processus parallèles. Afin de mettre en évidence les parties parallèlisables, et de permettre une exécution efficace, de nombreux scientifiques ont choisi de définir leurs applications sous forme de workflows. Un workflow scientifique représente une application comme un ensemble de tâches de traitement unitaires, liées par des dépendances. De nos jours, grâce à leur faible coût, leur élasticité et leur aspect à la demande, les services de cloud computing sont largement utilisés pour l’exécution de workflows. Les utilisateurs utilisant ce type d’environnement gèrent l’exécution de leur workflow, ainsi que les ressources nécessaires, à l’aide de service standards tel que le IaaS (Infrastructure-as-a-Service). Néanmoins, comme les services de cloud ne sont pas spécifiques à la nature de l’application à exécuter, l’utilisation des ressources physiques n’est pas aussi optimisée qu’elle pourrait l’être. Dans cette thèse, nous proposons de déplacer la gestion et l’exécution des workflows du côté du fournisseur de Cloud afin d’offrir un nouveau type de service dédié aux workflows. Cette nouvelle approche rend possible une amélioration de la gestion des ressources et une réduction de la consommation d’énergie et de ce fait l’impact environnemental de l’infrastructure utilisée.


        Date de soutenance : 21-10-2020
        Président du jury : Jean-Marc Menaud
        Jury :
        • Romain Rouvoy [Rapporteur]
        • Patricia Stolf [Rapporteur]
        • Frédéric Desprez
        • Stéphane Genaud
        • Hélène Coullon

          Ilhem Slama, Modélisation et optimisation de problème de planification de désassemblage dans un environnement incertain
        Modélisation et optimisation de problème de planification de désassemblage dans un environnement incertain
        Auteur : Ilhem Slama
        Manuscript :


        Mots-clés : DésassemblagePlanification de désassemblageDélai de remise à neuf incertain incertainProgrammation stochastiqueModélisation analytiqueAgrégation par scénarios
        Résumé

        Notre projet de recherche propose de modéliser et d’optimiser le problème lié à la détermination du plan de démontage des produits enfin de vie tout en satisfaisant les demandes en composants sur un horizon de planification donné. Les travaux présentés dans ce manuscrit portent sur la planification de désassemblage dans un contexte certain et incertain. Nous avons considéré trois modélisations principales avec leurs approches de résolution : (i) une modélisation déterministe multi-période qui traite une nomenclature de produit multi-niveau avec le partage des composant qui cherche à maximiser le profit total. Un programme linéaire mixte en nombres entiers est proposé pour résoudre d’une façon optimale le problème, (ii) une modélisation stochastique monopériode pour traiter le cas d’une nomenclature de produit à deux niveaux et un seul type de produit. Les délais de remise à neuf sont supposés stochastique avec des distributions de probabilité quelconques. Le modèle cherche à minimiser l’espérance mathématique des coûts de stockage et de rupture des composants. Une approche de résolution exacte basée sur le modèle ”Newsboy" est développée pour résoudre le problème, et (iii) un modèle stochastique multi-période qui traite l’incertitude des délais de remise à neuf de chaque composant à chaque période est étudié quand le croisement des ordres est autorisé. La programmation linéaire mixte en nombres entiers stochastique, la simulation Monte Carlo et l’agrégation des scénarios sont proposées pour résoudre ce type de problème. Les performances des méthodes de résolution développées sont présentées en analysant les résultats d’optimisation sur un ensemble d’instances générées aléatoirement.


        Date de soutenance : 25-09-2020
        Président du jury : Alexandre Dolgui
        Jury :
        • Olga Battaïa [Président]
        • Feng Chu [Rapporteur]
        • Abdelaziz Dammak
        • Mohand Lounes Bentaha
        • Oussama Ben Ammar

          Rénald Gaboriau, Les ateliers Rob'Autisme : Le robot extension comme médiation thérapeutique auprès des personnes présentant un trouble du spectre autistique.
        Les ateliers Rob'Autisme : Le robot extension comme médiation thérapeutique auprès des personnes présentant un trouble du spectre autistique.
        Auteur : Rénald Gaboriau
        Manuscript :


        Mots-clés : Projet Rob’AutismeRobot-extensionAutismeGroupe thérapeutiqueMédiation thérapeutique
        Résumé

        L’utilisation des robots comme médiation thérapeutique pour les personnes présentant un Trouble du Spectre Autistique (TSA) est une pratique en plein essor. C’est en effet une méthode encourageante pour favoriser le développement de compétences sociales. De nombreuses expériences sont actuellement menées. Cependant, dans toutes les approches existantes, le paradigme du robot-compagnon est utilisé : le robot est programmé pour présenter des comportements pré-établis. Le projet Rob’Autisme propose une approche alternative : le robot est utilisé comme extension pour faire ou dire des choses. Les sujets présentant un TSA le programment et, par son truchement, agissent librement sur leur environnement social.De plus, ce projet inclut l’idée qu’ils pourront ensuite interagir avec les autres sans le robot. Cette thèse vise à comprendre l’intérêt de cette approche et évaluer les effets de la participation sur les interactions sociales. Durant deux ans, des groupes avec six adolescents ont été organisés et analysés à partir de méthodes quantitatives et qualitatives. Ces analyses montrent que cette approche favorise la tendance à aller vers les autres et interagir avec eux. Ce résultat est en outre généralisé à l’extérieur.


        Date de soutenance : 23-09-2020
        Président du jury : Sophie Sakka
        Jury :
        • Mohamed Chetouani [Président]
        • Laurence Devillers [Rapporteur]
        • Thomas Rabeyron [Rapporteur]
        • Didier Acier
        • Marion Haza-Pery

          Fouad Khenfri, Optimisation holistique pour la configuration d’une architecture logicielle embarquée : application au standard AUTOSAR
        Optimisation holistique pour la configuration d’une architecture logicielle embarquée : application au standard AUTOSAR
        Auteur : Fouad Khenfri
        Manuscript :


        Mots-clés : Systèmes embarquésAutosarOrdonnancement
        Résumé

        AUTOSAR (AUTomotive Open System Architecture) est un standard industriel mondial créé en 2003 dans le but de standardiser le développement des architectures logicielles automobiles. Il fournit un ensemble de concepts et définit une méthodologie commune pour le développement des logiciels embarqués automobiles. Les principales caractéristiques de ce standard sont la modularité et la « configurabilité» de logiciels qui permettent la réutilisation fonctionnelle des modules logiciels fournis par des fournisseurs différents. Cependant,le développement d’une application embarquée AUTOSAR nécessite la configuration d’un grand nombre de paramètres liés principalement au grand nombre de composants logiciels (software component« SWC ») de l’application. Cette configuration commence par l’étape d’allocation des SWCs à la plateforme matérielle (calculateursconnectés par des réseaux), jusqu’à l’étape de configuration de chaque calculateur et du réseau de communication. Différentes alternatives sont possibles pendant ces étapes de configuration etc chaque décision de conception peut impacter les performances temporelles du système, d’où la nécessité d’automatiser ces étapes de configuration et de développer un outil d’évaluation d’architectures.Dans ce travail de thèse, nous introduisons une approche holistique d’optimisation afin de synthétiser l’architecture E/E d’un système embarqué AUTOSAR. Cette approche se base sur des méthodes métaheuristique et heuristique. La méthode métaheuristique (i.e. algorithme génétique) a le rôle de trouver les allocations les plus satisfaisantes des SWCs aux calculateurs. A chaque allocation proposée, deux méthodes heuristiques sont développées afin de résoudre le problème de la configuration des calculateurs (le nombre de tâches et ses priorités, allocation des runnables aux tâches, etc.) et des réseaux de communication (le nombre de messages et ses priorités, allocation des « data-elements » aux messages,etc.). Afin d’évaluer les performances de chaque allocation, nous proposons une nouvelle méthode d’analyse pour calculer le temps de réponse des tâches, des runnables, et de bout-en-bout de tâches/runnables. L’approche d’exploration architecturale proposée par cette thèse considère le modèle des applications périodiques et elle est évaluée à l’aide d’applications génériques et industrielles.


        Date de soutenance : 13-09-2020
        Président du jury : Chetto Maryline
        Jury :

            Damien Schnebelen, Étude et modélisation des stratégies visuelles en situation de conduite automobile autonome
          Étude et modélisation des stratégies visuelles en situation de conduite automobile autonome
          Auteur : Damien Schnebelen
          Manuscript :


          Mots-clés : Sortie de boucleModélisationConduite autonomeStratégies visuellesSortie de boucle
          Résumé

          Driver behaviour, including visual strategies, can be modified in autonomous driving situations compared to manual driving. The first axis of this PhD work focuses on the adaptation of visual strategies in autonomous driving. To this end, two experiments were conducted in different road contexts (rural roads with bends and motorway), with drivers having to continuously or partially supervise the driving scene.The results show that the strategies evolve in all cases towards a disengagement of the gaze from the immediate road to move either upstream for more anticipation (continuous supervision on rural roads) or towards irrelevant areas (partial supervision on motorways). The second line of work deals with the link between visual strategies and the out-of-the-loop phenomenon, i.e. the gradual disenga-gement of the driver from supervision as he drives in autonomous mode. The results show that it is possible to predict the state of the driver in the loop from his spontaneous visual strategies.These conclusions are based on statistical modelling work. The resulting models highlight the importance of considering indicators of gaze dynamics to predict the driver's state.These conclusions are based on statistical modelling work. The resulting models highlight the importance of considering indicators of gaze dynamics to predict the driver's state. These results can be used to develop algorithms for detecting driver disengagement in future autonomous vehicles.


          Date de soutenance : 27-08-2020
          Président du jury : Franck Mars
          Jury :
          • Jordan Navarro
          • Thierry Baccino
          • Céline Lemercier

            Yang Deng, Estimation du retard et commande prédictive des systèmes à retard avec une classe de retards divers
          Estimation du retard et commande prédictive des systèmes à retard avec une classe de retards divers
          Auteur : Yang Deng
          Manuscript :


          Mots-clés : Système à retardRetard longEstimation du retardCommande prédictiveSystème commandé en réseau
          Résumé

          Le retard est un phénomène largement présent dans les systèmes de commande(i.e.retard physique, latence de communication, temps de calcul) et peut en dégrader les performances ou même les déstabiliser. Si le retard est faible, la stabilité en boucle fermée peut être garantie par des lois de commande conventionnelles mais ces techniques ne sont plus efficaces si le retard est long. Cette thèse est dédiée à la commande des systèmes à retard avec retards longs inconnus ou avec des retards incertains. Pour compenser les retards longs, la commande prédictive est adoptée et des techniques d’estimation de retard sont développées. Selon les différents types de systèmes et de retards, trois objectifs sont visés dans la thèse. Le premier objectif considère la commande des systèmes linéaires avec retards constants inconnus pour lesquels un nouvel estimateur de retard est proposé pour estimer les retards inconnus. Le retard estimé est ensuite utilisé dans la commande prédictive pour stabiliser le système. Le deuxième objectif se concentre sur la stabilisation pratique des systèmes commandés à distance avec des retards inconnus variants. Dans ce cas, les retards sont estimés de manière pratique : une boucle de communication spécifique est utilisée pour estimer le retard en temps fini puis le système est stabilisé par une commande prédictive. Les tests expérimentaux réalisés sur un réseau WiFi ont montré que l’algorithme permet d’estimer de manière robuste les retards variants. Le dernier objectif est consacré à la commande des systèmes commandés en réseau avec retards variants. La commande prédictive discrète est utilisée pour compenser les retards longs et variants et les ré-ordonnancements de paquets dans le canal capteur-contrôleur sont également considérés. De plus, cette méthode est validée par l’asservissement visuel d’un pendule inverse commandé en réseau. Les performances obtenues sont meilleures que les méthodes de commande non-prédictives classiques.


          Date de soutenance : 08-07-2020
          Président du jury : Franck Plestan
          Jury :
          • Jean-Pierre Richard [Président]
          • Pierdominico Pepe [Rapporteur]
          • Alexandre Seuret [Rapporteur]
          • Vincent Léchappé
          • Emmanuel Moulay

            Dimitri Antakly, Apprentissage et Vérification Statistique pour la Sécurité
          Apprentissage et Vérification Statistique pour la Sécurité
          Auteur : Dimitri Antakly
          Manuscript :


          Mots-clés : Apprentissage de modèlesVérification formelleStatistical Model CheckingRecursive Timescale Graphical Event ModelsFlux d’évènementsEvaluation de sécurité
          Résumé

          Les principaux objectifs poursui- vis au cours de cette thèse sont en premier lieu de pouvoir combiner les avantages de l’apprentissage graphique probabiliste de mo- dèles et de la vérification formelle afin de pouvoir construire une nouvelle stratégie pour les évaluations de sécurité. D’autre part, il s’agit d’évaluer la sécurité d’un système réel donné. Par conséquent, nous proposons une approche où un "Recursive Timescale Graphi- cal Event Model (RTGEM)" appris d’après un flux d’évènements est considéré comme re- présentatif du système sous-jacent. Ce mo- dèle est ensuite utilisé pour vérifier une pro- priété de sécurité. Si la propriété n’est pas vé- rifiée, nous proposons une méthodologie de recherche afin de trouver un autre modèle qui la vérifiera. Nous analysons et justifions les différentes techniques utilisées dans notre ap- proche et nous adaptons une mesure de dis- tance entre Graphical Event Models. La me- sure de distance entre le modèle appris et le proximal secure model trouvé nous donne un aperçu d’à quel point notre système réel est loin de vérifier la propriété donnée. Dans un soucis d’exhaustivité, nous proposons des sé- ries d’expériences sur des données de syn- thèse nous permettant de fournir des preuves expérimentales que nous pouvons atteindre les objectifs visés.


          Date de soutenance : 02-07-2020
          Président du jury : Philippe Leray(philippe.Leray@univ-nantes.fr)
          Jury :

              Loic Jeanson, Apports à la construction d'outillage informatique pour les études liées au patrimoine
            Apports à la construction d'outillage informatique pour les études liées au patrimoine
            Analyse d’un carrefour disciplinaire et cahier des charges pour une méthodologie d’intégration de connaissances hétérogènes
            Auteur : Loic Jeanson
            Manuscript :


            Mots-clés : PatrimoineEvaluationEtudeNumériqueInformatiqueSémantique
            Résumé

            Les travaux patrimoniaux connaissent de multiples déclinaisons : étude en vue d’une candidature, exposition en musée, analyse ethnologique, archéologique, historiographique.. La nature des activités dépend du type de patrimoine considéré, des intentions, de la documentation à disposition, etc. Le plus souvent, des travaux complémentaires s’agrègent, permettant de combiner les points de vue, hypothèses et informations. Les humanités numériques, c’est à dire les activités d’étude, en sciences humaines au sens large, ayant recours à l’informatique calculatoire, se développent depuis les années 60. Les travaux patrimoniaux ne sont pas en reste, mais la quantité et la diversité, voire l’hétérogénéité des informations, combinées aux critères déontologiques du travail patrimonial compliquent le développement d’outillage pertinent. Dans une première partie, une réflexion portant sur les caractéristiques des travaux patrimoniaux et sur les enjeux du travail de modélisation en lien étroit avec la documentation est présentée. A partir de cette analyse, un cahier des charges pour la production d’un outil est établi permettant de faire face aux enjeux prioritaires. L’opposition entre la construction du sens qui entraîne la patrimonialisation, et la rupture du sens inhérente au numérique, est discutée, ainsi que le besoin de transparence dans les pratiques de modélisation. Les critères d’intégrité et d’authenticité des biens patrimoniaux, qui guident en partie nos apports, seront aussi affirmés dans leurs dimensions dynamiques. La mise en application, par le cas d’étude de l’Observatoire du Pic du Midi ainsi que celui de la série des cercles méridiens Gautier, permet de démontrer les propositions et d’en éprouver la pertinence et les limites.


            Date de soutenance : 22-06-2020
            Président du jury : Alain Bernard
            Jury :
            • Pascale Kuntz-Cosperec [Président]
            • Nabil Anwer [Rapporteur]
            • Muriel Guedj [Rapporteur]
            • Pierre Hallot
            • Jean-Louis Kerouanton
            • Florent Laroche
            • Manuel Zacklad

              Qiuyue Luo, Marche Bipède 3D Auto-Stabilisante
            Marche Bipède 3D Auto-Stabilisante
            Auteur : Qiuyue Luo
            Manuscript :


            Mots-clés : RobotiqueMarche bipèdeStabilité
            Résumé

            Les robots humanoïdes, bien adaptés pour évoluer dans le milieux humains, peuventavecleursbrasetmainseffectuerdes tâches complexes. Ils peuvent être considérés comme l’un des robots ultimes. Cependant, la marchebipèderesteunphénomènecomplexe qui n’a pas été entièrement compris. La thèse est consacrée à trouver quelques caractéristiques physiques qui peuvent expliquer la stabilité de la marche périodique sur le sol horizontal. Dans la marche humaine, la démarche est généralement exprimée en fonction d’une variable de phase fondée sur l’état interne au lieu du temps. Les variables commandées (trajectoires du pied libre, oscillation verticale du centre de masse (CdM), mouvement du haut du corps, etc.) des robotsont une évolution désirée exprimée en fonction d’une variable de phase via l’utilisation de contraintes virtuelles et la durée des pas n’est pas explicitement imposée mais implicitement adaptée en présence de perturbations. Dans la première partie, deux modèles simplifiés du robot : le modèle du pendule inversé linéaire (LIP) et le modèle du pendule inversé de longueurvariable(VLIP)sontutiliséspourétudier les stratégies de commande. La stratégie de commande proposée pour les modèles LIP et VLIPestétendueàtraverslemodèleessentiel pour commander un modèle humanoïde complet. L’algorithme de marche proposé ci-dessus est appliqué sur les robots humanoïdes Roméo et TALOS.


            Date de soutenance : 18-06-2020
            Président du jury : Christine Chevallereau
            Jury :
            • Claude Moog [Président]
            • Andrea Cherubini [Rapporteur]
            • Olivier Stasse [Rapporteur]
            • Yannick Aoustin
            • Jean-Paul Laumont

              Ramzi Ben Mhenni, Méthodes de programmation en nombres mixtes pour l'optimisation parcimonieuse en traitement du signal
            Méthodes de programmation en nombres mixtes pour l'optimisation parcimonieuse en traitement du signal
            Auteur : Ramzi Ben Mhenni
            Manuscript :


            Mots-clés : Traitement du signalRecherche opérationnelleParcimonieOptimisation en norme l0Programmation en nombres mixtesAlgorithmes branch-and-boundDémélange spectralTraitement du signal
            Résumé

            L’approximation parcimonieuse consiste à ajuster un modèle de données linéaire au sens des moindres carrés avec un faible nombre de composantes non nulles (la “norme” L0). En raison de sa complexité combinatoire, ce problème d’optimisation est souvent abordé par des méthodes sous-optimales. Il a cependant récemment été montré que sa résolution exacte était envisageable au moyen d’une reformulation en programme en nombres mixtes(MIP),couplée à un solveur MIP générique, mettant en œuvre des stratégies de type branch-and-bound. Cette thèse aborde le problème d’approximation parcimonieuse en norme L0 par la construction d’algorithmes branch-and-bound dédiés, exploitant les structures mathématiques du problème. D’une part, nous interprétons l’évaluation de chaque nœud comme l’optimisation d’un critère en norme L1, pour lequel nous proposons des méthodes dédiées. D’autre part, nous construisons une stratégie d’exploration efficace exploitant la parcimonie de la solution, privilégiant l’activation de variables non nulles dans le parcours de l’arbre de décision. La méthode proposée dépasse largement les performances du solveur CPLEX, réduisant le temps de calcul et permettant d’aborder des problèmes de plus grande taille. Dans un deuxième volet de la thèse, nous proposons et étudions des reformulations MIP du problème de démélange spectral sous contrainte de parcimonie en norme L0 et sous des contraintes plus complexes de parcimonie structurée, généralement abordées de manière relâchée dans la littérature.Nous montrons que, pour des problèmes de complexité limitée, la prise en compte de manière exacte de ces contraintes est possible et permet d’améliorer l’estimation par rapport aux approches existantes.


            Date de soutenance : 13-05-2020
            Président du jury : Sébastien Bourguignon
            Jury :
            • Christian Jutten [Président]
            • Sonia Cafieri [Rapporteur]
            • Matthieu Kowalski [Rapporteur]
            • Paul Honeine
            • Jordan Ninin
            • Liva Ralaivola

              Saman Lessanibahri, Robots Parallèles à Câbles ayant un Grand Espace de Travail en Translation et en Orientation
            Robots Parallèles à Câbles ayant un Grand Espace de Travail en Translation et en Orientation
            Auteur : Saman Lessanibahri
            Manuscript :


            Mots-clés : Robot parallèle à câblesRobots hybridesEspace de travailBoucles de câblesConception
            Résumé

            Les Robots Parallèles à Câbles (RPC) sont considérés comme des manipulateurs parallèles avec des câbles flexibles au lieu de liens rigides. Un RPC se compose d'un bâti, d'une plate-forme mobile et de câbles les reliant l'un à l'autre. Les RPC sont réputés pour leurs performances avantageuses par rapport aux robots parallèles classiques en termes d’espace de travail en translation, de reconfigurabilité, de capacité de charge utile importante et de performances dynamiques élevées. Cependant, l'amplitude de rotation de la plateforme mobile des RPC est généralement limitée en raison des collisions de types câble/câble et câble/plateforme mobile. L'objectif de cette thèse est ainsi de concevoir, d'analyser et de prototyper des RPC hybrides ayant à la fois un grand espace de travail en translation et un grand espace de travail en orientation en utilisant des boucles de câbles. Ce travail de recherche présente le développement de trois RPC hybrides adaptés aux tâches nécessitant de grands espaces de travail en orientation et en translation comme le balayage tomographique, les dispositifs d'orientation de caméras et l'inspection.


            Date de soutenance : 12-05-2020
            Président du jury : Stéphane Caro
            Jury :
            • Marc Gouttefarde [Président]
            • Mohamed Amine Laribi [Rapporteur]
            • Philippe Cardou
            • Coralie Germain
            • Darwin Lau

              Sébastien Levilly, Quantification de biomarqueurs hémodynamiques en imagerie cardiovasculaire par résonance magnétique de flux 4D
            Quantification de biomarqueurs hémodynamiques en imagerie cardiovasculaire par résonance magnétique de flux 4D
            Auteur : Sébastien Levilly
            Manuscript :


            Mots-clés : Cisaillement à la paroiSimulation numérique des fluidesIRM de flux 4DCarotide
            Résumé

            En imagerie cardiovasculaire, un biomarqueur est une information quantitative permettant d'établir une corrélation avec la présence ou le développement d'une pathologie cardiovasculaire. Ces biomarqueurs sont généralement obtenus grâce à l'imagerie de l'anatomie et du flux sanguin. Récemment, la séquence d'acquisition d'IRM de flux 4D a ouvert la voie à la mesure du flux sanguin dans un volume 3D au cours du cycle cardiaque. Or, ce type d'acquisition résulte d'un compromis entre le rapport signal sur bruit, la résolution et le temps d'acquisition. Le temps d'acquisition est limité et par conséquent les données sont bruitées et sous-résolues. Dans ce contexte, la quantification de biomarqueurs est difficile. L'objectif de cette thèse est d'améliorer la quantification de biomarqueurs et en particulier du cisaillement à la paroi. Deux stratégies ont été mises en œuvre pour atteindre cet objectif. Une première solution permettant le filtrage spatio-temporel du champ de vitesse a été proposée. Cette dernière a révélé l'importance de la paroi dans la modélisation d'un champ de vitesse. Une seconde approche, constituant la contribution majeure de cette thèse, s'est focalisée sur la conception d'un algorithme estimant le cisaillement à la paroi. L'algorithme, nommé PaLMA, s'appuie sur la modélisation locale de la paroi pour construire un modèle de vitesse autour d'un point d'intérêt. Le cisaillement est évalué à partir du modèle de la vitesse. Cet algorithme intègre une étape de régularisation a posteriori améliorant la quantification du cisaillement à la paroi. Par ailleurs, une approximation du filtre IRM est utilisée pour la première fois pour l'estimation du cisaillement. Enfin, cet algorithme a été évalué sur des données synthétiques, avec des écoulements complexes au sein de carotides, en fonction du niveau de bruit, de la résolution et de la segmentation. Il permet d'atteindre des performances supérieures à une méthode de référence dans le domaine, dans un contexte représentatif de la pratique clinique.


            Date de soutenance : 12-05-2020
            Président du jury : Jérôme Idier
            Jury :
            • Étienne Mémin [Président]
            • Christian Heinrich [Rapporteur]
            • Nadjia Kachenoura [Rapporteur]
            • Perrine Paul-Gilloteaux
            • Monica Sigovan
            • Jean-Michel Serfaty
            • David Le Touzé

              Ran Bao, Modélisation formelle de systèmes de drones civils à l'aide de méthodes probabilistes paramétrées
            Modélisation formelle de systèmes de drones civils à l'aide de méthodes probabilistes paramétrées
            Auteur : Ran Bao
            Manuscript :


            Mots-clés : Model checking statistique paramétriqueChaîne de MarkovDroneModèle formel
            Résumé

            Les drones sont maintenant très répandus dans la société et sont souvent utilisés dans des situations dangereuses pour le public environnant. Il est alors nécessaire d’étudier leur fiabilité, en particulier dans le contexte de vols au-dessus d’un public. Dans cette thèse, nous étudions la modélisation et l’analyse de drones dans le contexte de leur plan de vol. Pour cela, nous construisons plusieurs modèles probabilistes du drone et les utilisons ainsi que le plan de vol pour modéliser la trajectoire du drone. Le modèle le plus détaillé obtenu prend en compte des paramètres comme la précision de l’estimation de la position par les différents capteurs, ainsi que la force et la direction du vent. Le modèle est analysé afin de mesurer la probabilité que le drone entre dans une zone dangereuse. Du fait de la nature et de la complexité des modèles successifs obtenus, leur vérification avec les outils classiques, tels que PRISM ou PARAM, est impossible. Nous utilisons donc une nouvelle méthode d’approximation, appelée Model Checking Statistique Paramétrique. Cette méthode a été implémentée dans un prototype, que nous avons mis à l’épreuve sur ce cas d’étude complexe. Nous avons pour finir utilisé les résultats fournis par ce prototype afin de proposer des pistes permettant d’améliorer la sécurité du public dans le contexte considéré.


            Date de soutenance : 07-05-2020
            Président du jury : Christian Attiogbe
            Jury :
            • Patricia Bouyer-Decitre
            • Laure Petrucci
            • Olga Kouchnarenko
            • Claud Jard

              Yewan Wang, Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/ logicielle et de l’environnement associé
            Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/ logicielle et de l’environnement associé
            Auteur : Yewan Wang
            Manuscript :


            Mots-clés : Modélisation du consommation énergétiqueEfficacité énergétiqueVariabilité des processeursEffet thermique
            Résumé

            Depuis des années, la consommation énergétique du centre de donnée a pris une importance croissante suivant une explosion de demande dans cloud computing. Cette thèse aborde le défi scientifique de la modélisation énergétique d’un centre de données, en fonction des paramètres les plus importants. Disposant d’une telle modélisation, un opérateur pourrait mieux repenser / concevoir ses actuels / futurs centre de données. Pour bien identifier les impacts énergétiques des matériels et logiciels utilisés dans les systèmes informatiques. Dans la première partie de la thèse, nous avons réaliser un grand nombre évaluations expérimentales pour identifier et caractériser les incertitudes de la consommation d’énergie induite par les éléments externes : effets thermiques, différencesentre des processeurs identiques causées par un processus de fabrication imparfait, problèmes de précision issus d’outil de mesure de la puissance, etc. Nous avons terminé cette étude scientifique par le développement d’une modélisation global pour un cluster physique donné, ce cluster est composé par 48 serveurs identiques et équipé d’un système de refroidissement à expansion à direct, largement utilisé aujourd’hui pour les datacenters modernes. La modélisation permet d’estimer la consommation énergétique globale en fonction des configurations opérationnelles et des données relatives à l’activité informatique, telles que la température ambiante, les configurations du système de refroidissement et la charge des serveurs.


            Date de soutenance : 09-03-2020
            Président du jury : Jean-Marc Menaud
            Jury :
            • Romain Rouvoy [Président]
            • Noël de Palma [Rapporteur]
            • Anne-Cécile Orgerie
            • Patricia Stolf
            • Hamid Gualous

              Jingshu Liu, Apprentissage de représentations cross-lingue d’expressions de longueur variable
            Apprentissage de représentations cross-lingue d’expressions de longueur variable
            Auteur : Jingshu Liu
            Manuscript :


            Mots-clés : Plongement lexical bilingueAlignement d’expressionsApprentissage non-supervisé
            Résumé

            L’étude de l’extraction de lexiques bilingues à partir de corpus comparables a été souvent circonscrite aux mots simples. Les méthodes classiques ne peuvent gérer les expressions complexes que si elles sont de longueur identique, tandis que les méthodes de plongements de mots modélisent les expressions comme une seule unité. Ces dernières nécessitent beaucoup de données, et ne peuvent pas gérer les expressions hors vocabulaire. Dans cette thèse, nous nous intéressons à la modélisation d’expressions de longueur variable par co-occurrences et par les méthodes neuronales état de l’art. Nous étudions aussi l’apprentissage de représentation d’expressions supervisé et non-supervisé. Nous proposons deux contributions majeures. Premièrement, une nouvelle architecture appelée tree-free recursive neural network (TFRNN) pour la modélisation d’expressions indépendamment de leur longueur. En apprenant à prédire le contexte de l’expression à partir de son vecteur encodé, nous surpassons les systèmes état de l’art de synonymie monolingue en utilisant seulement le texte brut pour l’entraînement. Deuxièmement, pour la modélisation cross-lingue, nous incorporons une architecture dérivée de TF-RNN dans un modèle encodeur-décodeur avec un mécanisme de pseudo contre-traduction inspiré de travaux sur la traduction automatique neurale nonsupervisée. Notre système améliore significativement l’alignement bilingue des expressions de longueurs différentes.


            Date de soutenance : 29-01-2020
            Président du jury : Emmanuel Morin
            Jury :
            • Sebastian Pena Saldarriaga
            • Pierre Zweigenbaum (Rapporteur)
            • Laurent Besacier (Rapporteur)
            • Olivier Ferret (examinateur)

            Copyright : LS2N 2017 - Mentions Légales - 
             -