Home » Thèses

Thèses soutenues 2019



  Jad Darrous, Gestion de données efficace et à grande échelle dans les clouds distribués : Déploiement de services et traitement de données
Gestion de données efficace et à grande échelle dans les clouds distribués : Déploiement de services et traitement de données
Auteur : Jad Darrous
Manuscript :


Mots-clés : Clouds geo-distribuésSystèmes de stockage à grande échelleGestion de données
Résumé

We are living in the era of Big Data where data is generated at an unprecedented pace from various sources all over the world. These data can be transformed into meaningful information that has a direct impact on our daily life. To cope with the tremendous volumes of Big Data, large-scale infrastructures and scalable data management techniques are needed. Cloud computing has been evolving as the de-facto platform for running data-intensive applications. Meanwhile, large-scale storage systems have been emerging to store and access data in cloud data centers. They run on top of thousands of machines to offer their aggregated storage capacities, in addition to providing reliable and fast data access. The distributed nature of the infrastructures and storage systems introduces an ideal platform to support Big Data analytics frameworks such as Hadoop or Spark to efficiently run data-intensive applications. In this thesis, we focus on scalable and efficient data management for building and running data-intensive applications. We first study the management of virtual machine images and containers images as the main entry point for efficient service provisioning. Accordingly, we design, implement and evaluate Nitro, a novel VMI management system that helps to minimize the transfer time of VMIs over a heterogeneous wide area network (WAN). In addition, we present two container image placement algorithms which aim to reduce the maximum retrieval time of container images in Edge infrastructures. Second, towards efficient Big Data processing in the cloud, we investigate erasure coding (EC) as a scalable yet cost-efficient alternative for replication in data-intensive clusters. In particular, we conduct experiments to thoroughly understand the performance of data-intensive applications under replication and EC. We identify that data reads under EC are skewed and can result in noticeable performance degradation of data-intensive applications. We then introduce an EC-aware data placement algorithm that targets balancing data accesses across nodes and therefore improving the performance of data-intensive applications under EC.


Date de soutenance : 17-12-2019
Président du jury : Christian Perez
Jury :

      Maxime Mroue, Développement de réseaux radio d'objets connectés pour les Villes Intelligentes : amélioration de la Qualité de Service du réseau LoRa
    Développement de réseaux radio d'objets connectés pour les Villes Intelligentes : amélioration de la Qualité de Service du réseau LoRa
    Auteur : Maxime Mroue
    Manuscript :


    Mots-clés : Réseau étendu à faible puissanceVilles IntelligentesLoRaWANQualité de Service
    Résumé

    L'objectif de cette thèse est la mise au point de nouveaux mécanismes pour améliorer la qualité de service des réseaux LPWAN dans le contexte des Villes Intelligentes. Dans un premier temps, nous analysons l'évolution de la qualité de service en observant le taux de paquets erronés (PER) de la couche MAC de différents standards LPWAN, soumise la densification des réseaux. Dans un deuxième temps, nous nous concentrons sur la technologie LoRa et nous identifions les verrous lever, notamment le taux de paquets rejetés, les collisions entre paquets et le nombre de passerelles déployées, dans différents scénarios de densification des réseaux. Nous introduisons alors un nouveau protocole appelé LoRa+ basé sur « l'écoute avant de parler » (Listen Before Talk, LBT). Enfin, nous utilisons des outils et métriques issus du modèle « Okumura-Hata » afin d'analyser et comparer les performances de ce nouveau protocole avec LoRa au sein de plusieurs types de réseaux, et nous démontrons que LoRa+ s'avère être un choix opportun, permettant de réduire à la fois les taux de paquets rejetés et erronés ainsi que le nombre des passerelles déployées dans les réseaux.


    Date de soutenance : 03-12-2019
    Président du jury : Eduardo MOTTA CRUZ Directeur Chaire Télécommunications et Réseaux/HDR Université de Nantes
    Jury :
    • Nathalie MITTON, Directrice de Recherche Inria Lille-Nord Europe (Présidente)
    • Pascal LORENZ, Professeur Université de Haute Alsace (Rapporteur)
    • Fabrice VALOIS, Professeur INSA Lyon (Rapporteur)
    • Wilfried VINCE, Responsable Cellule Smart Territoires, SPIE CityNetworks (Invité)
    • Armel LE BLANC, Directeur du développement commercial, SPIE CityNetworks (Invité)

      Amir Messali, Contribution à l’estimation de position des machines synchrones par injection des signaux à haute fréquence : Application à la propulsion des véhicules électriques/hybrides
    Contribution à l’estimation de position des machines synchrones par injection des signaux à haute fréquence : Application à la propulsion des véhicules électriques/hybrides
    Auteur : Amir Messali
    Manuscript :


    Mots-clés : Contrôle sans capteurs mécaniquesMoteurs synchrones à aimants permanentsTechniques d’injection de signaux haute fréquenceObservateurs par modes glissants d’ordre 1 étapes par étapes et adaptatifsEv/hev
    Résumé

    Cette thèse s’inscrit dans le cadre de la chaire Renault/Centrale Nantes sur l’amélioration des performances des véhicules électriques (EV/HEV). Elle est dédiée à la problématique de l’estimation de la position/vitesse des moteurs synchrones à aimants permanents (MSAP) sans capteur mécanique, en utilisant les techniques d’injection de signaux haute fréquence (HF) sur toute la plage de vitesse des MSAP. Dans ce cadre, plusieurs contributions ont été proposées dans les parties de démodulation/traitement du signal et d’algorithmes de poursuite des techniques d’injection HF, afin d’améliorer l’estimation de la position/vitesse des MSAP par rapport aux méthodes existantes. Dans la partie démodulation/traitement du signal des techniques d’injection HF, les contributions ont consisté à proposer des solutions originales permettant de réduire les effets de filtrage dans la chaine d’estimation et de rendre cette dernière indépendante des paramètres (électriques) de la machine. Dans la partie poursuite, les contributions portent essentiellement sur l’exploitation de la fonction signe de l’erreur de position (à la place de l’erreur de position) comme information de mesure, pour estimer la position, la vitesse et l’accélération des MSAP sans capteurs mécaniques avec des observateurs par modes glissants d’ordre 1 (classiques, étapes par étapes et adaptatifs). Les contributions proposées dans les deux parties ont pour avantages d’une part, de robustifier la chaine d’estimation en la rendant indépendante des paramètres électriques et mécaniques. Et d’autre part, d’améliorer la précision et les performances de la chaine d’estimation, et par conséquent du contrôle des MSAP sans capteurs mécaniques, dans les phases transitoires et en régimes permanents avec une méthode de réglage aisée. Les méthodes d’estimation développées ont été testées en simulation et en expérimentation sur un banc d’essai de machines électriques. Les résultats obtenus ont permis de mettre en évidence les performances de ces méthodes en terme de suivi de trajectoire et de robustesse sur toute la plage de fonctionnement des MSAP sans capteurs mécaniques.


    Date de soutenance : 22-11-2019
    Président du jury : Malek Ghanes
    Jury :
    • Xuefang Lin-Shi [Président]
    • Maurice Fadel [Rapporteur]
    • Gildas Besançon [Rapporteur]
    • Philippe Martin
    • Mohamed Assaad Hamida
    • Mohamad Koteich
    • Abdelkader Bouarfa

      Konstantin Akhmadeev, Modèles probabilistes fondés sur la décomposition d'EMG pour la commande de prothèses
    Modèles probabilistes fondés sur la décomposition d'EMG pour la commande de prothèses
    Auteur : Konstantin Akhmadeev
    Manuscript :
    Equipes : REV, SIMS, ALL.


    Mots-clés : ElectromyogrammeDécomposition d'EMGPilotage de prothèse
    Résumé

    Le pilotage moderne de prothèse robotisée de bras peut être sensiblement amélioré par l'utilisation de la décomposition d'EMG. Cette technique permet d'extraire l'activité des motoneurones de la moelle épinière, une représentation directe de la commande neuronale. Cette activité, qui est insensible aux facteurs non-liés au mouvement, tels que le type ou la position d'électrode EMG, est essentielle pour le pilotage des prothèses. Cependant les méthodes de décomposition existantes ne fournissent que l'activité d'un nombre limité de motoneurones. Cette information peut être considérée insuffisante pour en inférer l'intention de l'utilisateur. Dans ce travail, nous présentons une approche probabiliste qui utilise les modèles existants de la relation entre les activités des motoneurones et le mouvement. Nous comparons cette approche à une approche plus conventionnelle et montrons qu'elle fournit de meilleurs résultats même quand elle est alimentée avec un nombre très bas de motoneurones décomposés. Pour évaluer sa performance dans un environnement contrôlé, nous avons développé un modèle physiologique de simulation d'EMG et de contraction de muscle. De plus, une analyse sur les signaux expérimentaux a été réalisée.


    Date de soutenance : 20-11-2019
    Président du jury : Yannick Aoustin
    Jury :

        Aleksandr Pirogov, Equilibrage robuste de lignes de production : modèles de programmation linéaire en variables mixtes et règles de pré-traitement
      Equilibrage robuste de lignes de production : modèles de programmation linéaire en variables mixtes et règles de pré-traitement
      Auteur : Aleksandr Pirogov
      Manuscript :
      Equipes : REV, SIMS, ALL.


      Mots-clés : Optimisation robusteLignes de productionRayon de stabilitéApproche hybrideRègles de réductionPLNE
      Résumé

      Ce travail porte sur l’optimisation robuste des lignes de production au stade de la conception. La conception de telles lignes peut être interprétée comme un problème d’optimisation consistant à rechercher une configuration optimisant des objectifs individuels et à respecter les contraintes technologiques et économiques. Nous considérons deux types de lignes de production : l’assemblage et le transfert. Le premier peut être représenté comme un ensemble de stations ordonnées linéairement où les tâches sont exécutées de manière séquentielle. Le second type de ligne est constitué de machines de transfert comprenant plusieurs têtes multibroches. Toutes les tâches d’une même tête sont exécutées simultanément, tandis que les outils d’une machine fonctionnent en mode séquentiel. Nous décrivons différentes approches permettant de modéliser l’incertitude des données dans les problèmes d’équilibrage de ligne. Notre objectif est d’identifier les approches les mieux adaptées au contexte de la conception. En particulier, l’attention se concentre sur l’approche robuste. Nous proposons un nouveau critère d’optimisation basé sur le rayon de stabilité d’une solution réalisable. Ensuite, des formulations robustes sont présentées pour la conception des lignes d’assemblage et de transfert lorsque le temps de traitement des tâches est sujet à des incertitudes. Nous développons également des méthodes heuristiques dont les résultats sont utilisés pour renforcer les modèles mathématiques. Enfin, une nouvelle méthode de résolution hybride est élaborée pour résoudre différentes variantes des problèmes de maximisation du rayon de stabilité.


      Date de soutenance : 20-11-2019
      Président du jury : Alexandre Dolgui
      Jury :
      • Marie-Laure Espinousse [Président]
      • Olga Battaïa [Rapporteur]
      • Alexis Aubry [Rapporteur]
      • Oncu Hazir
      • Mikhail I Kovalyov
      • Evgeny Gurevsky

        Giovanni Christian Lo Bianco Accou, Estimer le nombre de solutions sur les contraintes de cardinalité
      Estimer le nombre de solutions sur les contraintes de cardinalité
      Auteur : Giovanni Christian Lo Bianco Accou
      Manuscript :
      Equipes : REV, SIMS, ALL.


      Mots-clés : Programmation par contraintesDénombrementGraphes aléatoires
      Résumé

      La richesse de la programmation par contraintes repose sur la très large variété des algorithmes qu’elle utilise en puisant dans les grands domaines de l’Intelligence Artificielle, de la Programmation Logique et de la Recherche Opérationnelle. Cependant, cette richesse, qui offre aux spécialistes une palette quasi-illimitée de configurations possibles pour attaquer des problèmes combinatoires, devient une frein à la diffusion plus large du paradigme, car les outils actuels sont très loin d’une boîte noire, et leur utilisation suppose une bonne connaissance du domaine, notamment en ce qui concerne leur paramétrage. Dans cette thèse, nous proposons d’analyser le comportement des contraintes de cardinalité avec des modèles probabilistes et des outils de dénombrement, pour paramétrer automatiquement les solveurs de contraintes : heuristiques de choix de variables et de choix de valeurs et stratégies de recherche.


      Date de soutenance : 30-10-2019
      Président du jury : Xavier Lorca
      Jury :
      • Vlady Ravelomanana [Président]
      • Jean-Charles Régin [Rapporteur]
      • Willem-Jan van Hoeve [Rapporteur]
      • Nicolas Beldiceanu

        Matthieu David, Découverte de modifications chimiques portées par les protéines : identification rapide de jeux de spectres de masse sans filtre de masse
      Découverte de modifications chimiques portées par les protéines : identification rapide de jeux de spectres de masse sans filtre de masse
      Auteur : Matthieu David
      Manuscript :
      Equipes : REV, SIMS, ALL.


      Mots-clés : Bio-informatiqueProtéomiqueSpectrométrie de masseInformatiqueAlgorithmique
      Résumé

      Les protéines remplissent de nombreuses fonctions indispensables au développement et à la survie des organismes vivants. Leur étude est primordiale pour comprendre les mécanismes biologiques au sein des cellules. La technique la plus utilisée pour caractériser les protéines est la spectrométrie de masse en tandem qui produit des dizaines de milliers de spectres expérimentaux par analyse. Pour interpréter ces spectres –c’est-à-dire retrouver et caractériser les protéines présentes dans le mélange analysé– la méthode la plus courante consiste à les comparer à une banque pouvant contenir des centaines de milliers de spectres "modèles". Pour accélérer l’analyse, la majorité des approches limitent le nombre de comparaisons, limitation suspectée à l’origine de difficultés d’identification. En effet, à l’issue d’une expérience de spectrométrie de masse, 50 à 75% des spectres demeurent aujourd’hui non identifiés. Pour résoudre ces difficultés, nous avons conçu une méthode pour interpréter les spectres de masse sans filtre de la banque. Cette méthode repose sur une structure de données SpecTrees qui permet une représentation compacte du nombre de masses partagées entre chaque paire de spectres, et sur des algorithmes qui manipulent efficacement l’information contenue dans cette structure de donnée. L’ensemble constitue le logiciel SpecOMS diffusé à la communauté. Nous discutons l’usage des différents paramètres de notre méthode et la comparons à un autre algorithme performant.


      Date de soutenance : 24-10-2019
      Président du jury : Guillaume Fertin
      Jury :
      • Alain Denise [Examinateur]
      • Yves Vandenbrouck
      • Hélène Rogniaux

        Tzila Ajamian, Exploration de l’Acquisition Comprimée appliquée à la Réflectométrie
      Exploration de l’Acquisition Comprimée appliquée à la Réflectométrie
      Auteur : Tzila Ajamian
      Manuscript :
      Equipes : REV, SIMS, ALL.


      Mots-clés : Diagnostic filaireAcquisition compriméeMatrices parcimonieuses
      Résumé

      La réflectométrie, une technique utilisée en diagnostic filaire, permet la détection et la localisation de défauts des câbles. Alors que, les Convertisseurs Analogique-Numérique sont indispensables dans les architectures de la réflectométrie, la nécessité du respect de la condition de Shannon et le besoin d’effectuer des traitements en temps réel limitent les fréquences maximales des signaux injectés, ainsi la précision de localisation. Pour une première fois dans le système de diagnostic filaire, cette étude s’inscrit l’échantillonnage comprimé du signal réfléchi afin d’améliorer ces performances. Pour cela en utilisant les signaux multi-porteuses de la réflectométrie, nous proposons les dictionnaires adaptées induisant la parcimonie. Ainsi, grâce à l’acquisition comprimée et son encodeur analogique nous arrivons à reconstruire le réflectogramme avec une fréquence d’échantillonnage moins élevée et également d’identifier les défauts à proximité.


      Date de soutenance : 24-10-2019
      Président du jury : Saïd Moussaoui
      Jury :
      • Qinghua Zhang [Président]
      • Marie Chabert [Rapporteur]
      • Virginie Dégardin [Rapporteur]
      • Caroline Chaux
      • Antoine Dupret
      • Olivier Henri Roux

        Saber Laamiri, Commande des systèmes électriques : machines synchrones et convertisseurs multi-niveaux
      Commande des systèmes électriques : machines synchrones et convertisseurs multi-niveaux
      Auteur : Saber Laamiri
      Manuscript :
      Equipes : REV, SIMS, ALL.


      Mots-clés : Machine synchroneCommande en courant et en tensionConvertisseur de puissanceCommande directeObservateur adaptatifDSPFPGA
      Résumé

      Ce travail de thèse a pour objectifs l'observation et la commande des convertisseurs multi-niveaux et la commande des machines synchrones. Pour satisfaire le besoin des clients de l’entreprise GS Maintenance et pour des raisons de maintenance, une commande en courant de la machine synchrone est implémentée expérimentalement. L'accent est mis sur le démarrage de ce type de machines car durant ces phases de fonctionnement (basses vitesses), les forces électromotrices sont faibles pour assurer la commutation des thyristors de l'onduleur. Ensuite, l'entreprise a proposé à ses clients un convertisseur statique en moyenne tension afin de garder sa place dans la variation de vitesse. Dans ce cadre, une commande en tension moderne de la machine synchrone alimentée par un onduleur de tension est proposée et validée par des résultats de simulation. Compte tenu du fonctionnement en moyenne tension, les convertisseurs multi-niveaux ont été retenus par l’entreprise. Dans ce cadre, le convertisseur multicellulaire série est proposé dans ce travail et une commande directe basée sur la théorie des modes glissants et le principe de priorité est conçue pour assurer l'équilibrage des tensions flottantes du convertisseur. Cette commande a été généralisée pour un nombre quelconque de cellules du convertisseur et validée par des résultats de simulation pour un nombre de cellules égal à 7. Pour réduire le coût et l'encombrement du convertisseur, un observateur adaptatif des tensions flottantes est proposé en prenant en compte les états de commutation du convertisseur. Cet observateur est ensuite associé à la commande directe en boucle fermée. Un banc d'essai du convertisseur à 3 cellules est réalisé au sein de l’entreprise et l’ensemble « observateur + commande directe » est testé expérimentalement sur ce banc.


      Date de soutenance : 27-09-2019
      Président du jury : Malek Ghanes
      Jury :
      • Emmanuel Godoy [Président]
      • Patrick Coirault [Rapporteur]
      • Ahmed El Hajjaji [Rapporteur]
      • Antoneta Bratcu
      • Woihida Aggoune
      • Gang Zheng
      • Gaëtan Santomenna

        Thuy Linh Nguyen, Contributions à l'approvisionnement d'environnements virtualisés : la problématique des temps de démarrage des machines virtuelles et des conteneurs
      Contributions à l'approvisionnement d'environnements virtualisés : la problématique des temps de démarrage des machines virtuelles et des conteneurs
      Auteur : Thuy Linh Nguyen
      Manuscript :
      Equipes : REV, SIMS, ALL.


      Mots-clés : Informatique en nuageVirtualisation systèmeConteneursTemps de démarrage
      Résumé

      Le processus d'approvisionnement d'une machine virtuelle (VM) ou d'un conteneur est une succession de trois étapes complexes : (i) la phase d’ordonnancement qui consiste à affecter la VM / le conteneur sur un nœud de calcul ; (ii) le transfert de l'image disque associée vers ce nœud de calcul ; (iii) et l'exécution du processus de démarrage (généralement connu sous le terme « boot »). En fonction des besoins de l’application virtualisée et de l’état de la plate-forme, chacune de ces trois phases peut avoir une durée plus ou moins importante. Si de nombreux travaux se sont concentrés sur l’optimisation des deux premières étapes, la littérature couvre que partiellement les défis liés à la dernière. Cela est surprenant car des études ont montré que le temps de démarrage peut atteindre l’ordre de la minute dans certaines conditions. Durée que nous avons confirmée grâce à une étude préliminaire visant à quantifier le temps de démarrage, notamment dans des scénarios où le ratio de consolidation est élevé. Pour comprendre les principales raisons de ces durées, nous avons effectué en jusqu'à 15000 expériences au dessus de l’infrastructure Grid5000. Chacune de ces expériences a eu pour but d’étudier le processus de démarrage selon différentes conditions environnementales. Les résultats ont montré que les opérations d'entrée/sorties liées au processus de démarrage étaient les plus coûteuses. Afin d’y remédier, nous défendons dans cette thèse la conception d'un mécanisme dédié permettant de limiter le nombre d’entrées/sorties générées lors du processus de démarrage. Nous démontrons la pertinence de notre proposition en évaluant le prototype YOLO (You Only LoadOnce). Grâce à YOLO, la durée de démarrage peut être accélérée de 2 à 13 fois pour les VM et jusqu’à 2 fois pour les conteneurs. Au delà de l’aspect performance, il convient de noter que la façon dont YOLO a été conçu permet de l’appliquer à d’autres types de technologies devirtualisation / conteneurisation.


      Date de soutenance : 24-09-2019
      Président du jury : Adrien Lebre
      Jury :
      • Mario Südholt [Président]
      • Daniel Hagimont [Rapporteur]
      • María S. Pérez-Hernández [Rapporteur]
      • Ramon Nou

        Elias Amro, Simulation numérique du procédé de rivetage auto-poinçonneur et étude expérimentale : application à un assemblage multi-matériaux polymère-acier issu de l’industrie automobile
      Simulation numérique du procédé de rivetage auto-poinçonneur et étude expérimentale : application à un assemblage multi-matériaux polymère-acier issu de l’industrie automobile
      Auteur : Elias Amro
      Manuscript :
      Equipes : REV, SIMS, ALL.


      Mots-clés : Rivetage auto-poinçonneurAssemblage multi-matériauxHomogénéisationModèle élasto-plastique endommageableSimulation numérique
      Résumé

      Ces travaux de thèse portent sur la question de l'assemblage multi-matériaux polymère-acier. Dans un environnement automobile grande série, le rivetage auto-poinçonneur est le procédé d'assemblage proposé qui permet de répondre à la problématique industrielle. Dans un premier temps, la faisabilité de la technique i été étudiée en recherchant l'influence de la vitesse de rivetage et de l'effort serre-flan sur les caractéristiques géométriques du joint riveté et sur la tenue mécanique. Ainsi, il se révèle que l'augmentation de la vitesse de rivetage a un effet favorable: l'effort à la rupture en traction pure augmente de +10% en accord avec l'augmentation de l'ancrage mécanique. Par contre, l'augmentation de l'effort serre-flan a un effet défavorable : l'effort à la rupture en traction pure et en traction-cisaillement diminue de -6.6%. Par la suite, un modèle numérique 2D axisymétrique a été mis au point dans le but de simuler l'opération de rivetage. Les propriétés mécaniques effectives du matériau composite sont estimées par une méthode d'homogénéisation tandis que le comportement mécanique du matériau acier par un modèle élasto-plastique endommageable. Comparée à la coupe transversale issue d'un essai expérimental, la simulation effectuée sous Abaqus 6.10- 1® démontre être capable de correctement prédire la déformée en particulier pour la valeur d'ancrage mécanique. Enfin, un modèle numérique 30 a été développé et permet de simuler des chargements destructifs et asymétriques. L'effort à rupture et les déformées macroscopiques estimées sont en bon accord avec les résultats expérimentaux, grâce notamment à la prise en compte de l'endommagement local de la couche composite.


      Date de soutenance : 11-09-2019
      Président du jury : Afia Kouadri-Henni
      Jury :
      • Jean-Pierre Guin [Président]
      • Francis Collombet [Rapporteur]
      • Jean-Christophe Walrick
      • Thierry Renault

        Lineth Arelys Rodriguez Pellière, Investigation qualitative des facteurs qui permettent l’analyse de Big Data et la chaîne d’approvisionnement
      Investigation qualitative des facteurs qui permettent l’analyse de Big Data et la chaîne d’approvisionnement
      Auteur : Lineth Arelys Rodriguez Pellière
      Manuscript :
      Equipes : REV, SIMS, ALL.


      Mots-clés : DurabilitéAnalyse de la chaîne d'approvisionnementBig data et analyse prédictiveFacteurs
      Résumé

      Les académiques et les professionnels ont déjà montré que le Big Data et l'analyse prédictive, également connus dans la littérature sous le nom de BDPA, peuvent jouer un rôle fondamental dans la transformation et l'amélioration des fonctions de l'analyse de la chaîne d'approvisionnement durable (SSCA). Cependant, les connaissances sur la meilleure manière d'utiliser la BDPA pour augmenter simultanément les performances sociales, environnementale et financière. Par conséquent, avec les connaissances tirées de la littérature sur la SSCA, il semble que les entreprises peinent encore à mettre en oeuvre les pratiques de la SSCA. Les chercheursconviennent qu'il est encore nécessaire de comprendre les techniques, outils et facteurs des concepts de base de la SSCA pour adoption. C’est encore plus important d’intégrer BDPA en tant qu’atout stratégique dans les activités commerciales. Par conséquent, cette étude examine, par exemple, quels sont les facteurs de SSCA et quels sont les outils et techniques de BDPA qui permettent de mettre en évidence le 3BL (pour ses abréviations en anglais : "triple bottom line") des rendements de durabilité (environnementale, sociale et financière) via SCA.La thèse a adopté un constructionniste modéré, car elle comprend l’impact des facteurs Big Data sur les applications et les indicateurs de performance de la chaîne logistique analytique et durable. La thèse a également adopté un questionnaire et une étude de cas en tant que stratégie de recherche permettant de saisir les différentes perceptions des personnes et des entreprises dans l'application des mégadonnées sur la chaîne d'approvisionnement analytique et durable. La thèse a révélé une meilleure vision des facteurs pouvant influencer l'adoption du Big Data dans la chaîne d'approvisionnement analytique et durable. Cette recherche a permis de déterminer les facteurs en fonction des variables ayant une incidence sur l'adoption de BDPA pour SSCA, des outils et techniques permettant la prise de décision via SSCA et du coefficient de chaque facteur pour faciliter ou retarder l'adoption de la durabilité. Il n'a pas été étudié avant. Les résultats de la thèse suggèrent que les outils actuels utilisés par les entreprises ne peuvent pas analyser de grandes quantités de données par eux-mêmes. Les entreprises ont besoin d'outils plus appropriés pour effectuer ce travail.


      Date de soutenance : 27-08-2019
      Président du jury : Catherine Da Cunha
      Jury :
      • Philippe Depincé [Président]
      • Bernard Grabot [Rapporteur]
      • Jorge Humberto Mayorga Álvarez [Rapporteur]
      • Philippe Rauffet
      • Mihalis Giannakis

        Mohammad-Mahdi Bazm, Architecture d'isolation unifiée et mécanismes de lutte contre les canaux auxiliaires pour infrastructures cloud décentralisées
      Architecture d'isolation unifiée et mécanismes de lutte contre les canaux auxiliaires pour infrastructures cloud décentralisées
      Auteur : Mohammad-Mahdi Bazm
      Manuscript :
      Equipes : REV, SIMS, ALL.


      Mots-clés : Cloud décentralisé/FogSécuritéAttaques à canaux auxiliaires
      Résumé

      Pour la détection, nous explorons une approche combinant des compteurs de perfor- mance matériels (HPCs) et la technologie Intel CMT (Cache Monitoring Technology), s’appuyant également sur la détection d’anomalies pour identifier les machines virtuelles ou les conteneurs malveillants. Les résultats obtenus montrent un taux élevé de détection d’attaques. Pour la réaction, nous proposons une approche de Moving Target Defense (MTD) pour interrompre une attaque entre deux conteneurs Linux, ce qui permet de rendre la config- uration du système plus dynamique et plus difficilement attaquable, à différents niveaux du système et du cloud. Cette approche ne nécessite pas d’apporter de modification dans l’OS invité ou dans l’hyperviseur, avec de plus un surcoût très faible en performance.


      Date de soutenance : 08-07-2019
      Président du jury : Mario Südholt
      Jury :

          Simon Éliakim Mustaki, Outils de pré-calibration numérique des lois de commande de systèmes de systèmes : application aux aides à la conduite et au véhicule autonome
        Outils de pré-calibration numérique des lois de commande de systèmes de systèmes : application aux aides à la conduite et au véhicule autonome
        Auteur : Simon Éliakim Mustaki
        Manuscript :
        Equipes : REV, SIMS, ALL.


        Mots-clés : Commande H2/H∞Commande multi-modèleOptimisation multi-objectifContrôle latéralADAS
        Résumé

        Cette thèse est dédiée à la pré-calibration des nouveaux systèmes d’aides à la conduite (ADAS). Le développement de ces systèmes est devenu aujourd’hui un axe de recherche stratégique pour les constructeurs automobiles dans le but de proposer des véhicules plus sûrs et moins énergivores. Cette thèse contribue à une vision méthodologique multi-critère, multi-modèle et multi-scénario. Elle en propose une instanciation particulière pour la pré-calibration spécifique au Lane Centering Assistance (LCA). Elle s’appuie sur des modèles dynamiques de complexité juste nécessaire du véhicule et de son environnement pour, dans le cadre du formalisme H2/H∞, formaliser et arbitrer les compromis entre performance de suivi de voie, confort des passagers et robustesse. Les critères élaborés sont définis de manière à être d’interprétation aisée, car directement liés à la physique, et facilement calculables. Ils s’appuient sur des modèles de perturbations exogènes (e.g. courbure de la route ou rafale de vent) et de véhicules multiples mais représentatifs, de manière à réduire autant que possible le pessimisme tout en embrassant l’ensemble des situations réalistes. Des simulations et des essais sur véhicules démontrent l’intérêt de l’approche.


        Date de soutenance : 08-07-2019
        Président du jury : Philippe Chevrel
        Jury :
        • Said Mammar [Président]
        • Jamal Daafouz [Rapporteur]
        • Pierre Apkarian [Rapporteur]
        • Elena Panteley
        • Pedro Kvieska
        • François Fauvel
        • Mohamed Yagoubi

          Xinwei Chai, Analyse d’accessibilité et révision de la dynamique dans les réseaux de régulations biologiques
        Analyse d’accessibilité et révision de la dynamique dans les réseaux de régulations biologiques
        Auteur : Xinwei Chai
        Manuscript :
        Equipes : REV, SIMS, ALL.


        Mots-clés : BioinformatiqueModel checkingHeuristiqueRévision de modèles
        Résumé

        Les systèmes concurrents sont un bon choix pour ajuster les données et analyser les mécanismes sous-jacents pour leur sémantique simple mais expressive. Cependant, l’apprentissage et l’analyse de tels systèmes concurrents sont difficiles pour ce qui concerne les calculs. Lorsqu’il s’agit de grands ensembles de données, les techniques les plus récentes semblent insuffisantes, que ce soit en termes d’efficacité ou de précision. Ici, nous proposons un cadre de modélisation raffiné ABAN (Asynchronous Binary Automata Network) et développons des outils pour analyser l’atteignabilité : PermReach (Reachability via Permutation search) et ASPReach (Reachability via Answer Set Programming). Nous proposons ensuite deux méthodes de construction et d’apprentissage des modèles: CRAC (Completion via Reachability And Correlations) et M2RIT (Model Revision via Reachability and Interpretation Transitions) en utilisant des données continues et discrètes pour s’ajuster au modèle et des propriétés d’accessibilité afin de contraindre les modèles en sortie.


        Date de soutenance : 24-05-2019
        Président du jury : Olivier Roux
        Jury :
        • Béatrice Duval [Président]
        • Pascale Le Gall [Rapporteur]
        • Gilles Bernot [Rapporteur]
        • Morgan Magnin
        • Loïc Paulevé

          Yang Zhang, Conception et synthèse des systèmes mécaniques aux unités couplées
        Conception et synthèse des systèmes mécaniques aux unités couplées
        Auteur : Yang Zhang
        Manuscript :
        Equipes : ROMAS, ALL.


        Mots-clés : Conception de mécanismesRobot marcheurÉquilibrage de la gravitéExosqueletteSystème couplé
        Résumé

        Ce mémoire traite de nouveaux principes de conception qui sont inspirés par le couplage de deux unités représentant les différentes structures mécaniques. Les critères de conception optimale et les types d'unités combinées sont différents. Cependant, toutes les tâches sont considérées dans le couplage de ces unités. L'examen critique présenté dans le premier chapitre est divisé en trois sections en raison de la nature des problèmes traités: les robots marcheurs, les compensateurs de gravité et les robots collaboratifs. Le deuxième chapitre traite du développement de robots marcheurs à actionneur unique, conçus par couplage de deux mécanismes ayant les fonctionnants de jambe. Basée sur l'algorithme génétique, la synthèse proposée permet d'assurer la reproduction de la trajectoire obtenue à partir de la marche humaine. Par l'ajustement des paramètres géométriques des unités conçues, il devient possible non seulement d'assurer une marche du robot à des pas variables, mais également de monter les escaliers. Ensuite la conception et la synthèse des équilibreurs pour les robots sont considérés. Un costume robotisé type exosquelette permettant d'aider aux personnes transportant des charges lourdes est examiné dans le chapitre suivant La conception proposée présente une symbiose d'un support rigide et léger et d'un système de câbles monté sur ce support. L'étude et l'optimisation statique et dynamique ont conduit aux tests sur un mannequin. Le dernier chapitre propose l'étude et 'optimisation d'un système couplé, comprenant un manipulateur équilibré à commande manuelle et un robot collaboratif. Le but d'une telle coopération est de manipuler de lourdes charges avec un cobot.


        Date de soutenance : 19-04-2019
        Président du jury : Vigen Arakelyan
        Jury :
        • Philippe Wenger [Président]
        • Fethi Ben Ouezdou [Rapporteur]
        • Emmanuel Delaleau [Rapporteur]
        • Michel Coste
        • Yannick Aoustin
        • Natalie Smith-Guerin

          Luis Federico Contreras Samamé, SLAM collaboratif dans des environnements extérieurs
        SLAM collaboratif dans des environnements extérieurs
        Auteur : Luis Federico Contreras Samamé
        Manuscript :
        Equipes : ROMAS, ALL.


        Mots-clés : Cartographie 3DSLAM collaboratifLiDARNuage de pointsRobotique mobile
        Résumé

        Cette thèse propose des modèles cartographiques à grande échelle d'environnements urbains et ruraux à l'aide de données en 3D acquises par plusieurs robots. La mémoire contribue de deux manières principales au domaine de recherche de la cartographie. La première contribution est la création d'une nouvelle structure, CoMapping, qui permet de générer des cartes 3D de façon collaborative. Cette structure s’applique aux environnements extérieurs en ayant une approche décentralisée. La fonctionnalité de CoMapping comprend les éléments suivants : Tout d’abord, chaque robot réalise la construction d'une carte de son environnement sous forme de nuage de points.Pour cela, le système de cartographie a été mis en place sur des ordinateurs dédiés à chaque voiture, en traitant les mesures de distance à partir d'un LiDAR 3D se déplaçant en six degrés de liberté (6-DOF). Ensuite, les robots partagent leurs cartes locales et fusionnent individuellement les nuages de points afin d'améliorer leur estimation de leur cartographie locale. La deuxième contribution clé est le groupe de métriques qui permettent d'analyser les processus de fusion et de partage de cartes entre les robots. Nous présentons des résultats expérimentaux en vue de valider la structure CoMapping et ses métriques. Tous les tests ont été réalisés dans des environnements extérieurs urbains du campus de l’École Centrale de Nantes ainsi que dans des milieux ruraux.


        Date de soutenance : 10-04-2019
        Président du jury : Philippe Martinet
        Jury :
        • Vincent Frémont [Président]
        • Véronique Berge-Cherfaoui [Rapporteur]
        • Ouiddad Labbani-Igbida [Rapporteur]
        • Rémi Boutteau
        • Olivier Kermorgant

          Chaouki Nacer Boultifat, Contrôle acoustique actif du bruit dans une cavité fermée
        Contrôle acoustique actif du bruit dans une cavité fermée
        Auteur : Chaouki Nacer Boultifat
        Manuscript :
        Equipes : ROMAS, ALL.


        Mots-clés : Contrôle actif du bruitEquation des ondesCommande robusteCommande adaptativeRéduction de modèle
        Résumé

        Cette thèse porte sur le contrôle acoustique actif (ANC) dans une cavité. L’objectif est d’atténuer l’effet d’une onde sonore perturbatrice en des points ou dans un volume. Ceci est réalisé à l’aide d’un contre-bruit généré, par exemple, par un haut-parleur. Cette étude requiert l’utilisation de modèles dynamiques rendant compte de l’évolution des pressions aux points d’intérêt en fonction des bruits exogènes. Ce modèle peut être obtenu par une identification fréquentielle des réponses point-à-point ou en utilisant le modèle physique sous jacent (équation des ondes). Dans ce dernier cas, la recherche d'un modèle de dimension finie est souvent un préalable à l’étude conceptuelle d'un système d’ANC. Les contributions de cette thèse portent donc sur l’élaboration de différents modèles simplifiés paramétrés par la position pour les systèmes acoustiques et sur la conception de lois de commande pour l’ANC. Le premier volet de la thèse est dédié à l’élaboration de différents modèles simplifiés de système de propagation acoustique au sein d’une cavité. Pour cela, les simplifications envisagées peuvent être de nature spatiale autant que fréquentielle. Nous montrons notamment qu'il est possible, sous certaines conditions, d’approximer le système 3D par un système 1D. Ceci a été mis en évidence expérimentalement sur le banc d’essai LS2NBox. Le second volet porte sur la conception de lois de commande. En premier lieu, les stratégies de commandes couramment utilisées pour l’ANC sont comparées. L'effet dela commande multi-objectif H en différents points voisins des points d'atténuation est analysé. La possibilité d’une annulation parfaitedu bruit en un point est aussi discutée.


        Date de soutenance : 27-03-2019
        Président du jury : Philippe Chevrel
        Jury :
        • Bruno Gazengel [Président]
        • Daniel Alazard [Rapporteur]
        • Xavier Moreau [Rapporteur]
        • Michel Malabre
        • Delphine Bresch-Pietri
        • Jérôme Lohéac
        • Mohamed Yagoubi

          Tianyi Yu, Décomposition en temps réel de signaux iEMG : filtrage bayésien implémenté sur GPU
        Décomposition en temps réel de signaux iEMG : filtrage bayésien implémenté sur GPU
        Auteur : Tianyi Yu
        Manuscript :
        Equipes : ROMAS, ALL.


        Mots-clés : Markov modèle cachéFiltrage bayésienCalcul parallèleDécomposition en temps réel
        Résumé

        Un algorithme de décomposition des unités motrices constituant un signal électromyographiques intramusculaires (iEMG) a été proposé au laboratoire LS2N. Il s'agit d'un filtrage bayésien estimant l'état d'un modèle de Markov caché. Cet algorithme demande beaucoup de temps d'execution, même pour un signal ne contenant que 4 unités motrices. Dans notre travail, nous avons d'abord validé cet algorithme dans une structure série. Nous avons proposé quelques modifications pour le modèle de recrutement des unités motrices et implémenté deux techniques de pré-traitement pour améliorer la performance de l'algorithme. Le banc de filtres de Kalman a été remplacé par un banc de filtre LMS. Le filtre global consiste en l'examen de divers scénarios arborescents d'activation des unités motrices: on a introduit deux techniques heuristiques pour élaguer les divers scénarios. On a réalisé l'implémentation GPU de cet algorithme à structure parallèle intrinsèque. On a réussi la décomposition de 10 signaux expérimentaux enregistrés sur deux muscules, respectivement avec électrode aiguille et électrode filaire. Le nombre d'unités motrices est de 2 à 8. Le pourcentage de superposition des potentiels d'unité motrice, qui représente la complexité de signal, varie de 6.56 % à 28.84 %. La précision de décomposition de tous les signaux sont plus que 90 %, sauf deux signaux en 30 % MVC , sauf pour deux signaux qui sont à 30 % MVC et dont la précision de décomposition est supérieure à 85%. Nous sommes les premiers à réaliser la décomposition en temps réel pour un signal constitué de 10 unités motrices.


        Date de soutenance : 28-01-2019
        Président du jury : Yannick Aoustin
        Jury :
        • Zohra Cherfi-Boulanger [Président]
        • Philippe Ravier [Rapporteur]
        • Fabien Campillo [Rapporteur]
        • Dario Farina
        • Éric Le Carpentier

        Copyright : LS2N 2017 - Mentions Légales - 
         -