Home » Thèses

Thèses soutenues 2019



  Konstantin Akhmadeev, Modèles probabilistes fondés sur la décomposition d'EMG pour la commande de prothèses
Modèles probabilistes fondés sur la décomposition d'EMG pour la commande de prothèses
Auteur : Konstantin Akhmadeev
Manuscript :
Equipes : REV, SIMS.


Mots-clés : ElectromyogrammeDécomposition d'EMGPilotage de prothèse
Résumé

Le pilotage moderne de prothèse robotisée de bras peut être sensiblement amélioré par l'utilisation de la décomposition d'EMG. Cette technique permet d'extraire l'activité des motoneurones de la moelle épinière, une représentation directe de la commande neuronale. Cette activité, qui est insensible aux facteurs non-liés au mouvement, tels que le type ou la position d'électrode EMG, est essentielle pour le pilotage des prothèses. Cependant les méthodes de décomposition existantes ne fournissent que l'activité d'un nombre limité de motoneurones. Cette information peut être considérée insuffisante pour en inférer l'intention de l'utilisateur. Dans ce travail, nous présentons une approche probabiliste qui utilise les modèles existants de la relation entre les activités des motoneurones et le mouvement. Nous comparons cette approche à une approche plus conventionnelle et montrons qu'elle fournit de meilleurs résultats même quand elle est alimentée avec un nombre très bas de motoneurones décomposés. Pour évaluer sa performance dans un environnement contrôlé, nous avons développé un modèle physiologique de simulation d'EMG et de contraction de muscle. De plus, une analyse sur les signaux expérimentaux a été réalisée.


Date de soutenance : 20-11-2019
Président du jury : Yannick Aoustin
Jury :

      Aleksandr Pirogov, Equilibrage robuste de lignes de production : modèles de programmation linéaire en variables mixtes et règles de pré-traitement
    Equilibrage robuste de lignes de production : modèles de programmation linéaire en variables mixtes et règles de pré-traitement
    Auteur : Aleksandr Pirogov
    Manuscript :
    Equipes : REV, SIMS.


    Mots-clés : Optimisation robusteLignes de productionRayon de stabilitéApproche hybrideRègles de réductionPLNE
    Résumé

    Ce travail porte sur l’optimisation robuste des lignes de production au stade de la conception. La conception de telles lignes peut être interprétée comme un problème d’optimisation consistant à rechercher une configuration optimisant des objectifs individuels et à respecter les contraintes technologiques et économiques. Nous considérons deux types de lignes de production : l’assemblage et le transfert. Le premier peut être représenté comme un ensemble de stations ordonnées linéairement où les tâches sont exécutées de manière séquentielle. Le second type de ligne est constitué de machines de transfert comprenant plusieurs têtes multibroches. Toutes les tâches d’une même tête sont exécutées simultanément, tandis que les outils d’une machine fonctionnent en mode séquentiel. Nous décrivons différentes approches permettant de modéliser l’incertitude des données dans les problèmes d’équilibrage de ligne. Notre objectif est d’identifier les approches les mieux adaptées au contexte de la conception. En particulier, l’attention se concentre sur l’approche robuste. Nous proposons un nouveau critère d’optimisation basé sur le rayon de stabilité d’une solution réalisable. Ensuite, des formulations robustes sont présentées pour la conception des lignes d’assemblage et de transfert lorsque le temps de traitement des tâches est sujet à des incertitudes. Nous développons également des méthodes heuristiques dont les résultats sont utilisés pour renforcer les modèles mathématiques. Enfin, une nouvelle méthode de résolution hybride est élaborée pour résoudre différentes variantes des problèmes de maximisation du rayon de stabilité.


    Date de soutenance : 20-11-2019
    Président du jury : Alexandre Dolgui
    Jury :
    • Marie-Laure Espinousse [Président]
    • Olga Battaïa [Rapporteur]
    • Alexis Aubry [Rapporteur]
    • Oncu Hazir
    • Mikhail I Kovalyov
    • Evgeny Gurevsky

      Giovanni Christian Lo Bianco Accou, Estimer le nombre de solutions sur les contraintes de cardinalité
    Estimer le nombre de solutions sur les contraintes de cardinalité
    Auteur : Giovanni Christian Lo Bianco Accou
    Manuscript :
    Equipes : REV, SIMS.


    Mots-clés : Programmation par contraintesDénombrementGraphes aléatoires
    Résumé

    La richesse de la programmation par contraintes repose sur la très large variété des algorithmes qu’elle utilise en puisant dans les grands domaines de l’Intelligence Artificielle, de la Programmation Logique et de la Recherche Opérationnelle. Cependant, cette richesse, qui offre aux spécialistes une palette quasi-illimitée de configurations possibles pour attaquer des problèmes combinatoires, devient une frein à la diffusion plus large du paradigme, car les outils actuels sont très loin d’une boîte noire, et leur utilisation suppose une bonne connaissance du domaine, notamment en ce qui concerne leur paramétrage. Dans cette thèse, nous proposons d’analyser le comportement des contraintes de cardinalité avec des modèles probabilistes et des outils de dénombrement, pour paramétrer automatiquement les solveurs de contraintes : heuristiques de choix de variables et de choix de valeurs et stratégies de recherche.


    Date de soutenance : 30-10-2019
    Président du jury : Xavier Lorca
    Jury :
    • Vlady Ravelomanana [Président]
    • Jean-Charles Régin [Rapporteur]
    • Willem-Jan van Hoeve [Rapporteur]
    • Nicolas Beldiceanu

      Thuy Linh Nguyen, Contributions à l'approvisionnement d'environnements virtualisés : la problématique des temps de démarrage des machines virtuelles et des conteneurs
    Contributions à l'approvisionnement d'environnements virtualisés : la problématique des temps de démarrage des machines virtuelles et des conteneurs
    Auteur : Thuy Linh Nguyen
    Manuscript :
    Equipes : REV, SIMS.


    Mots-clés : Informatique en nuageVirtualisation systèmeConteneursTemps de démarrage
    Résumé

    Le processus d'approvisionnement d'une machine virtuelle (VM) ou d'un conteneur est une succession de trois étapes complexes : (i) la phase d’ordonnancement qui consiste à affecter la VM / le conteneur sur un nœud de calcul ; (ii) le transfert de l'image disque associée vers ce nœud de calcul ; (iii) et l'exécution du processus de démarrage (généralement connu sous le terme « boot »). En fonction des besoins de l’application virtualisée et de l’état de la plate-forme, chacune de ces trois phases peut avoir une durée plus ou moins importante. Si de nombreux travaux se sont concentrés sur l’optimisation des deux premières étapes, la littérature couvre que partiellement les défis liés à la dernière. Cela est surprenant car des études ont montré que le temps de démarrage peut atteindre l’ordre de la minute dans certaines conditions. Durée que nous avons confirmée grâce à une étude préliminaire visant à quantifier le temps de démarrage, notamment dans des scénarios où le ratio de consolidation est élevé. Pour comprendre les principales raisons de ces durées, nous avons effectué en jusqu'à 15000 expériences au dessus de l’infrastructure Grid5000. Chacune de ces expériences a eu pour but d’étudier le processus de démarrage selon différentes conditions environnementales. Les résultats ont montré que les opérations d'entrée/sorties liées au processus de démarrage étaient les plus coûteuses. Afin d’y remédier, nous défendons dans cette thèse la conception d'un mécanisme dédié permettant de limiter le nombre d’entrées/sorties générées lors du processus de démarrage. Nous démontrons la pertinence de notre proposition en évaluant le prototype YOLO (You Only LoadOnce). Grâce à YOLO, la durée de démarrage peut être accélérée de 2 à 13 fois pour les VM et jusqu’à 2 fois pour les conteneurs. Au delà de l’aspect performance, il convient de noter que la façon dont YOLO a été conçu permet de l’appliquer à d’autres types de technologies devirtualisation / conteneurisation.


    Date de soutenance : 24-09-2019
    Président du jury : Adrien Lebre
    Jury :
    • Mario Südholt [Président]
    • Daniel Hagimont [Rapporteur]
    • María S. Pérez-Hernández [Rapporteur]
    • Ramon Nou

      Elias Amro, Simulation numérique du procédé de rivetage auto-poinçonneur et étude expérimentale : application à un assemblage multi-matériaux polymère-acier issu de l’industrie automobile
    Simulation numérique du procédé de rivetage auto-poinçonneur et étude expérimentale : application à un assemblage multi-matériaux polymère-acier issu de l’industrie automobile
    Auteur : Elias Amro
    Manuscript :
    Equipes : REV, SIMS.


    Mots-clés : Simulation numériqueHomogénéisationModèle élasto-plastique endommageableAssemblage multi-matériauxRivetage auto-poinçonneur
    Résumé

    Ces travaux de thèse portent sur la question de l'assemblage multi-matériaux polymère-acier. Dans un environnement automobile grande série, le rivetage auto-poinçonneur est le procédé d'assemblage proposé qui permet de répondre à la problématique industrielle. Dans un premier temps, la faisabilité de la technique i été étudiée en recherchant l'influence de la vitesse de rivetage et de l'effort serre-flan sur les caractéristiques géométriques du joint riveté et sur la tenue mécanique. Ainsi, il se révèle que l'augmentation de la vitesse de rivetage a un effet favorable: l'effort à la rupture en traction pure augmente de +10% en accord avec l'augmentation de l'ancrage mécanique. Par contre, l'augmentation de l'effort serre-flan a un effet défavorable : l'effort à la rupture en traction pure et en traction-cisaillement diminue de -6.6%. Par la suite, un modèle numérique 2D axisymétrique a été mis au point dans le but de simuler l'opération de rivetage. Les propriétés mécaniques effectives du matériau composite sont estimées par une méthode d'homogénéisation tandis que le comportement mécanique du matériau acier par un modèle élasto-plastique endommageable. Comparée à la coupe transversale issue d'un essai expérimental, la simulation effectuée sous Abaqus 6.10- 1® démontre être capable de correctement prédire la déformée en particulier pour la valeur d'ancrage mécanique. Enfin, un modèle numérique 30 a été développé et permet de simuler des chargements destructifs et asymétriques. L'effort à rupture et les déformées macroscopiques estimées sont en bon accord avec les résultats expérimentaux, grâce notamment à la prise en compte de l'endommagement local de la couche composite.


    Date de soutenance : 11-09-2019
    Président du jury : Afia Kouadri-Henni
    Jury :
    • Jean-Pierre Guin [Président]
    • Francis Collombet [Rapporteur]
    • Abdelkhalak El Hami [Rapporteur]
    • Benoît Furet
    • Jean-Christophe Walrick
    • Thierry Renault

      Lineth Arelys Rodriguez Pellière, Investigation qualitative des facteurs qui permettent l’analyse de Big Data et la chaîne d’approvisionnement
    Investigation qualitative des facteurs qui permettent l’analyse de Big Data et la chaîne d’approvisionnement
    Auteur : Lineth Arelys Rodriguez Pellière
    Manuscript :
    Equipes : REV, SIMS.


    Mots-clés : DurabilitéAnalyse de la chaîne d'approvisionnementBig data et analyse prédictiveFacteurs
    Résumé

    Les académiques et les professionnels ont déjà montré que le Big Data et l'analyse prédictive, également connus dans la littérature sous le nom de BDPA, peuvent jouer un rôle fondamental dans la transformation et l'amélioration des fonctions de l'analyse de la chaîne d'approvisionnement durable (SSCA). Cependant, les connaissances sur la meilleure manière d'utiliser la BDPA pour augmenter simultanément les performances sociales, environnementale et financière. Par conséquent, avec les connaissances tirées de la littérature sur la SSCA, il semble que les entreprises peinent encore à mettre en oeuvre les pratiques de la SSCA. Les chercheursconviennent qu'il est encore nécessaire de comprendre les techniques, outils et facteurs des concepts de base de la SSCA pour adoption. C’est encore plus important d’intégrer BDPA en tant qu’atout stratégique dans les activités commerciales. Par conséquent, cette étude examine, par exemple, quels sont les facteurs de SSCA et quels sont les outils et techniques de BDPA qui permettent de mettre en évidence le 3BL (pour ses abréviations en anglais : "triple bottom line") des rendements de durabilité (environnementale, sociale et financière) via SCA.La thèse a adopté un constructionniste modéré, car elle comprend l’impact des facteurs Big Data sur les applications et les indicateurs de performance de la chaîne logistique analytique et durable. La thèse a également adopté un questionnaire et une étude de cas en tant que stratégie de recherche permettant de saisir les différentes perceptions des personnes et des entreprises dans l'application des mégadonnées sur la chaîne d'approvisionnement analytique et durable. La thèse a révélé une meilleure vision des facteurs pouvant influencer l'adoption du Big Data dans la chaîne d'approvisionnement analytique et durable. Cette recherche a permis de déterminer les facteurs en fonction des variables ayant une incidence sur l'adoption de BDPA pour SSCA, des outils et techniques permettant la prise de décision via SSCA et du coefficient de chaque facteur pour faciliter ou retarder l'adoption de la durabilité. Il n'a pas été étudié avant. Les résultats de la thèse suggèrent que les outils actuels utilisés par les entreprises ne peuvent pas analyser de grandes quantités de données par eux-mêmes. Les entreprises ont besoin d'outils plus appropriés pour effectuer ce travail.


    Date de soutenance : 27-08-2019
    Président du jury : Catherine Da Cunha
    Jury :
    • Philippe Depincé [Président]
    • Bernard Grabot [Rapporteur]
    • Jorge Humberto Mayorga Álvarez [Rapporteur]
    • Philippe Rauffet
    • Mihalis Giannakis

      Simon Éliakim Mustaki, Outils de pré-calibration numérique des lois de commande de systèmes de systèmes : application aux aides à la conduite et au véhicule autonome
    Outils de pré-calibration numérique des lois de commande de systèmes de systèmes : application aux aides à la conduite et au véhicule autonome
    Auteur : Simon Éliakim Mustaki
    Manuscript :
    Equipes : REV, SIMS.


    Mots-clés : Commande H2/H∞Commande multi-modèleOptimisation multi-objectifContrôle latéralADAS
    Résumé

    Cette thèse est dédiée à la pré-calibration des nouveaux systèmes d’aides à la conduite (ADAS). Le développement de ces systèmes est devenu aujourd’hui un axe de recherche stratégique pour les constructeurs automobiles dans le but de proposer des véhicules plus sûrs et moins énergivores. Cette thèse contribue à une vision méthodologique multi-critère, multi-modèle et multi-scénario. Elle en propose une instanciation particulière pour la pré-calibration spécifique au Lane Centering Assistance (LCA). Elle s’appuie sur des modèles dynamiques de complexité juste nécessaire du véhicule et de son environnement pour, dans le cadre du formalisme H2/H∞, formaliser et arbitrer les compromis entre performance de suivi de voie, confort des passagers et robustesse. Les critères élaborés sont définis de manière à être d’interprétation aisée, car directement liés à la physique, et facilement calculables. Ils s’appuient sur des modèles de perturbations exogènes (e.g. courbure de la route ou rafale de vent) et de véhicules multiples mais représentatifs, de manière à réduire autant que possible le pessimisme tout en embrassant l’ensemble des situations réalistes. Des simulations et des essais sur véhicules démontrent l’intérêt de l’approche.


    Date de soutenance : 08-07-2019
    Président du jury : Philippe Chevrel
    Jury :
    • Said Mammar [Président]
    • Jamal Daafouz [Rapporteur]
    • Pierre Apkarian [Rapporteur]
    • Elena Panteley
    • Pedro Kvieska
    • François Fauvel
    • Mohamed Yagoubi

      Mohammad-Mahdi Bazm, Architecture d'isolation unifiée et mécanismes de lutte contre les canaux auxiliaires pour infrastructures cloud décentralisées
    Architecture d'isolation unifiée et mécanismes de lutte contre les canaux auxiliaires pour infrastructures cloud décentralisées
    Auteur : Mohammad-Mahdi Bazm
    Manuscript :
    Equipes : REV, SIMS.


    Mots-clés : Cloud décentralisé/FogSécuritéAttaques à canaux auxiliaires
    Résumé

    Pour la détection, nous explorons une approche combinant des compteurs de perfor- mance matériels (HPCs) et la technologie Intel CMT (Cache Monitoring Technology), s’appuyant également sur la détection d’anomalies pour identifier les machines virtuelles ou les conteneurs malveillants. Les résultats obtenus montrent un taux élevé de détection d’attaques. Pour la réaction, nous proposons une approche de Moving Target Defense (MTD) pour interrompre une attaque entre deux conteneurs Linux, ce qui permet de rendre la config- uration du système plus dynamique et plus difficilement attaquable, à différents niveaux du système et du cloud. Cette approche ne nécessite pas d’apporter de modification dans l’OS invité ou dans l’hyperviseur, avec de plus un surcoût très faible en performance.


    Date de soutenance : 08-07-2019
    Président du jury : Mario Südholt
    Jury :

        Xinwei Chai, Analyse d’accessibilité et révision de la dynamique dans les réseaux de régulations biologiques
      Analyse d’accessibilité et révision de la dynamique dans les réseaux de régulations biologiques
      Auteur : Xinwei Chai
      Manuscript :
      Equipes : REV, SIMS.


      Mots-clés : BioinformatiqueModel checkingHeuristiqueRévision de modèles
      Résumé

      Les systèmes concurrents sont un bon choix pour ajuster les données et analyser les mécanismes sous-jacents pour leur sémantique simple mais expressive. Cependant, l’apprentissage et l’analyse de tels systèmes concurrents sont difficiles pour ce qui concerne les calculs. Lorsqu’il s’agit de grands ensembles de données, les techniques les plus récentes semblent insuffisantes, que ce soit en termes d’efficacité ou de précision. Ici, nous proposons un cadre de modélisation raffiné ABAN (Asynchronous Binary Automata Network) et développons des outils pour analyser l’atteignabilité : PermReach (Reachability via Permutation search) et ASPReach (Reachability via Answer Set Programming). Nous proposons ensuite deux méthodes de construction et d’apprentissage des modèles: CRAC (Completion via Reachability And Correlations) et M2RIT (Model Revision via Reachability and Interpretation Transitions) en utilisant des données continues et discrètes pour s’ajuster au modèle et des propriétés d’accessibilité afin de contraindre les modèles en sortie.


      Date de soutenance : 24-05-2019
      Président du jury : Olivier Roux
      Jury :
      • Béatrice Duval [Président]
      • Pascale Le Gall [Rapporteur]
      • Gilles Bernot [Rapporteur]
      • Morgan Magnin
      • Loïc Paulevé

        Yang Zhang, Conception et synthèse des systèmes mécaniques aux unités couplées
      Conception et synthèse des systèmes mécaniques aux unités couplées
      Auteur : Yang Zhang
      Manuscript :
      Equipe : ROMAS.


      Mots-clés : Conception de mécanismesRobot marcheurÉquilibrage de la gravitéExosqueletteSystème couplé
      Résumé

      Ce mémoire traite de nouveaux principes de conception qui sont inspirés par le couplage de deux unités représentant les différentes structures mécaniques. Les critères de conception optimale et les types d'unités combinées sont différents. Cependant, toutes les tâches sont considérées dans le couplage de ces unités. L'examen critique présenté dans le premier chapitre est divisé en trois sections en raison de la nature des problèmes traités: les robots marcheurs, les compensateurs de gravité et les robots collaboratifs. Le deuxième chapitre traite du développement de robots marcheurs à actionneur unique, conçus par couplage de deux mécanismes ayant les fonctionnants de jambe. Basée sur l'algorithme génétique, la synthèse proposée permet d'assurer la reproduction de la trajectoire obtenue à partir de la marche humaine. Par l'ajustement des paramètres géométriques des unités conçues, il devient possible non seulement d'assurer une marche du robot à des pas variables, mais également de monter les escaliers. Ensuite la conception et la synthèse des équilibreurs pour les robots sont considérés. Un costume robotisé type exosquelette permettant d'aider aux personnes transportant des charges lourdes est examiné dans le chapitre suivant La conception proposée présente une symbiose d'un support rigide et léger et d'un système de câbles monté sur ce support. L'étude et l'optimisation statique et dynamique ont conduit aux tests sur un mannequin. Le dernier chapitre propose l'étude et 'optimisation d'un système couplé, comprenant un manipulateur équilibré à commande manuelle et un robot collaboratif. Le but d'une telle coopération est de manipuler de lourdes charges avec un cobot.


      Date de soutenance : 19-04-2019
      Président du jury : Vigen Arakelyan
      Jury :
      • Philippe Wenger [Président]
      • Fethi Ben Ouezdou [Rapporteur]
      • Emmanuel Delaleau [Rapporteur]
      • Michel Coste
      • Yannick Aoustin
      • Natalie Smith-Guerin

        Luis Federico Contreras Samamé, SLAM collaboratif dans des environnements extérieurs
      SLAM collaboratif dans des environnements extérieurs
      Auteur : Luis Federico Contreras Samamé
      Manuscript :
      Equipe : ROMAS.


      Mots-clés : Cartographie 3DSLAM collaboratifLiDARNuage de pointsRobotique mobile
      Résumé

      Cette thèse propose des modèles cartographiques à grande échelle d'environnements urbains et ruraux à l'aide de données en 3D acquises par plusieurs robots. La mémoire contribue de deux manières principales au domaine de recherche de la cartographie. La première contribution est la création d'une nouvelle structure, CoMapping, qui permet de générer des cartes 3D de façon collaborative. Cette structure s’applique aux environnements extérieurs en ayant une approche décentralisée. La fonctionnalité de CoMapping comprend les éléments suivants : Tout d’abord, chaque robot réalise la construction d'une carte de son environnement sous forme de nuage de points.Pour cela, le système de cartographie a été mis en place sur des ordinateurs dédiés à chaque voiture, en traitant les mesures de distance à partir d'un LiDAR 3D se déplaçant en six degrés de liberté (6-DOF). Ensuite, les robots partagent leurs cartes locales et fusionnent individuellement les nuages de points afin d'améliorer leur estimation de leur cartographie locale. La deuxième contribution clé est le groupe de métriques qui permettent d'analyser les processus de fusion et de partage de cartes entre les robots. Nous présentons des résultats expérimentaux en vue de valider la structure CoMapping et ses métriques. Tous les tests ont été réalisés dans des environnements extérieurs urbains du campus de l’École Centrale de Nantes ainsi que dans des milieux ruraux.


      Date de soutenance : 10-04-2019
      Président du jury : Philippe Martinet
      Jury :
      • Vincent Frémont [Président]
      • Véronique Berge-Cherfaoui [Rapporteur]
      • Ouiddad Labbani-Igbida [Rapporteur]
      • Rémi Boutteau
      • Olivier Kermorgant

        Chaouki Nacer Boultifat, Contrôle acoustique actif du bruit dans une cavité fermée
      Contrôle acoustique actif du bruit dans une cavité fermée
      Auteur : Chaouki Nacer Boultifat
      Manuscript :
      Equipe : ROMAS.


      Mots-clés : Contrôle actif du bruitEquation des ondesCommande robusteCommande adaptativeRéduction de modèle
      Résumé

      Cette thèse porte sur le contrôle acoustique actif (ANC) dans une cavité. L’objectif est d’atténuer l’effet d’une onde sonore perturbatrice en des points ou dans un volume. Ceci est réalisé à l’aide d’un contre-bruit généré, par exemple, par un haut-parleur. Cette étude requiert l’utilisation de modèles dynamiques rendant compte de l’évolution des pressions aux points d’intérêt en fonction des bruits exogènes. Ce modèle peut être obtenu par une identification fréquentielle des réponses point-à-point ou en utilisant le modèle physique sous jacent (équation des ondes). Dans ce dernier cas, la recherche d'un modèle de dimension finie est souvent un préalable à l’étude conceptuelle d'un système d’ANC. Les contributions de cette thèse portent donc sur l’élaboration de différents modèles simplifiés paramétrés par la position pour les systèmes acoustiques et sur la conception de lois de commande pour l’ANC. Le premier volet de la thèse est dédié à l’élaboration de différents modèles simplifiés de système de propagation acoustique au sein d’une cavité. Pour cela, les simplifications envisagées peuvent être de nature spatiale autant que fréquentielle. Nous montrons notamment qu'il est possible, sous certaines conditions, d’approximer le système 3D par un système 1D. Ceci a été mis en évidence expérimentalement sur le banc d’essai LS2NBox. Le second volet porte sur la conception de lois de commande. En premier lieu, les stratégies de commandes couramment utilisées pour l’ANC sont comparées. L'effet dela commande multi-objectif H en différents points voisins des points d'atténuation est analysé. La possibilité d’une annulation parfaitedu bruit en un point est aussi discutée.


      Date de soutenance : 27-03-2019
      Président du jury : Philippe Chevrel
      Jury :
      • Bruno Gazengel [Président]
      • Daniel Alazard [Rapporteur]
      • Xavier Moreau [Rapporteur]
      • Michel Malabre
      • Delphine Bresch-Pietri
      • Jérôme Lohéac
      • Mohamed Yagoubi

        Tianyi Yu, Décomposition en temps réel de signaux iEMG : filtrage bayésien implémenté sur GPU
      Décomposition en temps réel de signaux iEMG : filtrage bayésien implémenté sur GPU
      Auteur : Tianyi Yu
      Manuscript :
      Equipe : ROMAS.


      Mots-clés : Markov modèle cachéFiltrage bayésienCalcul parallèleDécomposition en temps réel
      Résumé

      Un algorithme de décomposition des unités motrices constituant un signal électromyographiques intramusculaires (iEMG) a été proposé au laboratoire LS2N. Il s'agit d'un filtrage bayésien estimant l'état d'un modèle de Markov caché. Cet algorithme demande beaucoup de temps d'execution, même pour un signal ne contenant que 4 unités motrices. Dans notre travail, nous avons d'abord validé cet algorithme dans une structure série. Nous avons proposé quelques modifications pour le modèle de recrutement des unités motrices et implémenté deux techniques de pré-traitement pour améliorer la performance de l'algorithme. Le banc de filtres de Kalman a été remplacé par un banc de filtre LMS. Le filtre global consiste en l'examen de divers scénarios arborescents d'activation des unités motrices: on a introduit deux techniques heuristiques pour élaguer les divers scénarios. On a réalisé l'implémentation GPU de cet algorithme à structure parallèle intrinsèque. On a réussi la décomposition de 10 signaux expérimentaux enregistrés sur deux muscules, respectivement avec électrode aiguille et électrode filaire. Le nombre d'unités motrices est de 2 à 8. Le pourcentage de superposition des potentiels d'unité motrice, qui représente la complexité de signal, varie de 6.56 % à 28.84 %. La précision de décomposition de tous les signaux sont plus que 90 %, sauf deux signaux en 30 % MVC , sauf pour deux signaux qui sont à 30 % MVC et dont la précision de décomposition est supérieure à 85%. Nous sommes les premiers à réaliser la décomposition en temps réel pour un signal constitué de 10 unités motrices.


      Date de soutenance : 28-01-2019
      Président du jury : Yannick Aoustin
      Jury :
      • Zohra Cherfi-Boulanger [Président]
      • Philippe Ravier [Rapporteur]
      • Fabien Campillo [Rapporteur]
      • Dario Farina
      • Éric Le Carpentier

      Copyright : LS2N 2017 - Mentions Légales - 
       -