Home » Thèses

Thèses soutenues 2019



  Gaëtan Gilbert, Une théorie des types avec insignifiance des preuves définitionnelle
Une théorie des types avec insignifiance des preuves définitionnelle
Auteur : Gaëtan Gilbert
Manuscript :


Mots-clés : Assistant de preuveCoqInsignifiance des preuvesUniversUip
Résumé

L’égalité définitionnelle, aussi appelée conversion, pour une théorie des types avec une vérification de type décidable est l’outil le plus simple pour prouver que deux objets sont les mêmes, laissant le système décider en utilisant uniquement le calcul. Par conséquent, plus il y a de choses égales par conversion, plus il est simple d’utiliser un langage basé sur la théorie des types. L’insignifiance des preuves, indiquant que deux preuves quelconques de la même proposition sont égales, est une manière possible d’étendre la conversion afin de rendre une théorie des types plus puissante. Cependant, ce nouveau pouvoir a un prix si nous l’intégrons naïvement, soit en rendant la vérification de type indécidable, soit en réalisant de nouveaux axiomes—tels que l’unicité des preuves d’identité (UIP)—qui sont incompatibles avec d’autres extensions, comme l’univalence. Dans cette thèse, nous proposons un moyen général d’étendre une théorie des types avec l’insignifiance des preuves, de manière à ce que la vérification du type soit décidable et est compatible avec l’univalence. Nous fournissons un nouveau critère pour décider si une proposition peut être éliminée sur un type (en corrigeant et en améliorant la règle d’élimination des singletons de Coq) en utilisant des techniques provenant de développements récents du filtrage dépendant sans UIP. Nous fournissons aussi une preuve de la décidabilité du typage à base de relations logiques. Cette extension de la théorie des types a été implementée dans les assistants de preuve Coq et Agda.


Date de soutenance : 20-12-2019
Président du jury : Nicolas Tabareau
Jury :
  • Yves Bertot [Président]
  • Abel Andréas [Rapporteur]
  • Bas Spitters [Rapporteur]
  • Assia Mahboubi
  • Gert Smolka

  Jiajun Pan, Apprentissage de métriques pour données structurées
Apprentissage de métriques pour données structurées
Auteur : Jiajun Pan
Manuscript :


Mots-clés : Apprentissage de métrique
Résumé

L’apprentissage de métrique est une branche de l’apprentissage automatique, et plus spécifiquement de l’apprentissage de représentation, qui consiste à apprendre les paramètres d’une métrique de façon à améliorer ses qualités intrinsèques lors de son utilisation. Dans cette thèse, nous résumons les récents développements autour de ces apprentissages de métrique, à la fois sur des données dites plates, mais également sur des données structurées. Le manque de pouvoir de représentation des métriques actuellement utilisées nous conduit à proposer une nouvelle métrique fondée sur des fonctions sous-modulaires. Cette nouvelle proposition d’augmenter de manière significative l’évaluation des interactions entre dimensions des données. Un algorithme d’apprentissage de cette métrique est par la suite proposé. Dans un second temps, nous présentons deux approches LSCS (sélection de contraintes relationnelles) et MRML (multi-relation metric learning) permettant de traiter des types de données extrêmement présent dans les systèmes d’informations: les bases de données relationnelles. L’ensemble de ces propositions sont ensuite expérimentalement comparés à l’existant, justifiant l’intérêt pratique des approches proposées.


Date de soutenance : 20-12-2019
Président du jury : Philippe Leray
Jury :
  • Cécile Capponi
  • Colin de la Higuera

  Etienne Picard, Modélisation et commande robuste de robots parallèles à câbles pour applications industrielles
Modélisation et commande robuste de robots parallèles à câbles pour applications industrielles
Auteur : Etienne Picard
Manuscript :


Mots-clés : RobotiqueParallèleCâbleModélisationContrôleÉtalonnage
Résumé

Cette thèse concerne la modélisation et la commande robuste de robots parallèles à câbles (RPC) pour deux applications du secteur naval : la prise et dépose de plaques métalliques à l’aide d’un RPC en configuration suspendue (ROMP), et le nettoyage de façades par un RPC pleinement contraint (ROWC). Les travaux ont été réalisés à l’IRT Jules Verne dans le cadre du projet ROCKET. La première partie de cette thèse se concentre sur la modélisation et la calibration des RPC. Les modèles géométriques incluant la géométrie des poulies et l’élasticité des câbles sont présentés, ainsi que la formulation de la matrice de raideur du robot. L’estimation de la masse transportée et de la position du centre de gravité de la plateforme, à partir des mesures de tensions dans les câbles et pour une trajectoire à faible dynamique, est expérimentée. Enfin, la calibration des RPC est discutée et une méthode de calibration automatique est étudiée en simulation selon les modèles considérés. La seconde partie est dédiée au contrôle robuste des RPC par rapport aux perturbations de chaque application. Différents schémas de contrôle sont comparés suivant les informations disponibles sur le système. Deux familles de contrôleurs sont considérées pour ROMP : un contrôleur proportionnel-dérivée (PD) standard, et contrôleur récent balançant entre algorithmes de type mode glissant ou linéaire (SML). Un schéma compensant l’allongement des câbles par élasticité est également expérimenté pour améliorer la précision et la répétabilité du robot. Dans le cas de ROWC, l’intégration d’un algorithme de distribution des tensions dans les câbles dans le schéma de contrôle est nécessaire. Un nouveau critère de sélection des tensions est proposé afin de maximiser la raideur du robot face à l'effort dû à la pression du jet d’eau. Enfin, l’arrêt d’urgence des RPC est discuté et le comportement des prototypes ROMP et ROWC est observé dans le cas d’un arrêt d’urgence.


Date de soutenance : 17-12-2019
Président du jury : Stéphane Caro
Jury :
  • Marco Carricato [Président]
  • Edouard Laroche [Rapporteur]
  • David Daney [Rapporteur]
  • Claire Dumas
  • Yves Guillermit

  Jad Darrous, Gestion de données efficace et à grande échelle dans les clouds distribués : Déploiement de services et traitement de données
Gestion de données efficace et à grande échelle dans les clouds distribués : Déploiement de services et traitement de données
Auteur : Jad Darrous
Manuscript :


Mots-clés : Gestion de donnéesSystèmes de stockage à grande échelleClouds geo-distribuésEdge/Fog computingDéploiement de servicesImages des machines virtuelles et des conteneursHadoopCodage d'effacement
Résumé

Cette thèse porte sur des solutions pour la gestion de données afin d'accélérer l'exécution efficace d'applications de type « Big Data » (très consommatrices en données) dans des centres de calculs distribués à grande échelle. Les applications de type « Big Data » sont de plus en plus souvent exécutées sur plusieurs sites. Les deux principales raisons de cette tendance sont 1) le déplacement des calculs vers les sources de données pour éliminer la latence due à leur transmission et 2) le stockage de données sur un site peut ne pas être réalisable à cause de leurs tailles de plus en plus importantes.La plupart des applications s'exécutent sur des clusters virtuels et nécessitent donc des images de machines virtuelles (VMI) ou des conteneurs d’application. Par conséquent, il est important de permettre l’approvisionnement rapide de ces services afin de réduire le temps d'attente avant l’exécution de nouveaux services ou applications. Dans la première partie de cette thèse, nous avons travaillé sur la récupération et le placement des données, en tenant compte de problèmes difficiles, notamment l'hétérogénéité des connexions au réseau étendu (WAN) et les besoins croissants en stockage pour les VMIs et les conteneurs d’application.Par ailleurs, les applications de type « Big Data » reposent sur la réplication pour fournir des services fiables et rapides, mais le surcoût devient de plus en plus grand. La seconde partie de cette thèse constitue l'une des premières études sur la compréhension et l'amélioration des performances des applications utilisant la technique, moins coûteuse en stockage, des codes d'effacement (erasure coding), en remplacement de la réplication.


Date de soutenance : 17-12-2019
Président du jury : Christian Pérez
Jury :
  • Guillaume Pierre [Président]
  • Pierre Sens [Rapporteur]
  • María S. Pérez-Hernández [Rapporteur]
  • Ibrahim Shadi
  • Patricia Stolf

  Christian El Hajj, Estimation et classification des temps de relaxation multi-exponentiels en IRM. Application aux tissus végétaux
Estimation et classification des temps de relaxation multi-exponentiels en IRM. Application aux tissus végétaux
Auteur : Christian El Hajj
Manuscript :


Mots-clés : Relaxométrie IRMBruit de RiceModèle multi-exponentielClassificationMajoration- minimisationEstimation conjointe
Résumé

L’acquisition de données de relaxation en imagerie de résonance magnétique permet une analyse très fine de la composition des tissus. L’analyse est classiquement réalisée à l’aide de modèles mono-exponentiels au sein de chaque voxel de l’image, mais des informations plus riches peuvent être obtenues à l’aide d’un modèle de décroissance multi-exponentielle. Cependant, l’obtention puis l’exploitation des cartographies des temps de relaxation multiexponentielles à l’échelle d’une image entière, à partir des données IRM de module, nécessitent la résolution d’un problème inverse de grande taille. Ce travail de thèse propose des algorithmes de reconstruction des cartographies des temps de relaxation multi-exponentielles et des intensités relatives associées à l’échelle du voxel. Ces algorithmes de reconstruction sont fondés sur l’estimateur du maximum de vraisemblance exploitant l’hypothèse d’un bruit de Rice, inhérent aux images de module, et une régularisation spatiale favorisant la régularité des cartographies. Le problème d’optimisation en grande dimension qui en résulte est résolu en utilisant une approche de descente itérative par majoration-minimisation couplée à un algorithme de Levenberg-Marquardt avec recherche de pas. Enfin, nous proposons une méthode de caractérisation de la composition des images à partir des paramètres estimés en utilisant des algorithmes de classification. Les développements de la thèse font l’objet d’application à l’analyse de tissus végétaux.


Date de soutenance : 16-12-2019
Président du jury : Saïd Moussaoui
Jury :
  • Jean-Marie Bonny [Président]
  • Philippe Ciuciu [Rapporteur]
  • Ludovic de Rochefort [Rapporteur]
  • Su Ruan
  • Olivier Commowick

  Elias Tahoumi, Nouvelles stratégies de commandes robustes combinant des approches linéaires et par mode glissant.
Nouvelles stratégies de commandes robustes combinant des approches linéaires et par mode glissant.
Auteur : Elias Tahoumi
Manuscript :


Mots-clés : Modes glissant d’ordre unModes glissants d’ordre deuxModes glissants d’ordre supérieurSystème électropneumatiqueSystème éolien
Résumé

Ce travail de thèse porte sur la conception des lois de commande pour des systèmes non linéaires, incertains et perturbés; ces lois de commande sont basées à la fois sur des approches par mode glissant, et sur des techniques linéaires. Les commandes par mode glissant (notamment d’ordre supérieur) sont connues pour leur robustesse face aux perturbations et incertitudes ainsi que pour leurs performances en terme de précision. Cependant, elles sont énergivores. Le retour d’état linéaire est connu pour être une commande lisse et à faible consommation d’énergie, mais il est très sensible aux perturbations et incertitudes. Le premier objectif de cette thèse est le développement de lois de commande présentant les avantages à la fois de la commande par mode glissant (robustesse et précision) et du retour d'état linéaire (faible consommation d'énergie). Le deuxième objectif est de montrer l’applicabilité des méthodes proposées aux systèmes physiques réels, notamment le banc électropneumatique de LS2N. Des applications sont également effectuées sur un système éolien.


Date de soutenance : 09-12-2019
Président du jury : Franck Plestan
Jury :
  • Noureddine Manamanni [Président]
  • Jaime Alberto Moreno Pérez [Rapporteur]
  • Florentina Nicolau

  Tahir Rasheed, Collaborative Robot parallèle à câble mobile
Collaborative Robot parallèle à câble mobile
Auteur : Tahir Rasheed
Manuscript :


Mots-clés : Robotique collaborativeRobot parallèle à câble mobilePlanification de trajectoireAnalyse de l'espace de travailAlgorithme de distribution de tension
Résumé

Cette thèse présente un nouveau concept de robots parallèles à câble mobile (RPCM) comme un nouveau système robotique. RPCM est composé d'un robot parallèle à câble (RPC) classique monté sur plusieurs bases mobiles. Les RPCMs combinent l'autonomie des robots mobiles avec les avantages des RPCs, à savoir un grand espace de travail, un rapport charge utile/poids élevé, une faible inertie de l'effecteur final, une capacité de déploiement et une reconfigurabilité. De plus, les RPCMs présentent une nouvelle innovation technique qui pourrait contribuer à apporter plus de flexibilité et de polyvalence par rapport aux solutions robotiques industrielles existantes. Deux prototypes de RPCMs appelés FASTKIT et MoPICK ont été développés au cours de cette thèse. FASTKIT est composé de deux bases mobiles portant une plate-forme mobile à six degrés de liberté, tirée par huit câbles, dans le but de fournir une solution robotique économique et polyvalente pour la logistique. MoPICK est composé d'une plate-forme mobile à trois degrés de liberté tirée par quatre câbles montés sur quatre bases mobiles. Les applications ciblées de MoPICK sont des tâches mobiles dans un environnement contraint, par exemple un atelier ou des opérations logistiques dans un entrepôt. Les contributions de cette thèse sont les suivantes. Tout d'abord, toutes les conditions nécessaires à l'atteinte de l'équilibre statique d'un RPCM sont étudiées. Ces conditions sont utilisées pour développer un algorithme de distribution de tension pour le contrôle en temps réel des câbles RPCM. Les conditions d'équilibre sont également utilisées pour étudier l'espace de travail clé en main des RPCMs. Ensuite, les performances cinématiques et les capacités de torsion des RPCMs sont étudiées. Enfin, la dernière partie de la thèse présente des stratégies de planification de trajectoires multiples pour les RPCMs afin de reconfigurer l'architecture géométrique du RPC pour réaliser la tâche souhaitée.


Date de soutenance : 09-12-2019
Président du jury : Stéphane Caro
Jury :
  • Jean-Pierre Merlet [Président]
  • Hélène Chanal [Rapporteur]
  • Philippe Cardou
  • Philip Long
  • Adolfo Suarez Roos

  David Perez Morales, Commande référencée multi-capteurs pour des applications de Parking Intelligent
Commande référencée multi-capteurs pour des applications de Parking Intelligent
Auteur : David Perez Morales
Manuscript :


Mots-clés : Véhicules intelligentsCommande référencée capteurCommande prédictiveSystème de parking intelligent
Résumé

Dans l’objectif de développer des systèmes de parking plus avancés que ce que l’on trouve actuellement, différentes manoeuvres typiquement réalisées dans des situations de parking ont été revisitées en utilisant une approche originale : la commande référencée multi-capteurs. En outre, pour surmonter les limitations bien connues des techniques référencée capteur classiques, les manoeuvres de parking ont également été formalisées dans un cadre commun de commande prédictive référencée multi-capteur. Les stratégies développées ont été testées avec une Renault ZOE robotisée validant l’approche.


Date de soutenance : 06-12-2019
Président du jury : Philippe Martinet
Jury :
  • Isabelle Fantoni-Coichot [Président]
  • Roland Lenain [Rapporteur]
  • Florent Lamiraux [Rapporteur]
  • Fawzi Nashashibi
  • Guillaume Allibert

  Maxime Mroue, Développement de réseaux radio d'objets connectés pour les Villes Intelligentes : amélioration de la Qualité de Service du réseau LoRa
Développement de réseaux radio d'objets connectés pour les Villes Intelligentes : amélioration de la Qualité de Service du réseau LoRa
Auteur : Maxime Mroue
Manuscript :


Mots-clés : Réseau étendu à faible puissanceVilles IntelligentesLoRaWANQualité de Service
Résumé

L'objectif de cette thèse est la mise au point de nouveaux mécanismes pour améliorer la qualité de service des réseaux LPWAN dans le contexte des Villes Intelligentes. Dans un premier temps, nous analysons l'évolution de la qualité de service en observant le taux de paquets erronés (PER) de la couche MAC de différents standards LPWAN, soumise la densification des réseaux. Dans un deuxième temps, nous nous concentrons sur la technologie LoRa et nous identifions les verrous lever, notamment le taux de paquets rejetés, les collisions entre paquets et le nombre de passerelles déployées, dans différents scénarios de densification des réseaux. Nous introduisons alors un nouveau protocole appelé LoRa+ basé sur « l'écoute avant de parler » (Listen Before Talk, LBT). Enfin, nous utilisons des outils et métriques issus du modèle « Okumura-Hata » afin d'analyser et comparer les performances de ce nouveau protocole avec LoRa au sein de plusieurs types de réseaux, et nous démontrons que LoRa+ s'avère être un choix opportun, permettant de réduire à la fois les taux de paquets rejetés et erronés ainsi que le nombre des passerelles déployées dans les réseaux.


Date de soutenance : 03-12-2019
Président du jury : Eduardo MOTTA CRUZ Directeur Chaire Télécommunications et Réseaux/HDR Université de Nantes
Jury :
  • Nathalie MITTON, Directrice de Recherche Inria Lille-Nord Europe (Présidente)
  • Pascal LORENZ, Professeur Université de Haute Alsace (Rapporteur)
  • Fabrice VALOIS, Professeur INSA Lyon (Rapporteur)
  • Wilfried VINCE, Responsable Cellule Smart Territoires, SPIE CityNetworks (Invité)
  • Armel LE BLANC, Directeur du développement commercial, SPIE CityNetworks (Invité)

  Amir Messali, Contribution à l’estimation de position des machines synchrones par injection des signaux à haute fréquence : Application à la propulsion des véhicules électriques/hybrides
Contribution à l’estimation de position des machines synchrones par injection des signaux à haute fréquence : Application à la propulsion des véhicules électriques/hybrides
Auteur : Amir Messali
Manuscript :


Mots-clés : Contrôle sans capteurs mécaniquesMoteurs synchrones à aimants permanentsTechniques d’injection de signaux haute fréquenceObservateurs par modes glissants d’ordre 1 étapes par étapes et adaptatifsEv/hev
Résumé

Cette thèse s’inscrit dans le cadre de la chaire Renault/Centrale Nantes sur l’amélioration des performances des véhicules électriques (EV/HEV). Elle est dédiée à la problématique de l’estimation de la position/vitesse des moteurs synchrones à aimants permanents (MSAP) sans capteur mécanique, en utilisant les techniques d’injection de signaux haute fréquence (HF) sur toute la plage de vitesse des MSAP. Dans ce cadre, plusieurs contributions ont été proposées dans les parties de démodulation/traitement du signal et d’algorithmes de poursuite des techniques d’injection HF, afin d’améliorer l’estimation de la position/vitesse des MSAP par rapport aux méthodes existantes. Dans la partie démodulation/traitement du signal des techniques d’injection HF, les contributions ont consisté à proposer des solutions originales permettant de réduire les effets de filtrage dans la chaine d’estimation et de rendre cette dernière indépendante des paramètres (électriques) de la machine. Dans la partie poursuite, les contributions portent essentiellement sur l’exploitation de la fonction signe de l’erreur de position (à la place de l’erreur de position) comme information de mesure, pour estimer la position, la vitesse et l’accélération des MSAP sans capteurs mécaniques avec des observateurs par modes glissants d’ordre 1 (classiques, étapes par étapes et adaptatifs). Les contributions proposées dans les deux parties ont pour avantages d’une part, de robustifier la chaine d’estimation en la rendant indépendante des paramètres électriques et mécaniques. Et d’autre part, d’améliorer la précision et les performances de la chaine d’estimation, et par conséquent du contrôle des MSAP sans capteurs mécaniques, dans les phases transitoires et en régimes permanents avec une méthode de réglage aisée. Les méthodes d’estimation développées ont été testées en simulation et en expérimentation sur un banc d’essai de machines électriques. Les résultats obtenus ont permis de mettre en évidence les performances de ces méthodes en terme de suivi de trajectoire et de robustesse sur toute la plage de fonctionnement des MSAP sans capteurs mécaniques.


Date de soutenance : 22-11-2019
Président du jury : Malek Ghanes
Jury :
  • Xuefang Lin-Shi [Président]
  • Maurice Fadel [Rapporteur]
  • Gildas Besançon [Rapporteur]
  • Philippe Martin
  • Mohamad Koteich
  • Abdelkader Bouarfa

  Aleksandr Pirogov, Equilibrage robuste de lignes de production : modèles de programmation linéaire en variables mixtes et règles de pré-traitement
Equilibrage robuste de lignes de production : modèles de programmation linéaire en variables mixtes et règles de pré-traitement
Auteur : Aleksandr Pirogov
Manuscript :


Mots-clés : Optimisation robusteLignes de productionRayon de stabilitéApproche hybrideRègles de réductionPLNE
Résumé

Ce travail porte sur l’optimisation robuste des lignes de production au stade de la conception. La conception de telles lignes peut être interprétée comme un problème d’optimisation consistant à rechercher une configuration optimisant des objectifs individuels et à respecter les contraintes technologiques et économiques. Nous considérons deux types de lignes de production : l’assemblage et le transfert. Le premier peut être représenté comme un ensemble de stations ordonnées linéairement où les tâches sont exécutées de manière séquentielle. Le second type de ligne est constitué de machines de transfert comprenant plusieurs têtes multibroches. Toutes les tâches d’une même tête sont exécutées simultanément, tandis que les outils d’une machine fonctionnent en mode séquentiel. Nous décrivons différentes approches permettant de modéliser l’incertitude des données dans les problèmes d’équilibrage de ligne. Notre objectif est d’identifier les approches les mieux adaptées au contexte de la conception. En particulier, l’attention se concentre sur l’approche robuste. Nous proposons un nouveau critère d’optimisation basé sur le rayon de stabilité d’une solution réalisable. Ensuite, des formulations robustes sont présentées pour la conception des lignes d’assemblage et de transfert lorsque le temps de traitement des tâches est sujet à des incertitudes. Nous développons également des méthodes heuristiques dont les résultats sont utilisés pour renforcer les modèles mathématiques. Enfin, une nouvelle méthode de résolution hybride est élaborée pour résoudre différentes variantes des problèmes de maximisation du rayon de stabilité.


Date de soutenance : 20-11-2019
Président du jury : Alexandre Dolgui
Jury :
  • Marie-Laure Espinouse [Président]
  • Olga Battaïa [Rapporteur]
  • Alexis Aubry [Rapporteur]
  • Oncu Hazir
  • Mikhail I Kovalyov
  • Evgeny Gurevsky

  Konstantin Akhmadeev, Modèles probabilistes fondés sur la décomposition d'EMG pour la commande de prothèses
Modèles probabilistes fondés sur la décomposition d'EMG pour la commande de prothèses
Auteur : Konstantin Akhmadeev
Manuscript :


Mots-clés : ElectromyogrammeDécomposition d'EMGPilotage de prothèse
Résumé

Le pilotage moderne de prothèse robotisée de bras peut être sensiblement amélioré par l'utilisation de la décomposition d'EMG. Cette technique permet d'extraire l'activité des motoneurones de la moelle épinière, une représentation directe de la commande neuronale. Cette activité, qui est insensible aux facteurs non-liés au mouvement, tels que le type ou la position d'électrode EMG, est essentielle pour le pilotage des prothèses. Cependant les méthodes de décomposition existantes ne fournissent que l'activité d'un nombre limité de motoneurones. Cette information peut être considérée insuffisante pour en inférer l'intention de l'utilisateur. Dans ce travail, nous présentons une approche probabiliste qui utilise les modèles existants de la relation entre les activités des motoneurones et le mouvement. Nous comparons cette approche à une approche plus conventionnelle et montrons qu'elle fournit de meilleurs résultats même quand elle est alimentée avec un nombre très bas de motoneurones décomposés. Pour évaluer sa performance dans un environnement contrôlé, nous avons développé un modèle physiologique de simulation d'EMG et de contraction de muscle. De plus, une analyse sur les signaux expérimentaux a été réalisée.


Date de soutenance : 20-11-2019
Président du jury : Yannick Aoustin
Jury :

      Thi Thanh Nguyen, Algorithmes gloutons orthogonaux sous contrainte de positivité
    Algorithmes gloutons orthogonaux sous contrainte de positivité
    Auteur : Thi Thanh Nguyen
    Manuscript :


    Mots-clés : Problème minimisé L0NP-difficileCohérence mutuelleReconstruction de support exactL’algorithme des contraintes activesReconstruction parcimonieuxAlgorithmes gloutons orthogonauxContrainte de positivitéMoindres carrés positif
    Résumé

    De nombreux domaines applicatifs conduisent à résoudre des problèmes inverses où le signal ou l'image à reconstruire est à la fois parcimonieux et positif. Si la structure de certains algorithmes de reconstruction parcimonieuse s'adapte directement pour traiter les contraintes de positivité, il n'en va pas de même des algorithmes gloutons orthogonaux comme OMP et OLS. Leur extension positive pose des problèmes d'implémentation car les sous-problèmes de moindres carrés positifs à résoudre ne possèdent pas de solution explicite. Dans la littérature, les algorithmes gloutons positifs (NNOG, pour “Non-Negative Orthogonal Greedy algorithms”) sont souvent considérés comme lents, et les implémentations récemment proposées exploitent des schémas récursifs approchés pour compenser cette lenteur. Dans ce manuscrit, les algorithmes NNOG sont vus comme des heuristiques pour résoudre le problème de minimisation L0 sous contrainte de positivité. La première contribution est de montrer que ce problème est NP-difficile. Deuxièmement, nous dressons un panorama unifié des algorithmes NNOG et proposons une implémentation exacte et rapide basée sur la méthode des contraintes actives avec démarrage à chaud pour résoudre les sous-problèmes de moindres carrés positifs. Cette implémentation réduit considérablement le coût des algorithmes NNOG et s'avère avantageuse par rapport aux schémas approximatifs existants. La troisième contribution consiste en une analyse de reconstruction exacte en K étapes du support d'une représentation K-parcimonieuse par les algorithmes NNOG lorsque la cohérence mutuelle du dictionnaire est inférieure à 1/(2K-1). C'est la première analyse de ce type.


    Date de soutenance : 18-11-2019
    Président du jury : Charles Soussen
    Jury :
    • Loïc Denis [Rapporteur]
    • Charles Dossal [Rapporteur]
    • Christian Heinrich [Président]
    • Laura Rebollo-Neira

      Giovanni Christian Lo Bianco Accou, Estimer le nombre de solutions sur les contraintes de cardinalité
    Estimer le nombre de solutions sur les contraintes de cardinalité
    Auteur : Giovanni Christian Lo Bianco Accou
    Manuscript :


    Mots-clés : Programmation par contraintesDénombrementGraphes aléatoires
    Résumé

    La richesse de la programmation par contraintes repose sur la très large variété des algorithmes qu’elle utilise en puisant dans les grands domaines de l’Intelligence Artificielle, de la Programmation Logique et de la Recherche Opérationnelle. Cependant, cette richesse, qui offre aux spécialistes une palette quasi-illimitée de configurations possibles pour attaquer des problèmes combinatoires, devient une frein à la diffusion plus large du paradigme, car les outils actuels sont très loin d’une boîte noire, et leur utilisation suppose une bonne connaissance du domaine, notamment en ce qui concerne leur paramétrage. Dans cette thèse, nous proposons d’analyser le comportement des contraintes de cardinalité avec des modèles probabilistes et des outils de dénombrement, pour paramétrer automatiquement les solveurs de contraintes : heuristiques de choix de variables et de choix de valeurs et stratégies de recherche.


    Date de soutenance : 30-10-2019
    Président du jury : Xavier Lorca
    Jury :
    • Vlady Ravelomanana [Président]
    • Jean-Charles Régin [Rapporteur]
    • Willem-Jan van Hoeve [Rapporteur]
    • Nicolas Beldiceanu

      Matthieu David, Découverte de modifications chimiques portées par les protéines : identification rapide de jeux de spectres de masse sans filtre de masse
    Découverte de modifications chimiques portées par les protéines : identification rapide de jeux de spectres de masse sans filtre de masse
    Auteur : Matthieu David
    Manuscript :


    Mots-clés : AlgorithmiqueInformatiqueSpectrométrie de masseProtéomiqueBio-informatique
    Résumé

    Les protéines remplissent de nombreuses fonctions indispensables au développement et à la survie des organismes vivants. Leur étude est primordiale pour comprendre les mécanismes biologiques au sein des cellules. La technique la plus utilisée pour caractériser les protéines est la spectrométrie de masse en tandem qui produit des dizaines de milliers de spectres expérimentaux par analyse. Pour interpréter ces spectres –c’est-à-dire retrouver et caractériser les protéines présentes dans le mélange analysé– la méthode la plus courante consiste à les comparer à une banque pouvant contenir des centaines de milliers de spectres "modèles". Pour accélérer l’analyse, la majorité des approches limitent le nombre de comparaisons, limitation suspectée à l’origine de difficultés d’identification. En effet, à l’issue d’une expérience de spectrométrie de masse, 50 à 75% des spectres demeurent aujourd’hui non identifiés. Pour résoudre ces difficultés, nous avons conçu une méthode pour interpréter les spectres de masse sans filtre de la banque. Cette méthode repose sur une structure de données SpecTrees qui permet une représentation compacte du nombre de masses partagées entre chaque paire de spectres, et sur des algorithmes qui manipulent efficacement l’information contenue dans cette structure de donnée. L’ensemble constitue le logiciel SpecOMS diffusé à la communauté. Nous discutons l’usage des différents paramètres de notre méthode et la comparons à un autre algorithme performant.


    Date de soutenance : 24-10-2019
    Président du jury : Guillaume Fertin
    Jury :
    • Alain Denise [Examinateur]
    • Yves Vandenbrouck
    • Hélène Rogniaux

      Tzila Ajamian, Exploration de l’Acquisition Comprimée appliquée à la Réflectométrie
    Exploration de l’Acquisition Comprimée appliquée à la Réflectométrie
    Auteur : Tzila Ajamian
    Manuscript :


    Mots-clés : Diagnostic filaireAcquisition compriméeMatrices parcimonieuses
    Résumé

    La réflectométrie, une technique utilisée en diagnostic filaire, permet la détection et la localisation de défauts des câbles. Alors que, les Convertisseurs Analogique-Numérique sont indispensables dans les architectures de la réflectométrie, la nécessité du respect de la condition de Shannon et le besoin d’effectuer des traitements en temps réel limitent les fréquences maximales des signaux injectés, ainsi la précision de localisation. Pour une première fois dans le système de diagnostic filaire, cette étude s’inscrit l’échantillonnage comprimé du signal réfléchi afin d’améliorer ces performances. Pour cela en utilisant les signaux multi-porteuses de la réflectométrie, nous proposons les dictionnaires adaptées induisant la parcimonie. Ainsi, grâce à l’acquisition comprimée et son encodeur analogique nous arrivons à reconstruire le réflectogramme avec une fréquence d’échantillonnage moins élevée et également d’identifier les défauts à proximité.


    Date de soutenance : 24-10-2019
    Président du jury : Saïd Moussaoui
    Jury :
    • Qinghua Zhang [Président]
    • Marie Chabert [Rapporteur]
    • Virginie Dégardin [Rapporteur]
    • Caroline Chaux
    • Olivier-Henri Roux

      Basma El Amel Boussaha, Sélection de Réponses pour les Systèmes de Dialogue Basés sur la Recherche de Réponse de Bout en Bout
    Sélection de Réponses pour les Systèmes de Dialogue Basés sur la Recherche de Réponse de Bout en Bout
    Auteur : Basma El Amel Boussaha
    Manuscript :


    Mots-clés : Apprentissage profondSystèmes de dialogue orientés tâcheChatbotsSystèmes de rechercheRéseaux de neurones
    Résumé

    e besoin croissant en assistance humaine a poussé les chercheurs à développer des systèmes de dialogue automatiques, intelligents et infatigables qui conversent avec les humains dans un langage naturel pour devenir soit leurs assistants virtuels ou leurs compagnons. L’industrie des systèmes de dialogue est devenue populaire cette dernière décennie, ainsi, plusieurs systèmes ont été développés par des industriels comme des académiques. Dans le cadre de cette thèse, nous étudions les systèmes de dialogue basés sur la recherche de réponse qui cherchant la réponse la plus appropriée à la conversation parmi un ensemble de réponses prédéfini. Le défi majeur de ces systèmes est la compréhension de la conversation et l’identification des éléments qui décrivent le problème et la solution qui sont souvent implicites. La plupart des approches récentes sont basées sur des techniques d’apprentissage profond qui permettent de capturer des informations implicites. Souvent, ces approches sont complexes ou dépendent fortement du domaine. Nous proposons une approche de recherche de réponse de bout en bout, simple, efficace et indépendante du domaine et qui permet de capturer ces informations implicites. Nous effectuons également plusieurs analyses afin de déterminer des pistes d’amélioration.


    Date de soutenance : 23-10-2019
    Président du jury : Emmanuel Morin
    Jury :
      Annexes :

        Saber Laamiri, Commande des systèmes électriques : machines synchrones et convertisseurs multi-niveaux
      Commande des systèmes électriques : machines synchrones et convertisseurs multi-niveaux
      Auteur : Saber Laamiri
      Manuscript :


      Mots-clés : Machine synchroneCommande en courant et en tensionConvertisseur de puissanceCommande directeObservateur adaptatifDSPFPGA
      Résumé

      Ce travail de thèse a pour objectifs l'observation et la commande des convertisseurs multi-niveaux et la commande des machines synchrones. Pour satisfaire le besoin des clients de l’entreprise GS Maintenance et pour des raisons de maintenance, une commande en courant de la machine synchrone est implémentée expérimentalement. L'accent est mis sur le démarrage de ce type de machines car durant ces phases de fonctionnement (basses vitesses), les forces électromotrices sont faibles pour assurer la commutation des thyristors de l'onduleur. Ensuite, l'entreprise a proposé à ses clients un convertisseur statique en moyenne tension afin de garder sa place dans la variation de vitesse. Dans ce cadre, une commande en tension moderne de la machine synchrone alimentée par un onduleur de tension est proposée et validée par des résultats de simulation. Compte tenu du fonctionnement en moyenne tension, les convertisseurs multi-niveaux ont été retenus par l’entreprise. Dans ce cadre, le convertisseur multicellulaire série est proposé dans ce travail et une commande directe basée sur la théorie des modes glissants et le principe de priorité est conçue pour assurer l'équilibrage des tensions flottantes du convertisseur. Cette commande a été généralisée pour un nombre quelconque de cellules du convertisseur et validée par des résultats de simulation pour un nombre de cellules égal à 7. Pour réduire le coût et l'encombrement du convertisseur, un observateur adaptatif des tensions flottantes est proposé en prenant en compte les états de commutation du convertisseur. Cet observateur est ensuite associé à la commande directe en boucle fermée. Un banc d'essai du convertisseur à 3 cellules est réalisé au sein de l’entreprise et l’ensemble « observateur + commande directe » est testé expérimentalement sur ce banc.


      Date de soutenance : 27-09-2019
      Président du jury : Malek Ghanes
      Jury :
      • Emmanuel Godoy [Président]
      • Patrick Coirault [Rapporteur]
      • Ahmed El Hajjaji [Rapporteur]
      • Antoneta-Iuliana Bratcu
      • Woihida Aggoune
      • Gang Zheng
      • Gaëtan Santomenna

        Rafael Balderas Hill, Conception des robots rapides à consommation énergétique drastiquement réduite
      Conception des robots rapides à consommation énergétique drastiquement réduite
      Auteur : Rafael Balderas Hill
      Manuscript :


      Mots-clés : Robots rapides de prise et déposeRessort à raideur variableExploiter la dynamique naturelleÉchange entre énergie potentielle et énergie cinétiqueRéduction de la consommation d'énergie
      Résumé

      Il est bien connu qu'un des plus importants défis de la robotique industrielle est d'augmenter l'efficacité énergétique des robots manipulateurs. Dans les applications industrielles, telles que les opérations de prise et dépose à grande vitesse, la précision est généralement le critère le plus important pour mesurer les performances du robot. Cependant, les méthodes de conception des robots rapides ont évolué vers la conception des robots, pas seulement précis, mais également performants sur le plan énergétique. Cette thèse propose un principe d'actionnement pour réduire la consommation d'énergie des robots à grande vitesse en plaçant des ressorts à raideur variable en parallèle des actionneurs d'un robot rapide. L'idée est de régler la raideur de ces ressorts à l'aide d'autres actionneurs afin de mettre le robot à proximité de modes de résonance lors de son déplacement (les trajectoires de prise et dépose étant pseudo-oscillantes). En ajoutant un ressort à raideur variable en parallèle des liaisons actionnées par le robot, deux performances sont obtenues: i) la connexion directe entre les liaisons du moteur et du robot, garantissant ainsi la précision à grande vitesse, et ii) le contrôle de l'énergie potentielle stockée à libérer par cycle du mouvement de prise et dépose, exploitant ainsi la dynamique naturelle du robot à hautes vitesses et réduisant la consommation d'énergie. Les résultats expérimentaux de l'approche suggérée sur un prototype de taille industrielle montrent la réduction drastique de la consommation d’énergie pour des mouvements rapides pseudo-oscillants.


      Date de soutenance : 25-09-2019
      Président du jury : Sébastien Briot
      Jury :
      • Nicolas Mansard [Président]
      • Nicolas Andreff [Rapporteur]
      • Belhassen Chedi Bouzgarrou [Rapporteur]
      • Christine Chevallereau
      • Viviane Pasqui-Boutard

        Thuy Linh Nguyen, Contributions à l'approvisionnement d'environnements virtualisés : la problématique des temps de démarrage des machines virtuelles et des conteneurs
      Contributions à l'approvisionnement d'environnements virtualisés : la problématique des temps de démarrage des machines virtuelles et des conteneurs
      Auteur : Thuy Linh Nguyen
      Manuscript :


      Mots-clés : Informatique en nuageVirtualisation systèmeConteneursTemps de démarrage
      Résumé

      Le processus d'approvisionnement d'une machine virtuelle (VM) ou d'un conteneur est une succession de trois étapes complexes : (i) la phase d’ordonnancement qui consiste à affecter la VM / le conteneur sur un nœud de calcul ; (ii) le transfert de l'image disque associée vers ce nœud de calcul ; (iii) et l'exécution du processus de démarrage (généralement connu sous le terme « boot »). En fonction des besoins de l’application virtualisée et de l’état de la plate-forme, chacune de ces trois phases peut avoir une durée plus ou moins importante. Si de nombreux travaux se sont concentrés sur l’optimisation des deux premières étapes, la littérature couvre que partiellement les défis liés à la dernière. Cela est surprenant car des études ont montré que le temps de démarrage peut atteindre l’ordre de la minute dans certaines conditions. Durée que nous avons confirmée grâce à une étude préliminaire visant à quantifier le temps de démarrage, notamment dans des scénarios où le ratio de consolidation est élevé. Pour comprendre les principales raisons de ces durées, nous avons effectué en jusqu'à 15000 expériences au dessus de l’infrastructure Grid5000. Chacune de ces expériences a eu pour but d’étudier le processus de démarrage selon différentes conditions environnementales. Les résultats ont montré que les opérations d'entrée/sorties liées au processus de démarrage étaient les plus coûteuses. Afin d’y remédier, nous défendons dans cette thèse la conception d'un mécanisme dédié permettant de limiter le nombre d’entrées/sorties générées lors du processus de démarrage. Nous démontrons la pertinence de notre proposition en évaluant le prototype YOLO (You Only LoadOnce). Grâce à YOLO, la durée de démarrage peut être accélérée de 2 à 13 fois pour les VM et jusqu’à 2 fois pour les conteneurs. Au delà de l’aspect performance, il convient de noter que la façon dont YOLO a été conçu permet de l’appliquer à d’autres types de technologies devirtualisation / conteneurisation.


      Date de soutenance : 24-09-2019
      Président du jury : Adrien Lebre
      Jury :
      • Mario Südholt [Président]
      • Daniel Hagimont [Rapporteur]
      • María S. Pérez-Hernández [Rapporteur]
      • Ramon Nou

        Elias Amro, Simulation numérique du procédé de rivetage auto-poinçonneur et étude expérimentale : application à un assemblage multi-matériaux polymère-acier issu de l’industrie automobile
      Simulation numérique du procédé de rivetage auto-poinçonneur et étude expérimentale : application à un assemblage multi-matériaux polymère-acier issu de l’industrie automobile
      Auteur : Elias Amro
      Manuscript :


      Mots-clés : Rivetage auto-poinçonneurAssemblage multi-matériauxHomogénéisationModèle élasto-plastique endommageableSimulation numérique
      Résumé

      Ces travaux de thèse portent sur la question de l'assemblage multi-matériaux polymère-acier. Dans un environnement automobile grande série, le rivetage auto-poinçonneur est le procédé d'assemblage proposé qui permet de répondre à la problématique industrielle. Dans un premier temps, la faisabilité de la technique i été étudiée en recherchant l'influence de la vitesse de rivetage et de l'effort serre-flan sur les caractéristiques géométriques du joint riveté et sur la tenue mécanique. Ainsi, il se révèle que l'augmentation de la vitesse de rivetage a un effet favorable: l'effort à la rupture en traction pure augmente de +10% en accord avec l'augmentation de l'ancrage mécanique. Par contre, l'augmentation de l'effort serre-flan a un effet défavorable : l'effort à la rupture en traction pure et en traction-cisaillement diminue de -6.6%. Par la suite, un modèle numérique 2D axisymétrique a été mis au point dans le but de simuler l'opération de rivetage. Les propriétés mécaniques effectives du matériau composite sont estimées par une méthode d'homogénéisation tandis que le comportement mécanique du matériau acier par un modèle élasto-plastique endommageable. Comparée à la coupe transversale issue d'un essai expérimental, la simulation effectuée sous Abaqus 6.10- 1® démontre être capable de correctement prédire la déformée en particulier pour la valeur d'ancrage mécanique. Enfin, un modèle numérique 30 a été développé et permet de simuler des chargements destructifs et asymétriques. L'effort à rupture et les déformées macroscopiques estimées sont en bon accord avec les résultats expérimentaux, grâce notamment à la prise en compte de l'endommagement local de la couche composite.


      Date de soutenance : 11-09-2019
      Président du jury : Afia Kouadri-Henni
      Jury :
      • Thierry Renault [Président]
      • Abdelkhalak El Hami [Rapporteur]
      • Jean-Christophe Walrick

        Julien Langlois, Vision industrielle et réseaux de neurones profonds: Application au dévracage de pièces plastiques industrielles
      Vision industrielle et réseaux de neurones profonds: Application au dévracage de pièces plastiques industrielles
      Auteur : Julien Langlois
      Manuscript :


      Mots-clés : Apprentissage automatiqueEstimation de poseDonnées synthétiques
      Résumé

      Ces travaux de thèse présentent une méthode d’estimation de pose de pièces industrielles en vue de leur dévracage à partir d’un système mono-caméra 2D en utilisant une approche par apprentissage avec des réseaux profonds. Dans un premier temps, des réseaux de neurones assurent la segmentation d’un nombre prédéterminé de pièces dans la scène. En appliquant le masque binaire d’une pièce à l’image originale, un second réseau infère la profondeur locale de cet objet. En parallèle des coordonnées de la pièce dans l’image, cette profondeur est employée dans deux réseaux estimant à la fois l’orientation de l’objet sous la forme d’un quaternion et sa translation sur l’axe Z. Enfin, un module de recalage travaillant sur la rétro-projection de la profondeur et le modèle 3D de l’objet, permet d’affiner la pose prédite par les réseaux. Afin de pallier le manque de données réelles annotées dans un contexte industriel, un processus de création de données synthétiques est proposé. En effectuant des rendus aux multiples luminosités, la versatilité du jeu de données permet d’anticiper les différentes conditions hostiles d’exploitation du réseau dans un environnement de production.


      Date de soutenance : 28-08-2019
      Président du jury : Christian Viard-Gaudin
      Jury :
        Annexes :

          Lineth Arelys Rodriguez Pellière, Investigation qualitative des facteurs qui permettent l’analyse de Big Data et la chaîne d’approvisionnement
        Investigation qualitative des facteurs qui permettent l’analyse de Big Data et la chaîne d’approvisionnement
        Auteur : Lineth Arelys Rodriguez Pellière
        Manuscript :


        Mots-clés : DurabilitéAnalyse de la chaîne d'approvisionnementBig data et analyse prédictiveFacteurs
        Résumé

        Les académiques et les professionnels ont déjà montré que le Big Data et l'analyse prédictive, également connus dans la littérature sous le nom de BDPA, peuvent jouer un rôle fondamental dans la transformation et l'amélioration des fonctions de l'analyse de la chaîne d'approvisionnement durable (SSCA). Cependant, les connaissances sur la meilleure manière d'utiliser la BDPA pour augmenter simultanément les performances sociales, environnementale et financière. Par conséquent, avec les connaissances tirées de la littérature sur la SSCA, il semble que les entreprises peinent encore à mettre en oeuvre les pratiques de la SSCA. Les chercheursconviennent qu'il est encore nécessaire de comprendre les techniques, outils et facteurs des concepts de base de la SSCA pour adoption. C’est encore plus important d’intégrer BDPA en tant qu’atout stratégique dans les activités commerciales. Par conséquent, cette étude examine, par exemple, quels sont les facteurs de SSCA et quels sont les outils et techniques de BDPA qui permettent de mettre en évidence le 3BL (pour ses abréviations en anglais : "triple bottom line") des rendements de durabilité (environnementale, sociale et financière) via SCA.La thèse a adopté un constructionniste modéré, car elle comprend l’impact des facteurs Big Data sur les applications et les indicateurs de performance de la chaîne logistique analytique et durable. La thèse a également adopté un questionnaire et une étude de cas en tant que stratégie de recherche permettant de saisir les différentes perceptions des personnes et des entreprises dans l'application des mégadonnées sur la chaîne d'approvisionnement analytique et durable. La thèse a révélé une meilleure vision des facteurs pouvant influencer l'adoption du Big Data dans la chaîne d'approvisionnement analytique et durable. Cette recherche a permis de déterminer les facteurs en fonction des variables ayant une incidence sur l'adoption de BDPA pour SSCA, des outils et techniques permettant la prise de décision via SSCA et du coefficient de chaque facteur pour faciliter ou retarder l'adoption de la durabilité. Il n'a pas été étudié avant. Les résultats de la thèse suggèrent que les outils actuels utilisés par les entreprises ne peuvent pas analyser de grandes quantités de données par eux-mêmes. Les entreprises ont besoin d'outils plus appropriés pour effectuer ce travail.


        Date de soutenance : 27-08-2019
        Président du jury : Catherine Da Cunha
        Jury :
        • Philippe Depincé [Président]
        • Bernard Grabot [Rapporteur]
        • Jorge Humberto Mayorga Álvarez [Rapporteur]
        • Philippe Rauffet

          Simon Éliakim Mustaki, Outils de pré-calibration numérique des lois de commande de systèmes de systèmes : application aux aides à la conduite et au véhicule autonome
        Outils de pré-calibration numérique des lois de commande de systèmes de systèmes : application aux aides à la conduite et au véhicule autonome
        Auteur : Simon Éliakim Mustaki
        Manuscript :


        Mots-clés : Commande H2/H∞Commande multi-modèleOptimisation multi-objectifContrôle latéralADAS
        Résumé

        Cette thèse est dédiée à la pré-calibration des nouveaux systèmes d’aides à la conduite (ADAS). Le développement de ces systèmes est devenu aujourd’hui un axe de recherche stratégique pour les constructeurs automobiles dans le but de proposer des véhicules plus sûrs et moins énergivores. Cette thèse contribue à une vision méthodologique multi-critère, multi-modèle et multi-scénario. Elle en propose une instanciation particulière pour la pré-calibration spécifique au Lane Centering Assistance (LCA). Elle s’appuie sur des modèles dynamiques de complexité juste nécessaire du véhicule et de son environnement pour, dans le cadre du formalisme H2/H∞, formaliser et arbitrer les compromis entre performance de suivi de voie, confort des passagers et robustesse. Les critères élaborés sont définis de manière à être d’interprétation aisée, car directement liés à la physique, et facilement calculables. Ils s’appuient sur des modèles de perturbations exogènes (e.g. courbure de la route ou rafale de vent) et de véhicules multiples mais représentatifs, de manière à réduire autant que possible le pessimisme tout en embrassant l’ensemble des situations réalistes. Des simulations et des essais sur véhicules démontrent l’intérêt de l’approche.


        Date de soutenance : 08-07-2019
        Président du jury : Philippe Chevrel
        Jury :
        • Said Mammar [Président]
        • Jamal Daafouz [Rapporteur]
        • Pierre Apkarian [Rapporteur]
        • Elena Panteley
        • Pedro Kvieska
        • François Fauvel
        • Mohamed Yagoubi

          Xinwei Chai, Analyse d’accessibilité et révision de la dynamique dans les réseaux de régulations biologiques
        Analyse d’accessibilité et révision de la dynamique dans les réseaux de régulations biologiques
        Auteur : Xinwei Chai
        Manuscript :


        Mots-clés : BioinformatiqueModel checkingHeuristiqueRévision de modèles
        Résumé

        Les systèmes concurrents sont un bon choix pour ajuster les données et analyser les mécanismes sous-jacents pour leur sémantique simple mais expressive. Cependant, l’apprentissage et l’analyse de tels systèmes concurrents sont difficiles pour ce qui concerne les calculs. Lorsqu’il s’agit de grands ensembles de données, les techniques les plus récentes semblent insuffisantes, que ce soit en termes d’efficacité ou de précision. Ici, nous proposons un cadre de modélisation raffiné ABAN (Asynchronous Binary Automata Network) et développons des outils pour analyser l’atteignabilité : PermReach (Reachability via Permutation search) et ASPReach (Reachability via Answer Set Programming). Nous proposons ensuite deux méthodes de construction et d’apprentissage des modèles: CRAC (Completion via Reachability And Correlations) et M2RIT (Model Revision via Reachability and Interpretation Transitions) en utilisant des données continues et discrètes pour s’ajuster au modèle et des propriétés d’accessibilité afin de contraindre les modèles en sortie.


        Date de soutenance : 24-05-2019
        Président du jury : Olivier Roux
        Jury :
        • Béatrice Duval [Président]
        • Pascale Le Gall [Rapporteur]
        • Gilles Bernot [Rapporteur]
        • Loïc Paulevé

          Yang Zhang, Conception et synthèse des systèmes mécaniques aux unités couplées
        Conception et synthèse des systèmes mécaniques aux unités couplées
        Auteur : Yang Zhang
        Manuscript :


        Mots-clés : Conception de mécanismesRobot marcheurÉquilibrage de la gravitéExosqueletteSystème couplé
        Résumé

        Ce mémoire traite de nouveaux principes de conception qui sont inspirés par le couplage de deux unités représentant les différentes structures mécaniques. Les critères de conception optimale et les types d'unités combinées sont différents. Cependant, toutes les tâches sont considérées dans le couplage de ces unités. L'examen critique présenté dans le premier chapitre est divisé en trois sections en raison de la nature des problèmes traités: les robots marcheurs, les compensateurs de gravité et les robots collaboratifs. Le deuxième chapitre traite du développement de robots marcheurs à actionneur unique, conçus par couplage de deux mécanismes ayant les fonctionnants de jambe. Basée sur l'algorithme génétique, la synthèse proposée permet d'assurer la reproduction de la trajectoire obtenue à partir de la marche humaine. Par l'ajustement des paramètres géométriques des unités conçues, il devient possible non seulement d'assurer une marche du robot à des pas variables, mais également de monter les escaliers. Ensuite la conception et la synthèse des équilibreurs pour les robots sont considérés. Un costume robotisé type exosquelette permettant d'aider aux personnes transportant des charges lourdes est examiné dans le chapitre suivant La conception proposée présente une symbiose d'un support rigide et léger et d'un système de câbles monté sur ce support. L'étude et l'optimisation statique et dynamique ont conduit aux tests sur un mannequin. Le dernier chapitre propose l'étude et 'optimisation d'un système couplé, comprenant un manipulateur équilibré à commande manuelle et un robot collaboratif. Le but d'une telle coopération est de manipuler de lourdes charges avec un cobot.


        Date de soutenance : 19-04-2019
        Président du jury : Vigen Arakelyan
        Jury :
        • Philippe Wenger [Président]
        • Fethi Ben Ouezdou [Rapporteur]
        • Emmanuel Delaleau [Rapporteur]
        • Michel Coste
        • Yannick Aoustin
        • Natalie Smith-Guerin

          Luis Federico Contreras Samamé, SLAM collaboratif dans des environnements extérieurs
        SLAM collaboratif dans des environnements extérieurs
        Auteur : Luis Federico Contreras Samamé
        Manuscript :


        Mots-clés : Cartographie 3DSLAM collaboratifLiDARNuage de pointsRobotique mobile
        Résumé

        Cette thèse propose des modèles cartographiques à grande échelle d'environnements urbains et ruraux à l'aide de données en 3D acquises par plusieurs robots. La mémoire contribue de deux manières principales au domaine de recherche de la cartographie. La première contribution est la création d'une nouvelle structure, CoMapping, qui permet de générer des cartes 3D de façon collaborative. Cette structure s’applique aux environnements extérieurs en ayant une approche décentralisée. La fonctionnalité de CoMapping comprend les éléments suivants : Tout d’abord, chaque robot réalise la construction d'une carte de son environnement sous forme de nuage de points.Pour cela, le système de cartographie a été mis en place sur des ordinateurs dédiés à chaque voiture, en traitant les mesures de distance à partir d'un LiDAR 3D se déplaçant en six degrés de liberté (6-DOF). Ensuite, les robots partagent leurs cartes locales et fusionnent individuellement les nuages de points afin d'améliorer leur estimation de leur cartographie locale. La deuxième contribution clé est le groupe de métriques qui permettent d'analyser les processus de fusion et de partage de cartes entre les robots. Nous présentons des résultats expérimentaux en vue de valider la structure CoMapping et ses métriques. Tous les tests ont été réalisés dans des environnements extérieurs urbains du campus de l’École Centrale de Nantes ainsi que dans des milieux ruraux.


        Date de soutenance : 10-04-2019
        Président du jury : Philippe Martinet
        Jury :
        • Vincent Frémont [Président]
        • Véronique Berge-Cherfaoui [Rapporteur]
        • Ouiddad Labbani-Igbida [Rapporteur]
        • Rémi Boutteau

          Chaouki Nacer Boultifat, Contrôle acoustique actif du bruit dans une cavité fermée
        Contrôle acoustique actif du bruit dans une cavité fermée
        Auteur : Chaouki Nacer Boultifat
        Manuscript :


        Mots-clés : Contrôle actif du bruitEquation des ondesCommande robusteCommande adaptativeRéduction de modèle
        Résumé

        Cette thèse porte sur le contrôle acoustique actif (ANC) dans une cavité. L’objectif est d’atténuer l’effet d’une onde sonore perturbatrice en des points ou dans un volume. Ceci est réalisé à l’aide d’un contre-bruit généré, par exemple, par un haut-parleur. Cette étude requiert l’utilisation de modèles dynamiques rendant compte de l’évolution des pressions aux points d’intérêt en fonction des bruits exogènes. Ce modèle peut être obtenu par une identification fréquentielle des réponses point-à-point ou en utilisant le modèle physique sous jacent (équation des ondes). Dans ce dernier cas, la recherche d'un modèle de dimension finie est souvent un préalable à l’étude conceptuelle d'un système d’ANC. Les contributions de cette thèse portent donc sur l’élaboration de différents modèles simplifiés paramétrés par la position pour les systèmes acoustiques et sur la conception de lois de commande pour l’ANC. Le premier volet de la thèse est dédié à l’élaboration de différents modèles simplifiés de système de propagation acoustique au sein d’une cavité. Pour cela, les simplifications envisagées peuvent être de nature spatiale autant que fréquentielle. Nous montrons notamment qu'il est possible, sous certaines conditions, d’approximer le système 3D par un système 1D. Ceci a été mis en évidence expérimentalement sur le banc d’essai LS2NBox. Le second volet porte sur la conception de lois de commande. En premier lieu, les stratégies de commandes couramment utilisées pour l’ANC sont comparées. L'effet dela commande multi-objectif H en différents points voisins des points d'atténuation est analysé. La possibilité d’une annulation parfaitedu bruit en un point est aussi discutée.


        Date de soutenance : 27-03-2019
        Président du jury : Philippe Chevrel
        Jury :
        • Bruno Gazengel [Président]
        • Daniel Alazard [Rapporteur]
        • Xavier Moreau [Rapporteur]
        • Michel Malabre
        • Delphine Bresch-Pietri
        • Jérôme Lohéac
        • Mohamed Yagoubi

          Tianyi Yu, Décomposition en temps réel de signaux iEMG : filtrage bayésien implémenté sur GPU
        Décomposition en temps réel de signaux iEMG : filtrage bayésien implémenté sur GPU
        Auteur : Tianyi Yu
        Manuscript :


        Mots-clés : Markov modèle cachéFiltrage bayésienCalcul parallèleDécomposition en temps réel
        Résumé

        Un algorithme de décomposition des unités motrices constituant un signal électromyographiques intramusculaires (iEMG) a été proposé au laboratoire LS2N. Il s'agit d'un filtrage bayésien estimant l'état d'un modèle de Markov caché. Cet algorithme demande beaucoup de temps d'execution, même pour un signal ne contenant que 4 unités motrices. Dans notre travail, nous avons d'abord validé cet algorithme dans une structure série. Nous avons proposé quelques modifications pour le modèle de recrutement des unités motrices et implémenté deux techniques de pré-traitement pour améliorer la performance de l'algorithme. Le banc de filtres de Kalman a été remplacé par un banc de filtre LMS. Le filtre global consiste en l'examen de divers scénarios arborescents d'activation des unités motrices: on a introduit deux techniques heuristiques pour élaguer les divers scénarios. On a réalisé l'implémentation GPU de cet algorithme à structure parallèle intrinsèque. On a réussi la décomposition de 10 signaux expérimentaux enregistrés sur deux muscules, respectivement avec électrode aiguille et électrode filaire. Le nombre d'unités motrices est de 2 à 8. Le pourcentage de superposition des potentiels d'unité motrice, qui représente la complexité de signal, varie de 6.56 % à 28.84 %. La précision de décomposition de tous les signaux sont plus que 90 %, sauf deux signaux en 30 % MVC , sauf pour deux signaux qui sont à 30 % MVC et dont la précision de décomposition est supérieure à 85%. Nous sommes les premiers à réaliser la décomposition en temps réel pour un signal constitué de 10 unités motrices.


        Date de soutenance : 28-01-2019
        Président du jury : Yannick Aoustin
        Jury :
        • Zohra Cherfi-Boulanger [Président]
        • Philippe Ravier [Rapporteur]
        • Fabien Campillo [Rapporteur]
        • Dario Farina

        Copyright : LS2N 2017 - Mentions Légales - 
         -