Home » Thèses

Thèses soutenues 2017



  Yuan Bian, Planification tactique de production des flux physiques et financiers d’une chaîne logistique multi-site
Planification tactique de production des flux physiques et financiers d’une chaîne logistique multi-site
Auteur : Yuan Bian
Manuscript :


Mots-clés : Besoin en Fond de RoulementFlux de trésorerie actualisésMaximisation du profit
Résumé

En période de crise financière, les entreprises ont besoin de trésorerie pour réagir efficacement aux aléas et assurer leur solvabilité. Cette thèse se situe à l’interface entre l’opérationnel et la finance pour développer des modèles de planification tactique gérant simultanément les flux physiques et financiers dans la supply chain. Le coût de financement des opérations basé sur le besoin en fond de roulement (BFR) est intégré comme un nouvel aspect financier jamais considéré dans la littérature de lot-sizing. Nous débutons par une extension du modèle EOQ considérant les coûts de financement du BFR. L’objectif est la maximisation du profit. Une quantité de production optimale est obtenue analytiquement ainsi que l’analyse de la sensibilité du modèle. De plus, les comparaisons avec le modèle EOQ et un modèle qui considère le coût du capital sont étudiées. Ensuite, un modèle basé sur un lot-sizing dynamique est établi. La propriété ZIO est démontrée et permet l’utilisation d’un algorithme en temps polynomial. Enfin un scénario multi-niveau à capacité infini est étudié avec une approche séquentielle puis centralisée. La propriété ZIO est prouvée dans ces deux cas. Des algorithmes de programmation dynamique sont utilisés pour obtenir une solution optimale. Cette thèse peut être considérée comme un premier, mais significatif, travail combinant la planification de production et la gestion du besoin en fond de roulement dans des modèles de planification tactique. Nous montrons que les aspects financiers ont un impact significatif sur les plans de production. Les cas étudiés dans cette thèse peuvent être considérés comme des sous-problèmes dans l’étude de scénario plus réalistes.


Date de soutenance : 19-12-2017
Président du jury : Nathalie Bostel
Jury :
  • Jean-Laurent Viviani [Président]
  • Safia Kedad Sidhoum [Rapporteur]
  • Pierre Féniès [Rapporteur]
  • Stefan Helber [Rapporteur]
  • Alexandre Dolgui

  Quentin Adrien Tonneau, Optimisation de la chaine logistique des déchets non dangereux
Optimisation de la chaine logistique des déchets non dangereux
Auteur : Quentin Adrien Tonneau
Manuscript :


Mots-clés : Recherche opérationnelleLogistique des déchetsProblème de tournées avec gestion de stocksMétaheuristiqueStochastique
Résumé

Avec plus de 345 millions de tonnes de déchets produits en France en 2012, la performance de la chaîne logistique de collecte, transport et traitement de ces produits et matériaux est devenue un enjeu économique et écologique majeur dans notre société. Dans cette thèse, nous nous intéressons à l’optimisation de la chaîne de collecte et transport des déchets sur le plan tactique et opérationnel. Nous modélisons dans un premier temps un nouveau problème tactique d’optimisation de flux de déchets avec sites de transfert et de traitement sur un horizon mono-périodique puis multi-périodique, afin d’exploiter un réseau logistique existant de manière optimale. Nous résolvons différentes variantes de ce problème linéaire mixte à l’aide d’un solveur. Nous étudions dans un second temps la planification opérationnelle de la collecte de conteneurs d’apport volontaire et des tournées de véhicules associées en résolvant un problème riche de tournées avec gestion de stocks et plateformes de vidage intermédiaires. Nous proposons un modèle d’optimisation de ce nouveau problème et le résolvons par un algorithme à voisinages larges (ALNS) dans un cadre déterministe puis stochastique, dans lequel le remplissage des conteneurs est aléatoire et plus conforme à la réalité. Nous obtenons des résultats compétitifs en évaluant notre approche sur des instances de la littérature proches de notre problème riche. En réalisant un logiciel d’optimisation à destination d’une entreprise de collecte et transport de déchets, nous améliorons également de manière significative les tournées de véhicules en application réelle.


Date de soutenance : 18-12-2017
Président du jury : Nathalie Bostel
Jury :
  • Olivier Péton [Président]
  • Philippe Lacomme [Rapporteur]
  • Christian Prins [Rapporteur]
  • Pierre Dejax
  • Fabien Tricoire

  Bertrand Miannay, Analyse de réseaux de régulation par approches de coloration de graphes dans le cadre du myélome multiple
Analyse de réseaux de régulation par approches de coloration de graphes dans le cadre du myélome multiple
Auteur : Bertrand Miannay
Manuscript :


Mots-clés : Programmation par contraintesColoration de graphesBiologie des systèmesMyélome multiple
Résumé

Au cours des 2 dernières décennies, l'explosion des capacités de production de données biologiques et des connaissances sur les interactions biologiques ont permis le développement de nombreuses approches intégrant des données avec des connaissances plus générales. Notre principal objectif était de proposer de nouvelles méthodes de caractérisation et de comparaison de profils d'expressions de gènes issus de cellules cancéreuses d'individus atteints de myélome multiple et de plasmocytes normaux. Pour cela, nous proposons 2 méthodes basées sur les colorations de graphes de régulation. La première, qui permet d'inférer l'état des protéines et des facteurs de transcription à partir d'un profil d'expression, nous a permis d'identifier des activités de facteurs de transcription impliqués dans ces tumeurs. La seconde méthode permet de diviser un réseau de régulation en plusieurs sous-graphes indépendant (des composants) vis à vis de colorations dites "parfaites". Via cette approche, nous avons pu évaluer la similarité entre les profils d'expression et les états "parfait" des composants et en identifier spécifiquement perturbés dans les cellules cancéreuses associés à des voies oncogéniques.


Date de soutenance : 05-12-2017
Président du jury : Olivier Roux
Jury :
  • Carito Guziolowski
  • Florence Magrangeas
  • Stéphane Minvielle
  • Mohamed Elati
  • Nathalie Theret
  • Jean-Daniel Zucker

  Yann Briheche, Optimisation du maillage de la veille sur radar à balayage électronique à panneau fixe
Optimisation du maillage de la veille sur radar à balayage électronique à panneau fixe
Auteur : Yann Briheche
Manuscript :


Mots-clés : Recouvrement d'ensembleProblème de recouvrement de grille rectangulaireGestion des ressources radarAntenne réseau à commande de phaseRadar à balayage électroniqueOptimisation combinatoire
Résumé

Les radars modernes sont des systèmes complexes. Leurs missions, incluant surveillance, suivi et identification, se sont étendues conjointement à leurs capacités, favorisées par le développement de l'électronique et du numérique. Ces radars peuvent balayer dynamiquement et librement l'espace grâce à des panneaux numériques, les libérant des limitations des moteurs mécaniques. La guerre électronique, où les temps de réaction sont toujours plus courts, nécessite néanmoins une gestion parcimonieuse du temps disponible au radar pour accomplir ces missions. Dans ce contexte, l'optimisation du temps utilisé pour la surveillance doit exploiter pleinement les capacités des nouveaux radars. Les travaux réalisés durant cette thèse ont été de formaliser mathématiquement ce problème, de déterminer et adapter les outils pertinents pour sa résolution, et d'en explorer les possibilités. Le problème de la surveillance radar se rapproche conceptuellement du recouvrement d'ensemble en optimisation combinatoire. Grâce à des algorithmes utilisant la programmation dynamique et la programmation linéaire en nombres entiers, ce problème a pu être résolu, et étendu à des situations plus complexes, incluant différentes contraintes opérationnelles. Cette approche fructueuse ouvre de nouvelles pistes pour l'amélioration des performances des radars, et offre de nombreuses possibilités d'applications. Entre autres l'aide à la conception des couvertures des radars actuels, la simulation des performances d'architectures de futurs radars et le développement de radars cognitifs, capables de s'adapter à leur environnement opérationnel.


Date de soutenance : 30-11-2017
Président du jury : Fouad Bennis
Jury :
  • Hugh Griffiths
  • Rajib Bhattacharjya
  • Frédéric Barbaresco
  • Georges Fadel
  • Bernard Yannou (Rapporteur)

  Vaiyee Huynh, Stabilité Posturale d’un Exosquelette Actif de Jambes
Stabilité Posturale d’un Exosquelette Actif de Jambes
Auteur : Vaiyee Huynh
Manuscript :


Mots-clés : Point de Capture InstantanéContrôle d’ÉquilibreExosqueletteRépartition des effortsSous-actionnement
Résumé

Quel que soit le type d’exosquelettes de jambes (médical, militaire ou civil), la question de stabi- lité posturale (ou équilibre) du système est très importante, puisqu’il s’agit de robots physiquement attachés à l’utilisateur. Dans le but de respecter au maximum la volonté de l’utilisateur ainsi que ses mouvements, on se doit d’étudier cet aspect. Cette thèse a donc pour objectif de développer des stratégies de commande de gestion d’équilibre pour un exosquelette de jambes pour des applications civiles et industrielles tel que le travail statique. Il s’agit alors d’assister l’équilibre du système couplé { utilisateur valide + exosquelette }, en gérant l’équilibre de l’exosquelette soumis à l’action de l’utilisateur. La commande de gestion d’équilibre proposée s’inspire des commandes développées par le CEA-LIST sur les exosquelettes Hercule et des stratégies de récupération d’équilibre observées chez l’humain. Elle est essentiellement basée sur le concept du point de capture instantané. En effet, le point de capture instantané est un bon outil qui englobe aussi bien le cas statique que le cas dynamique et surtout, qui contient une information sur la direction de mouvement, ce qui nous permet d’anticiper certaines actions comme l’action de faire un pas. La première contribution de cette thèse est l’application d’une commande classique basée sur le point de capture instantané à un exosquelette d’assistance. L’intention de l’utilisateur est détectée à travers la position du point de capture instantané. Suivant sa position dans le polygone de sustentation, l’action de l’exosquelette sur l’utilisateur n’est pas la même : cela va de la simple compensation de gravité à l’assistance au pas. On définit trois modes de commande. L’exosquelette réagit alors en fonction de l’utilisateur en appliquant un effort de correction d’équilibre sur lui et on suppose que l’utilisateur se laisse guider par le robot sans opposer de résistance. La deuxième contribution concerne les coefficients de répartition des efforts sur les deux jambes de l’exosquelette. L’expérience de la commande « Maître-Esclave » du CEA-LIST nous apprend que l’une des difficultés pour l’utiiisateur, est de gérer le transfert du poids du robot pour lever la jambe et faire un pas. On propose alors une nouvelle répartition des efforts basée sur la position du point de capture instantané et capable d’anticiper les perturbations et le pas de l’utilisateur : l’exosquelette anticipe le transfert de charge d’une jambe à l’autre pour faciliter la levée de la jambe de l’utilisateur lorsqu’il veut se déplacer. Enfin, la dernière contribution est la gestion du sous-actionnement (toutes les articulations ne sont pas motorisées) en phase de double support via un calcul d’optimisation qui a pour objectif de suivre la répartition des efforts désirée et de maîtriser les forces d’interaction entre l’utilisateur et l’exosquelette. Seule la répartition des efforts sur les deux jambes a été testé sur l’exosquelette EMY-Balance du CEA-LIST qui est un exosquelette sous actionné. Ceci a permis de partiellement valider expérimentalement l’approche proposée dans cette thèse.


Date de soutenance : 23-11-2017
Président du jury : Christine Chevallereau
Jury :

      Soufian Antoine Salim, Analyse discursive et multi-modale des conversations écrites en ligne portées sur la résolution de problèmes
    Analyse discursive et multi-modale des conversations écrites en ligne portées sur la résolution de problèmes
    Auteur : Soufian Antoine Salim
    Manuscript :


    Mots-clés : Actes de dialogueDiscoursCommunication médiée par les réseaux
    Résumé

    Nous nous intéressons aux conversations écrites en ligne orientées vers la résolution de problèmes. Dans la littérature, les interactions entre humains sont typiquement modélisées en termes d’actes de dialogue, qui désignent les types de fonctions remplies par les énoncés dans un discours. Nous cherchons à utiliser ces actes pour analyser les conversations écrites en ligne. Un cadre et des méthodes bien définies permettant une analyse fine de ce type de conversations en termes d’actes de dialogue représenteraient un socle solide sur lequel pourraient reposer différents systèmes liés à l’aide à la résolution des problèmes et à l’analyse des conversations écrites en ligne. De tels systèmes représentent non seulement un enjeu important pour l’industrie, mais permettraient également d’améliorer les plate-formes d’échanges collaboratives qui sont quotidiennement sollicitées par des millions d’utilisateurs. Cependant, les techniques d’identification de la structure des conversations n’ont pas été développées autour des conversations écrites en ligne. Il est nécessaire d’adapter les ressources existantes pour ces conversations. Cet obstacle est à placer dans le cadre de la recherche en communication médiée par les réseaux (CMR), et nous confronte à ses problématiques propres. Notre objectif est de modéliser les conversations écrites en ligne orientées vers la résolution de problèmes en termes d’actes de dialogue, et de proposer des outils pour la reconnaissance automatique de ces actes.


    Date de soutenance : 22-11-2017
    Président du jury : Emmanuel Morin
    Jury :

        Gwendal Daniel, Persistance, requêtage, et transformation efficaces de grands modèles
      Persistance, requêtage, et transformation efficaces de grands modèles
      Auteur : Gwendal Daniel
      Manuscript :


      Mots-clés : IDMPassage à l’échelleRequêtage de modèleTransformation de modèle
      Résumé

      L’Ingénierie Dirigée par les Modèles (IDM) est une méthode de développement logicielle ayant pour but d’améliorer la productivité et la qualité logicielle en utilisant les modèles comme artefacts de premiers plans durant le processus développement. Dans cette approche, les modèles sont typiquement utilisés pour représenter des vues abstraites d’un système, manipuler des données, valider des propriétés, et sont finalement transformés en ressources applicatives (code, documentation, tests, etc). Bien que les techniques d’IDM aient montré des résultats positifs lors de leurs intégrations dans des processus industriels, les études montrent que la mise à l’échelle des solutions existantes est un des freins majeurs à l’adoption de l’IDM dans l’industrie. Ces problématiques sont particulièrement importantes dans le cadre d’approches génératives, qui nécessitent des techniques efficaces de stockage, requêtage, et transformation de grands modèles typiquement construits dans un contexte mono-utilisateur. Plusieurs solutions de persistance, requêtage, et transformations basées sur des bases de données relationnelles ou NoSQL ont été proposées pour améliorer le passage à l’échelle, mais ces dernières sont souvent basées sur une seule sérialisation model/base de données, adaptée à une activité de modélisation particulière, mais peu efficace pour d’autres cas d’utilisation. Par exemple, une sérialisation en graphe est optimisée pour calculer des chemins de navigations complexes,mais n’est pas adaptée pour accéder à des valeurs atomiques de manière répétée. De plus, les frameworks de modélisations existants ont été initialement développés pour gérer des activités simples, et leurs APIs n’ont pas évolué pour gérer les modèles de grande taille, limitant les performances des outils actuels. Dans cette thèse nous présentons une nouvelle infrastructure de modélisation ayant pour but de résoudre les problèmes de passage à l’échelle en proposant (i) un framework de persistance permettant de choisir la représentation bas niveau la plus adaptée à un cas d’utilisation, (ii) une solution de requêtage efficace qui délègue les navigations complexes à la base de données stockant le modèle,bénéficiant de ses optimisations bas niveau et améliorant significativement les performances en terme de temps d’exécution et consommation mémoire, et (iii) une approche de transformation de modèles qui calcule directement les transformations au niveau de la base de données. Nos solutions sont construites en utilisant des standards OMG tels que UML et OCL, et sont intégrées dans les solutions de modélisations majeures telles que ATL ou EMF.


      Date de soutenance : 14-11-2017
      Président du jury : Jordi Cabot
      Jury :
      • Jean-Claude Royer [Président]
      • Marie-Pierre Gervais [Rapporteur]
      • Jean-Michel Bruel [Rapporteur]
      • Sébastien Gérard

        Saurabh Puri, Apprentissage, sélection et codage de nouvelles transformées de blocs dans et pour la boucle d’optimisation de codeurs vidéo
      Apprentissage, sélection et codage de nouvelles transformées de blocs dans et pour la boucle d’optimisation de codeurs vidéo
      Auteur : Saurabh Puri
      Manuscript :


      Mots-clés : Transformations de blocsTransformations dépendantes du signalTransformations basées sur l’apprentissageOptimisation transformée-débit-distortionHEVCCompression vidéo
      Résumé

      Les transformées sont un élément clé dans les systèmes de codage vidéo par blocs. Cette thèse approfondit les schémas d’apprentissage à multiples transformées. Une première contribution de ce travail est consacrée à l’évaluation de schémas d’apprentissage de transformées de deux types en ligne et hors ligne. Les deux approches sont comparées en détail et leur pertinence respective révélées. Nous proposons ensuite plusieurs techniques afin d’améliorer la stabilité du système d’apprentissage et réduire le coût de la signalisation. Une seconde contribution concerne les schémas d’apprentissage multi-transformées hors ligne déjà connus qui sont étendus avec pour objectifs de 1) fournir des transformées plus génériques et moins biaisées, 2) obtenir des gains de compression plus élevés, 3) réduire la complexité d’encodage et de décodage. On propose un schéma dit IMDTC (Improved Mode Dependent Transform Competition) qui offre un gain de codage très significatif, plus de 5% par rapport à HEVC standard sous la configuration All Intra (AI), avec une augmentation de complexité raisonnable. Enfin, l’adaptabilité au contenu de l’apprentissage hors ligne est étendue en explorant une nouvelle approche d’apprentissage des transformées basée sur des jeux de transformées adaptées à des contenus. Plusieurs ensembles contenant de multiples transformées sont appris sur différents contenus et regroupés en jeu. Lors du codage d’une région donnée d’une image, un ensemble de transformées est sélectionné localement à partir du jeu. Les résultats numériques montrent le potentiel élevé de cette approche par rapport aux approches classiques en ligne et hors ligne.


      Date de soutenance : 09-11-2017
      Président du jury : Patrick Le Callet(patrick.lecallet@univ-nantes.fr)
      Jury :

          Gilles Madi Wamba, Combiner la programmation par contraintes et l’apprentissage machine pour construire un modèle éco-énergétique pour petits et moyens data centers
        Combiner la programmation par contraintes et l’apprentissage machine pour construire un modèle éco-énergétique pour petits et moyens data centers
        Auteur : Gilles Madi Wamba
        Manuscript :


        Mots-clés : Apprentissage machinePlanification de tâchesProgrammation par contraintesCloud computing
        Résumé

        Au cours de la dernière décennie les technologies de cloud computing ont connu un essor considérable se traduisant par la montée en flèche de la consommation électrique des data center. L’ampleur du problème a motivé de nombreux travaux de recherche s’articulant autour de solutions de réduction statique ou dynamique de l’enveloppe globale de consommation électrique d’un data center. L’objectif de cette thèse est d’intégrer les sources d’énergie renouvelables dans les modèles d’optimisation dynamique d’énergie dans un data center. Pour cela nous utilisons la programmation par contraintes ainsi que des techniques d’apprentissage machine. Dans un premier temps, nous proposons une contrainte globale d’intersection de tâches tenant compte d’une ressource à coûts variables. Dans un second temps, nous proposons deux modèles d’apprentissage pour la prédiction de la charge de travail d’un data center et pour la génération de telles courbes. Enfin, nous formalisons le problème de planification énergiquement écologique (PPEE) et proposons un modèle global à base de PPC ainsi qu’une heuristique de recherche pour le résoudre efficacement. Le modèle proposé intègre les différents aspects inhérents au problème de planification dynamique dans un data center : machines physiques hétérogènes, types d’applications variés (i.e., applications interactives et applications par lots), opérations et coûts énergétiques de mise en route et d’extinction des machines physiques, interruption/reprise des applications par lots, consommation des ressources CPU et RAM des applications, migration des tâches et coûts énergétiques relatifs aux migrations, prédiction de la disponibilité d’énergie verte, consommation énergétique variable des machines physiques.


        Date de soutenance : 27-10-2017
        Président du jury : Nicolas Beldiceanu
        Jury :
        • Jean-Marc Pierson [Président]
        • Sara Bouchenak [Rapporteur]
        • Arnaud Lallouet [Rapporteur]
        • Laurent Perron

          Walid Benghabrit, Un modèle formel pour la responsabilisation
        Un modèle formel pour la responsabilisation
        Auteur : Walid Benghabrit
        Manuscript :


        Mots-clés : Vie privéeLogique temporelleMonitorageResponsabilisationSécurité
        Résumé

        Nous assistons à la démocratisation des services ducloud et de plus en plus d’utilisateurs (individuels ouentreprises) utilisent ces services dans la vie de tous lesjours. Dans ces scénarios, les données personnellestransitent généralement entre plusieurs entités.L’utilisateur final se doit d’être informé de la collecte, dutraitement et de la rétention de ses donnéespersonnelles, mais il doit aussi pouvoir tenir pourresponsable le fournisseur de service en cas d’atteinte àsa vie privée. La responsabilisation (ou accountability)désigne le fait qu’un système ou une personne estresponsable de ses actes et de leurs conséquences.Dans cette thèse nous présentons un framework deresponsabilisation AccLab qui permet de prendre enconsidération la responsabilisation dès la phase deconception d’un système jusqu’à son implémentation.Afin de réconcilier le monde juridique et le mondeinformatique, nous avons développé un langage dédiénommé AAL permettant d’écrire des obligations et despolitiques de responsabilisation. Ce langage est basé surune logique formelle FOTL ce qui permet de vérifier lacohérence des politiques de responsabilisation ainsi quela compatibilité entre deux politiques. Les politiques sontensuite traduites en une logique temporelle distribuéeque nous avons nommée FO-DTL 3, cette dernière estassociée à une technique de monitorage basée sur laréécriture de formules. Enfin nous avons développé unoutil monitorage appelé AccMon qui fournit des moyensde surveiller les politiques de responsabilisation dans lecontexte d’un système réel. Les politiques sont fondéessur la logique FO-DTL 3 et le framework peut agir enmode centralisée ou distribuée et fonctionne à la fois enligne et hors ligne.


        Date de soutenance : 27-10-2017
        Président du jury : Jean-Claude Royer
        Jury :
        • Daniel Le Métayer [Président]
        • Ana Cavalli [Rapporteur]
        • Yves Roudier [Rapporteur]
        • Nora Cuppens
        • Anderson Santana de Oliveira
        • Hervé Grall

          Ting Zhang, Nouvelles architectures pour la reconnaissance des expressions mathématiques manuscrites
        Nouvelles architectures pour la reconnaissance des expressions mathématiques manuscrites
        Auteur : Ting Zhang
        Manuscript :


        Mots-clés : Reconnaissance d’expressions mathématiquesRéseaux de neurones récurrentsBLSTMÉcriture en ligne
        Résumé

        Véritable challenge scientifique, la reconnaissance d’expressions mathématiques manuscrites est un champ très attractif de la reconnaissance des formes débouchant sur des applications pratiques innovantes. En effet, le grand nombre de symboles (plus de 100) utilisés ainsi que la structure en 2 dimensions des expressions augmentent la difficulté de leur reconnaissance. Dans cette thèse, nous nous intéressons à la reconnaissance des expressions mathématiques manuscrites en-ligne en utilisant de façon innovante les réseaux de neurones récurrents profonds BLSTM avec CTC pour construire un système d’analyse basé sur la construction de graphes. Nous avons donc étendu la structure linéaire des BLSTM à des structures d’arbres (Tree-Based BLSTM) permettant de couvrir les 2 dimensions du langage. Nous avons aussi proposé d’ajouter des contraintes de localisation dans la couche CTC pour adapter les décisions du réseau à l’échelle des traits de l’écriture, permettant une modélisation et une évaluation robustes. Le système proposé construit un graphe à partir des traits du tracé à reconnaître et de leurs relations spatiales. Plusieurs arbres sont dérivés de ce graphe puis étiquetés par notre Tree-Based BLSTM. Les arbres obtenus sont ensuite fusionnés pour construire un SLG (graphe étiqueté de traits) modélisant une expression 2D. Une différence majeure par rapport aux systèmes traditionnels est l’absence des étapes explicites de segmentation et reconnaissance des symboles isolés puis d’analyse de leurs relations spatiales, notre approche produit directement un graphe SLG. Notre système sans grammaire obtient des résultats comparables aux systèmes spécialisés de l’état de l’art.


        Date de soutenance : 26-10-2017
        Président du jury : Christian Viard-Gaudin
        Jury :
        • Laurence LIKFORMAN-SULEM
        • Thierry PAQUET
        • Christophe GARCIA

          Rola Osta, Contributions à l’Ordonnancement en Temps Réel pour les Systèmes Autonomes en Energie.
        Contributions à l’Ordonnancement en Temps Réel pour les Systèmes Autonomes en Energie.
        Auteur : Rola Osta
        Manuscript :


        Mots-clés : Earliest Deadline FirstRécupération d’énergieService apériodiqueOrdonnancement préemptif
        Résumé

        Aujourd’hui, la récupération d’énergie renouvelable (energy harvesting) comme celle envisagée pour de nombreux objets sans fil, rend possible un fonctionnement quasi-perpétuel de ces systèmes, sans intervention humaine, car sans recharge périodique de batterie ou de pile. Concevoir ce type de système autonome d’un point de vue énergétique devient très complexe lorsque celui-ci a en plus un comportement contraint par le temps et en particulier doit respecter des échéances de fin d’exécution au plus tard. Comme pour tout système temps réel, une problématique incontournable est de trouver un mécanisme d’ordonnancement dynamique capable de prendre en compte conjointement deux contraintes clés : le temps et l’énergie. Dans cette thèse, nous nous intéressons à l’ordonnancement de tâches mixtes constituées de tâches périodiques et de tâches apériodiques souples sans échéance, tout en répondant à une question clé: comment servir les tâches apériodiques pour minimiser leur temps de réponse sans remettre en question la faisabilité des tâches périodiques. Nous considérons un système monoprocesseur monofréquence, alimenté par un réservoir d’énergie approvisionné par une source environnementale. Dans ce cadre, nous avons proposé quatre nouveaux serveurs de tâches apériodiques utilisables avec l’ordonnanceur optimal ED-H. L’étude a comporté une phase de validation théorique puis une étude de simulation.


        Date de soutenance : 26-10-2017
        Président du jury : Maryline Chetto
        Jury :

            Mira Abboud, Software Architecture Extraction : Meta-model, model and tool
          Software Architecture Extraction : Meta-model, model and tool
          Auteur : Mira Abboud
          Manuscript :


          Mots-clés : Extraction d'architecture logicielle
          Résumé

          Face à la complexité croissante des systèmes logiciels, les architectures logicielles sont apparues comme un allié précieux pour la conception et la maintenance de ces systèmes. Cependant, pour de nombreux systèmes, la représentation de leur architecture n’est pas fiable ; elle est soit indisponible, soit insuffisante ou soit non mise à jour. Pour pallier ce problème qui met en danger la maintenance, l’évolution, la réutilisation et la migration d’un système, l’extraction d’une architecture du système est souvent proposée comme une bonne alternative. L’extraction d’une architecture logicielle est définie comme la science de l’analyse et de la conversion du code source en une architecture logicielle. Cette thèse contribue à apporter une solution au problème d’inexistence d’outil de mesure pour les processus d’extraction d’une architecture logicielle. Ainsi, nous proposons un méta-modèle appelé SArEM (Software Architecture Extraction Meta- model) qui spécifie les différents processus d’extraction d’une architecture logicielle. Le méta- modèle est basé sur le méta-modèle SPEM et couvre les principaux concepts des processus d’extraction d’une architecture logicielle. En outre, nous fournissons un outil qui permet aux architectes de construire leur propre pro- cessus, d’interagir avec les sorties générées et de découvrir une architecture logicielle conforme à leurs souhaits. Plus précisément, nous proposons une approche d’extraction d’une architec- ture logicielle appelée SAD (Software Architecture Discovery) basée sur ECD (Extraction de Connaissances à partir des Données). SAD consiste à considérer l’extraction d’une architecture logicielle comme un processus de découverte de nouvelles connaissances. Ainsi, notre contri- bution est articulée autour deux points : le premier point est la suggestion d’un processus gé- nérique pour l’extraction d’une architecture logicielle et le second point est l’élaboration d’une extension d’un outil ECD qui supporte l’exécution des processus d’extraction d’une architecture logicielle.


          Date de soutenance : 25-10-2017
          Président du jury : Mourad oussalah
          Jury :

              Nicolas David, Réseaux de Petri à Paramètres Discrets
            Réseaux de Petri à Paramètres Discrets
            Auteur : Nicolas David
            Manuscript :


            Mots-clés : Réseaux de PetriParamètresSynthèseDécidabilitéComplexitéCouvertureAccessibilité
            Résumé

            Afin de permettre une modélisation plus souple des systèmes, nous proposons d’étendre les réseaux de Petri par des paramètres discrets représentant le poids des arcs ou le nombre de jetons présents dans les places. Dans ce modèle, tout problème de décision peut être décliné sous deux versions, une universelle, demandant si la propriété considérée est vraie quelles que soient les valeurs que prennent les paramètres et une existentielle, qui s’interroge sur l’existence d’une valeur pour les paramètres telle que la propriété soit satisfaite. Concernant la couverture, nous montrons que ces deux problèmes sont indécidables dans le cas général. Nous introduisons donc des sous classes syntaxiques basées sur la restriction des paramètres aux places, aux arcs en sortie ou aux arcs en entrée des transitions. Dans ces différents cas, nous montrons que la couverture existentielle et universelle sont décidables et EXPSPACE-complètes. Nous étudions alors le problème de la synthèse de paramètres qui s’intéresse à calculer l’ensemble des valeurs de paramètres telles que la propriété considérée soit vraie. Sur les sous classes introduites, concernant la couverture, nous montrons que les ensembles solutions à la synthèse ont des structures fermée supérieurement (cas des arcs de sortie) et fermée inférieurement (cas des arcs d’entrée). Nous prouvons alors que ces ensembles se calculent par un algorithme de la littérature, proposé par Valk et Jantzen, dont les conditions d’application se réduisent aux problèmes de décision étudiés précédemment. Enfin nous étudions les frontières de décision en nous intéressant aux versions paramétrées de l’accessibilité pour ces sous classes.


            Date de soutenance : 20-10-2017
            Président du jury : Claude JARD
            Jury :

                Ranjan Kumar Hasda, Contribution à l'optimisation de Problème d'Agencement d’Espaces Rectangulaires Inégaux
              Contribution à l'optimisation de Problème d'Agencement d’Espaces Rectangulaires Inégaux
              Auteur : Ranjan Kumar Hasda
              Manuscript :


              Mots-clés : OptimisationAlgorithme GénétiqueAgencement d’EspaceApproche HybrideConstruction-Amélioration
              Résumé

              L'agencement d'espace est un problème courant dans la plupart des secteurs industriels. Ce problème est de nature continue et discret et il est considéré comme un problème NP-difficile. Les méthodes d'optimisation traditionnelles, plus appropriées pour une recherche locale sont difficilement utilisables aux problèmes d'agencement. Afin de contourner ces limitations inhérentes aux méthodes classiques, nous proposons deux algorithmes adaptés aux problèmes d'agencement statique de composants de différentes tailles. Pour les problèmes d'agencement considérés, les fonctions objectives à minimiser sont non linéaires et représentent les coûts associés aux sommes pondérées des distances entre les composants. La première approche que nous considérons est une méthode hybride en deux étapes. La première étape consiste à construire un agencement en se basant sur la méthode dite "bas-gauche" comme une solution locale. Ensuite, la solution obtenue est améliorée en appliquant un algorithme génétique modifié. Les opérateurs de croisement et de mutation sont alors adaptés pour prendre en compte les spécificités du problème d'agencement. La deuxième approche est une combinaison entre une recherche locale et globale. Dans ce cas, l'algorithme génétique est également modifié par l'introduction d'un opérateur spécialisé pour le traîtement des rotations des composants. Il permet notamment d'éviter le couplage entre les variables réelles et entières et permet également de réduire considérablement le nombre de variables du problème d'optimisation. Les performances des deux approches sont testées et comparées avec les exemples de référence extraits des publications traitant du problème d'optimisation d'agencement. Nous démontrons que les deux approches que nous proposons obtiennent de meilleures performances que les approches existantes.


              Date de soutenance : 17-10-2017
              Président du jury : Fouad Bennis(fouad.bennis@irccyn.ec-nantes.fr)
              Jury :

                  Joseph Lark, Construction semi-automatique de ressources pour la fouille d'opinion
                Construction semi-automatique de ressources pour la fouille d'opinion
                Auteur : Joseph Lark
                Manuscript :
                Equipe : TALN.


                Mots-clés : Fouille d'opinionTraitement automatique des languesRessources spécialisées
                Résumé

                Identifying satisfaction triggers among customers is a crucial need in today's business world, as a strong customer relationship is now a most vital asset. The domain of opinion mining, in which this thesis falls into, offers several methods to answer this need. These methods, however, require a continuous update of specialized resources which are the cornerstone of many opinion mining tools. The objective of this work is to develop acquisition and structuration strategies for these resources, which can be lexicons, morphosyntactic rules or annotated data. Each of these items presents its own extraction difficulties, on top of the general issue of their update in a language- or domain-specific setting. Indeed, language constraints are fundamental in opinion mining, so the proposed methods must take these into account. First, we study the core elements from which opinion expressions are built in customer feedback. This study leads us to suggest a new modelisation of opinion mining as a sequence labeling task. We then compare the benefits of each type of resource through a benchmark of several opinion mining methods, and conclude that the best performing strategy is a hybrid approach. Finally, we present results for resource acquisition methods that answer not only the needs of opinion mining but also the constraints from the industrial setting in which this work has been conducted.


                Date de soutenance : 17-10-2017
                Président du jury : Emmanuel Morin
                Jury :

                    Anicet Bart, Modélisation et résolution par contraintes de problèmes de vérification
                  Modélisation et résolution par contraintes de problèmes de vérification
                  Auteur : Anicet Bart
                  Manuscript :
                  Equipe : TALN.


                  Mots-clés : Modélisation par contraintesRésolution par contraintesVérification de programmesInterprétation abstraiteVérification de modèles
                  Résumé

                  La programmation par contraintes offre des langages et des outils permettant de résoudre des problèmes à forte combinatoire et à la complexité élevée tels que ceux qui existent en vérification de programmes. Dans cette thèse nous résolvons deux familles de problèmes de la vérification de programmes. Dans chaque cas de figure nous commençons par une étude formelle du problème avant de proposer des modèles en contraintes puis de réaliser des expérimentations. La première contribution concerne un langage réactif synchrone représentable par une algèbre de diagramme de blocs. Les programmes utilisent des flux infinis et modélisent des systèmes temps réel. Nous proposons un modèle en contraintes muni d’une nouvelle contrainte globale ainsi que ses algorithmes de filtrage inspirés de l’interprétation abstraite. Cette contrainte permet de calculer des sur-approximations des valeurs des flux des diagrammes de blocs. Nous évaluons notre processus de vérification sur le langage FAUST, qui est un langage dédié à la génération de flux audio. La seconde contribution concerne les systèmes probabilistes représentés par des chaînes de Markov à intervalles paramétrés, un formalisme de spécification qui étend les chaînes de Markov. Nous proposons des modèles en contraintes pour vérifier des propriétés qualitatives et quantitatives. Nos modèles dans le cas qualitatif améliorent l’état de l’art tandis que ceux dans le cas quantitatif sont les premiers proposés à ce jour. Nous avons implémenté nos modèles en contraintes en problèmes de programmation linéaire en nombres entiers et en problèmes de satisfaction modulo des théories. Les expériences sont réalisées à partir d’un jeu d’essais de la bibliothèque PRISM.


                  Date de soutenance : 17-10-2017
                  Président du jury : Éric Monfroy
                  Jury :
                  • Béatrice Bérard [Président]
                  • Salvador Abreu [Rapporteur]
                  • Nicolas Beldiceanu
                  • Philippe Codognet
                  • Charlotte Truchet

                    Pauline Folz, Collaboration dans une fédération de consommateurs de données liées
                  Collaboration dans une fédération de consommateurs de données liées
                  Auteur : Pauline Folz
                  Manuscript :
                  Equipe : GDD.


                  Mots-clés : Web sémantiqueCache collaboratifOrdonnancementFédérationSPARQLTPFRéseaux superposésPair-à-pair
                  Résumé

                  Les producteurs de données ont publié des millions de faits RDF sur le Web en suivant les principes des données liées. N’importe qui peut récupérer des informations utiles en interrogeant les données liées avec des requêtes SPARQL. Ces requêtes sont utiles dans plusieurs domaines, comme la santé ou le journalisme des données. Cependant, il y a un compromis entre la performance des requêtes et la disponibilité des données lors de l’exécution des requêtes SPARQL. Dans cette thèse, nous étudions comment la collaboration des consommateurs de données ouvre de nouvelles opportunités concernant ce compromis. Plus précisément, comment la collaboration des consommateurs de données peut : améliorer les performances sans dégrader la disponibilité, ou améliorer la disponibilité sans dégrader les performances. Nous considérons que les données liées permettent à n’importe qui d’exécuter un médiateur compact qui peut interroger des sources de données sur le Web grâce à des requêtes SPARQL. L’idée principale est de connecter ces médiateurs ensemble pour construire une fédération de consommateurs de données liées. Dans cette fédération, chaque médiateur interagit avec un sous-ensemble du réseau. Grâce à cette fédération, nous avons construit : (i) un cache décentralisé hébergé par les médiateurs. Ce cache côté client permet de prendre en charge une part importante des sous-requêtes et d’améliorer la disponibilité des données avec un impact faible sur les performances. (ii) un algorithme de délégation qui permet aux médiateurs de déléguer leurs requêtes à d’autres médiateurs. Nous démontrons que la délégation permet d’exécuter un ensemble de requêtes plus rapidement quand les médiateurs collaborent. Cela améliore les performances sans dégrader la disponibilité des données.


                  Date de soutenance : 12-10-2017
                  Président du jury : Pascal Molli
                  Jury :

                      Sylvain Lanneau, Localisation et estimation basées modèle d’un objet ellipsoidal avec le sens électrique artificiel
                    Localisation et estimation basées modèle d’un objet ellipsoidal avec le sens électrique artificiel
                    Auteur : Sylvain Lanneau
                    Manuscript :
                    Equipe : GDD.


                    Mots-clés : Robotique sous-MarineSens électrique artificielInspection d’objetLocalisationEstimation de forme
                    Résumé

                    Le but de cette thèse est de contribuer à la perception sous-marine pour des applications de robotique grâce à un champ électrique. Nous proposons de nouvelles méthodes pour l’inspection, la localisation et l’estimation de forme d’un objet ellipsoïdal en utilisant un capteur inspiré des poissons faiblement électriques. Premièrement, nous montrons que l’objet peut être détecté et que son matériau et sa position par rapport à l’axe du capteur peuvent être discriminés en utilisant de simples détections de seuils sur les courants mesurés. Ensuite, nous proposons l’implémentation successive de trois lois de contrôle réactives permettant au capteur de se diriger vers l’objet et d’effectuer une révolution autour de celui-ci en suivant ses frontières. Puis, nous utilisons l’algorithme MUSIC afin de localiser le centre de l’objet. Enfin, les paramètres géométriques de l’objet et son orientation sont estimés grâce à une méthode d’optimisation basée sur les moindres carrés et sur l’inversion du modèle analytique du tenseur de polarisation d’un objet ellipsoïdal. Nous montrons que ces algorithmes fonctionnent en conditions expérimentales. Pour les algorithmes de localisation et d’estimation de forme, des techniques impliquant des déplacements du capteur sont proposées, afin de réduire significativement les imprécisions dues aux écarts entre le modèle et les mesures de courant.


                    Date de soutenance : 04-10-2017
                    Président du jury : Frédéric Boyer
                    Jury :
                    • Luc Jaulin [Président]
                    • Habib Ammari [Rapporteur]
                    • Nicolas Andreff [Rapporteur]
                    • Stéphane Viollet
                    • Fabien Candelier
                    • Vincent Creuze
                    • Vincent Lebastard

                      Yacine Bouallouche, Méta-modèle et cadre méthodologique pour l'ingénierie d'une organisation étendue. Application à une administration étendue
                    Méta-modèle et cadre méthodologique pour l'ingénierie d'une organisation étendue. Application à une administration étendue
                    Auteur : Yacine Bouallouche
                    Manuscript :
                    Equipe : GDD.


                    Mots-clés : Gestion publiqueValeur publiqueGénie industrielRéseau d’organisationsPartenariat public-privéModélisation d’entrepriseInteropérabilitéContrôle inter-organisationnel
                    Résumé

                    L’accélération des changements politiques et socio-économiques influe fortement sur l’équilibre budgétaire des organisations publiques. Elles sont contraintes de tendre vers un modèle d’organisation plus réactif et flexible. Pour les organisations publiques, l’enjeu est de déterminer la meilleure hybridation public-privé, déclinée en une structure réticulaire, permettant d’assurer la performance économique de leurs services mais également la création de valeur publique. Ces réorganisations présentent de nombreux écueils insuffisamment adressés par la littérature en gestion publique. Elle analyse les évolutions et les lacunes en matière de management dans la sphère publique mais elle ne propose que rarement les méthodes et outils supportant les formes de management qu’elle recommande. Dans ce contexte, l’objectif de cette thèse est de s’approprier la littérature en gestion publique pour y apporter un nouveau regard et proposer la mise en oeuvre de modèles, méthodes et outils du génie industriel. Ainsi, nous proposons un méta-modèle et un cadre méthodologique pour l’ingénierie d’une organisation étendue. Cette proposition vise à maîtriser la complexité d’une structure réticulaire sans nuire à l’autonomie des organisations (publiques et/ou privées) qui la composent. La mise en oeuvre de la méthodologie proposée est illustrée par le biais d’un cas d’école inspiré de la fonction habillement du ministère des Armées : le scénario d’une externalisation de cette fonction habillement est étudié en prenant en considération son inclusion dans une structure réticulaire.


                    Date de soutenance : 25-09-2017
                    Président du jury : Alain Bernard
                    Jury :

                        Yacine Hebbal, Mécanismes de monitoring sémantique dédiés à la sécurité des infrastructures cloud IaaS
                      Mécanismes de monitoring sémantique dédiés à la sécurité des infrastructures cloud IaaS
                      Auteur : Yacine Hebbal
                      Manuscript :
                      Equipe : GDD.


                      Mots-clés : Introspection de Machine VirtuelleLe Fossé SémantiqueAnalyse Binaire StatiqueRéutilisation du Code Binaire
                      Résumé

                      L’introspection de machine virtuelle (VM) consiste à superviser les états et les activités de celles-ci depuis la couche de virtualisation, tirant ainsi avantage de son emplacement qui offre à la fois une bonne visibilité des états et des activités des VMs ainsi qu’une bonne isolation de ces dernières. Cependant, les états et les activités des VMs à superviser sont vus par la couche de virtualisation comme une suite binaire de bits et d’octets en plus des états des ressources virtuelles. L’écart entre la vue brute disponible à la couche de virtualisation et celle nécessaire pour la supervision de sécurité des VMs constitue un challenge pour l’introspection appelé « le fossé sémantique ». Pour obtenir des informations sémantiques sur les états et les activités des VMs à fin de superviser leur sécurité, nous présentons dans cette thèse un ensemble de techniques basé sur l’analyse binaire et la réutilisation du code binaire du noyau d’une VM. Ces techniques permettent d’identifier les adresses et les noms de la plupart des fonctions noyau d’une VM puis de les instrumenter (intercepter, appeler et analyser) pour franchir le fossé sémantique de manière automatique et efficiente même dans les cas des optimisations du compilateur et de la randomisation de l’emplacement du code noyau dans la mémoire de la VM.


                      Date de soutenance : 18-09-2017
                      Président du jury : Jean-Marc Menaud
                      Jury :
                      • Éric Totel [Président]
                      • Daniel Hagimont [Rapporteur]
                      • Vania Marangozova [Rapporteur]
                      • Sylvie Laniepce
                      • Frédéric Le Mouël

                        Michel Albonico, Test de système élastiques basés sur le Cloud
                      Test de système élastiques basés sur le Cloud
                      Auteur : Michel Albonico
                      Manuscript :
                      Equipe : GDD.


                      Mots-clés : ContrôlabilitéTest pendant l’élasticitéCloud ComputingÉlasticité
                      Résumé

                      Les systèmes déployés dans être testés pendant l’élasticité, ce qui entraîne plusieurs problématiques. D’abord, l’exécution d’un test pendant l’élasticité peut exiger de conduire le CBS dans une succession de comportements élastiques spécifiques, càd., une séquence d’ajout/retrait de ressources, qui nécessite des variations précises de la charge des requêtes envoyées au cloud. Seconde, certaines adaptations du CBS ne sont réalisées qu’à un moment précis, par exemple après un ajout de ressources et, par conséquent, leurs tests doivent être synchronisés avec des états spécifiques du CBS. Troisième, les testeurs doivent rejouer les tests pendant l’élasticité de manière déterministe afin de déboguer et corriger le CBS. Quatrième, la création des tests pendant l’élasticité est complexe et laborieuse dû au large nombre de paramètres, et à la particularité du cloud computing. Enfin, seulement quelques combinaisons de paramètres peuvent causer des problèmes au CBS, que les cas de test créés au hasard peuvent manquer, alors qu’un jeu de tests couvrant toutes les combinaisons possibles serait trop grand et impossible à exécuter. Dans cette thèse, nous abordons toutes ces problématiques en proposant plusieurs approches :1) une approche qui conduit les CBSs dans une suite de comportements élastiques prédéfinis, 2) une approche qui synchronise l’exécution des tests selon les états du CBS, 3) une approche qui permette la reproduction des tests pendant l’élasticité, 4) un langage spécifique à ce domaine (DSL, selon l’acronyme anglais) qui résume la mise en œuvre des tests pendant l’élasticité, 5) une approche qui génère des petits ensembles de tests pendant l’élasticité tout en révélant des problèmes liés à l’élasticité.


                      Date de soutenance : 28-08-2017
                      Président du jury : Gerson Sunyé
                      Jury :
                      • Philippe Lamarre [Président]
                      • Eduardo Cunha de Almeida [Rapporteur]
                      • Lydie du Bousquet [Rapporteur]
                      • Jean-Marc Menaud

                        Alex Kosgodagan, Modélisation de dépendance en grandes dimensions par les réseaux Bayésiens pour la détérioration d’infrastructures et autres applications
                      Modélisation de dépendance en grandes dimensions par les réseaux Bayésiens pour la détérioration d’infrastructures et autres applications
                      Auteur : Alex Kosgodagan
                      Manuscript :
                      Equipe : GDD.


                      Mots-clés : Jugement structuré d’expertModélisation de copulesModèle de dégradation probabilisteRéseaux Bayésiens
                      Résumé

                      Cette thèse explore l’utilisation des réseaux Bayésiens (RB) afin de répondre à des problématiques de dégradation en grandes dimensions concernant des infrastructures du génie civil. Alors que les approches traditionnelles basées l’évolution physique déterministe de détérioration sont déficientes pour des problèmes à grande échelle, les gestionnaires d’ouvrages ont développé une connaissance de modèles nécessitant la gestion de l’incertain. L’utilisation de la dépendance probabiliste se révèle être une approche adéquate dans ce contexte tandis que la possibilité de modéliser l’incertain est une composante attrayante. Le concept de dépendance au sein des RB s’exprime principalement de deux façons. D’une part, les probabilités conditionnelles classiques s’appuyant le théorème de Bayes et d’autre part, une classe de RB faisant l’usage de copules et corrélation de rang comme mesures de dépendance. Nous présentons à la fois des contributions théoriques et pratiques dans le cadre de ces deux classes de RB ; les RB dynamiques discrets et les RB non paramétriques, respectivement. Des problématiques concernant la paramétrisation de chacune des classes sont également abordées. Dans un contexte théorique, nous montrons que les RBNP permet de caractériser n’importe quel processus de Markov.


                      Date de soutenance : 26-06-2017
                      Président du jury : Bruno Castanier
                      Jury :
                      • Christophe Bérenguer [Président]
                      • Roger Marvin Cooke [Rapporteur]
                      • Laurent Bouillaut [Rapporteur]
                      • Philippe Leray
                      • Laurent Truffet
                      • Wim Courage

                        Robin Tournemenne, Optimisation d'un instrument de musique de type cuivre basée sur des simulations sonores par modèle physique
                      Optimisation d'un instrument de musique de type cuivre basée sur des simulations sonores par modèle physique
                      Auteur : Robin Tournemenne
                      Manuscript :
                      Equipe : GDD.


                      Mots-clés : OptimisationAcoustiqueÉtudes perceptives
                      Résumé

                      Le travail présenté dans cette thèse s’intéresse à l’optimisation de la géométrie interne (la perce) des instruments de musique à vent de la famille des cuivres. L’originalité de l’approche repose sur l’utilisation de simulations sonores par modèle physique pour déterminer la perce optimisant des qualités sonores telles que la justesse ou le timbre de l’instrument. Le modèle physique utilisé, représentant le fonctionnement de l’excitateur, du résonateur et du couplage entre ces deux éléments, permet d’obtenir des sons représentatifs de leur interaction. La méthode de simulation utilisée est l’équilibrage harmonique, qui produit des simulations sonores en régime permanent, représentatives de la perce et des paramètres de contrôle du musicien virtuel. Différents problèmes d’optimisation sont formulés, pour lesquels la fonction objectif à minimiser et les contraintes représentent des attributs de la qualité des notes, la variable d’optimisation étant les dimensions géométriques de la perce. Étant donné les coûts de calcul et l'indisponibilité des dérivées de la fonction objectif, une méthode d’optimisation par recherche directe assistée de métamodèles est choisie (MADS). Deux exemples d'optimisation de la justesse ou du timbre d'une trompette, avec 2 et 5 variables d’optimisation, valident l'approche. Les résultats montrent que la méthode optimise la justesse globale de l’instrument de manière robuste, pour un coût raisonnable. Enfin, deux études perceptives étudient, d’une part, la capacité du modèle physique à produire des sons perceptivement différents entre des instruments différents, et, d’autre part, comment les différences entre un instrument nominal et un instrument optimisé sont perçues.


                      Date de soutenance : 14-06-2017
                      Président du jury : Jean-François Petiot
                      Jury :

                          Yunbo Li, Allocation de ressources dans un Cloud partiellement alimenté par des sources d’énergie renouvelable
                        Allocation de ressources dans un Cloud partiellement alimenté par des sources d’énergie renouvelable
                        Auteur : Yunbo Li
                        Manuscript :
                        Equipe : GDD.


                        Mots-clés : Allocation de ressourcesEfficacité énergétiqueÉnergie renouvelableCloud
                        Résumé

                        La plupart des infrastructures de cloud efficace en énergie proposées dans la littérature ne tiennent pas compte de la disponibilité électrique et des énergies renouvelables dans leurs modèles. L’intégration des énergies renouvelables dans les centres de données réduit considérablement leur consommation d’énergie et leur empreinte carbone. Étant donné que l’énergie renouvelable est intermittente et fluctue en fonction du temps, elle est habituellement sous-utilisée. Nous abordons le problème de l’amélioration de l’utilisation des énergies renouvelables dans un centre de données unique et étudions deux approches : la planification opportuniste et le stockage de l’énergie. Nos résultats démontrent que les deux approches permettent de réduire la consommation d’énergie non-renouvelable sous différentes configurations. Nous étendons ce travail au contexte des Edge Clouds et de l’Internet des Objets dans le cas de l’analyse de flux de données. Nous montrons comment rendre les Edge Clouds plus verts avec une production d’énergie renouvelable sur site combinée à un stockage d’énergie et à une dégradation de performance des applications des utilisateurs.


                        Date de soutenance : 12-06-2017
                        Président du jury : Jean-Marc Menaud
                        Jury :
                        • Romain Rouvoy [Président]
                        • Pascal Bouvry [Rapporteur]
                        • Patricia Stolf [Rapporteur]
                        • Laurent Lefèvre

                          Zakaria Yahouni, Le meilleur des cas pour l'ordonnancement de groupes : Un nouvel indicateur proactif-réactif pour l'ordonnancement sous incertitudes
                        Le meilleur des cas pour l'ordonnancement de groupes : Un nouvel indicateur proactif-réactif pour l'ordonnancement sous incertitudes
                        Auteur : Zakaria Yahouni
                        Manuscript :
                        Equipe : GDD.


                        Mots-clés : Borne inférieureSéparation et évaluationOrdonnancementOrdonnancement de groupesAide à la décisionCoopération homme-machine
                        Résumé

                        Cette thèse représente une étude d'un nouvel indicateur d'aide à la décision pour le problème d'ordonnancement d'ateliers de production sous présence d'incertitudes. Les contributions apportées dans ce travail se situent dans le contexte des groupes d'opérations permutables. Cette approche consiste à proposer une solution d'ordonnancement flexible caractérisant un ensemble fini non-énuméré d'ordonnancements. Un opérateur est ensuite censé sélectionner l'ordonnancement qui répond le mieux aux perturbations survenues dans l'atelier. Nous nous intéressons plus particulièrement à cette phase de sélection et nous mettons l'accent sur l’intérêt de l'humain pour la prise de décision. Dans un premier temps, nous présentons le meilleur des cas; indicateur d'aide à la décision pour lecalcul du meilleur ordonnancement caractérisé par l'ordonnancement de groupes. Nous proposons des bornes inférieures pour le calcul des dates de début/fin des opérations. Ces bornes sont ensuite implémentées dans une méthode de séparation et d'évaluation permettant le calculer du meilleur des cas. Grâce à des simulations effectuées sur des instances de job shop de la littérature,nous mettons l'accent sur l'utilité et la performance d'un tel indicateur dans un système d'aide à la décision. Enfin, nous proposons une Interface Homme-Machine(IHM) adaptéeà l'ordonnancement de groupes et pilotéepar un système d'aide à la décision multicritères. L'implémentation de cette IHM sur un cas d'étude réel a permis de soulever certaines pratiques efficaces pour l'aideà la décision dans le contexte de l'ordonnancement sous incertitudes.


                        Date de soutenance : 23-05-2017
                        Président du jury : Nasser Mebarki
                        Jury :
                        • Djamila Hadj Slimane
                        • Christian Artigues (rapporteur)
                        • Rabah Gouri
                        • Farouk Yalaoui
                        • Jean-Jacques Loiseau (Examinateur)
                        • David Damand

                          Georges Nassopoulos, Déduire des Basic Graph Patterns depuis les Logs des Fournisseurs du Linked Data
                        Déduire des Basic Graph Patterns depuis les Logs des Fournisseurs du Linked Data
                        Auteur : Georges Nassopoulos
                        Manuscript :
                        Equipe : GDD.


                        Mots-clés : Contrôle de UsageAnalyse de LogsExploitation de DonnéesDonnées Liées
                        Résumé

                        Conformément aux principes de Linked Data, les fournisseurs de données ont publié des milliards de faits en tant que données RDF. Exécuter les requêtes SPARQL sur les endpoints SPARQL ou les serveurs Triple Pattern Fragments (TPF) permet de consommer facilement des données du Linked Data. Cependant, le traitement des requêtes SPARQL fédérées, tout comme le traitement des requêtes TPF, décompose la requête initiale en de nombreuses sous-requêtes. Les fournisseurs de données ne voient alors que les sous-requêtes et la requête initiale n’est connue que des utilisateurs finaux. La connaissance des requêtes exécutées est fondamentale pour les fournisseurs, afin d’assurer un contrôle de l’utilisation des données, d’optimiser le coût des réponses aux requêtes, de justifier un retour sur investissements, d’améliorer l’expérience utilisateur ou de créer des modèles commerciaux à partir de tendances d’utilisation. Dans cette thèse, nous nous concentrons sur l’analyse des logs d’exécution des serveurs TPF et des endpoints SPARQL pour extraire les Basic Graph Patterns (BGP) des requêtes SPARQL exécutées. Le principal défi pour l’extraction des BGPs est l’exécution simultanée des requêtes SPARQL. Nous proposons deux algorithmes : LIFT et FETA. Sous certaines conditions, nous constatons que LIFT et FETA sont capables d’extraire des BGPs avec une bonne précision et un bon rappel.


                        Date de soutenance : 22-05-2017
                        Président du jury : Pascal Molli(pascal.molli@univ-nantes.fr)
                        Jury :
                        • Philippe Lamarre [Rapporteur]
                        • Olivier Curé [Rapporteur]
                        • Pascale Kuntz-Cosperec (examinateur)
                        • Claudia Roncancio (examinateur)
                        • René Quiniou (examinateur)
                        • Patricia Serrano-Alvarado (co-encadrant)
                        • Emmanuel Desmontils (co-encadrant)

                          Karam Naser, Modélisation de la Similarité Perceptuelle de Textures Visuelles Statiques et Dynamiques - Application à l’Optimisation Perceptuelle de la Compression Vidéo
                        Modélisation de la Similarité Perceptuelle de Textures Visuelles Statiques et Dynamiques - Application à l’Optimisation Perceptuelle de la Compression Vidéo
                        Auteur : Karam Naser
                        Manuscript :
                        Equipe : GDD.


                        Mots-clés : Compression vidéo perceptuelleModélisation du système visuel humainSimilarité visuelleAnalyse de texture
                        Résumé

                        Les textures sont des signaux particuliers dans la scène visuelle, où elles peuvent couvrir de vastes zones. Elles peuvent être classées en deux catégories : statique et dynamique, où les textures dynamiques impliquent des variations temporelles. Plusieurs travaux sur la perception des textures statiques ont permis de définir des mesures de similarité visuelle pour des applications comme la reconnaissance ou la classification de textures. Ces mesures utilisent souvent une représentation inspirée du traitement neuronal du système visuel humain. Cependant de telles approches ont été peu explorées dans le cas de textures dynamiques. Dans cette thèse, un modèle perceptuel généralisé pour la mesure de similarité applicable aux textures statiques et dynamiques, a été développé. Ce modèle est inspiré du traitement effectué dans le cortex visuel primaire. Il s’avère très efficace pour des applications de classification et de reconnaissance de textures. L’application du modèle dans le cadre de l’optimisation perceptuelle de la compression vidéo, a été également étudiée. En particulier, l’intégration de la mesure de similarité entre textures, a été utilisée pour l’optimisation débit-distorsion de l’encodeur. Les résultats expérimentaux avec observateurs humains montrent une qualité visuelle améliorée des vidéos ainsi codés/décodées, avec une réduction significative du débit par rapport aux approches traditionnelles.


                        Date de soutenance : 19-05-2017
                        Président du jury : Patrick Le Callet
                        Jury :

                            Md Sabbir Hasan, Gestion intelligente des énergies renouvelables dans les nuages : de l'infrastructure à l'application
                          Gestion intelligente des énergies renouvelables dans les nuages : de l'infrastructure à l'application
                          Auteur : Md Sabbir Hasan
                          Manuscript :
                          Equipe : GDD.


                          Mots-clés : Consommation d'énergieInformatique dans les nuages
                          Résumé

                          Avec l'avènement des technologies de Cloud computing et son adoption, les entreprises et les institutions académiques transfèrent de plus en plus leurs calculs et leurs données vers le Cloud. Alors que ce progrès et ce modèle simple d'accès ont eu un impact considérable sur notre communauté scientifique et industrielle en termes de réduction de la complexité et augmentation des revenus, les centres de données consomment énormément d'énergie, ce qui se traduit par des émissions plus élevées de C02. En réponse, de nombreux travaux de recherche se sont focalisés sur les enjeux du développement durable pour le Cloud à travers la réduction de la consommation d'énergie en concevant des stratégies d'efficacité énergétiques. Cependant, l'efficacité énergétique dans l'infrastructure du C!oud ne suffira pas à stimuler la réduction de • l'empreinte carbone. Il est donc impératif d'envisager une utilisation intelligente de l'énergie verte à la fois au niveau de l'infrastructure et de l'application pour réduire davantage l'empreinte carbone. Depuis peu, certains fournisseurs de Cloud computing alimentent leurs centres de données avec de l'énergie renouvelable. Les sources d'énergie renouvelable sont très intermittentes, ce qui crée plusieurs défis pour les gérer efficacement. Pour surmonter ces défis, nous étudions les options pour intégrer les différentes sources d'énergie renouvelable de manière réaliste et proposer un Cloud energy broker qui peut ajuster la disponibilité et la combinaison de prix pour acheter de l'énergie verte dynamiquement sur le marché de l'énergie et rendre les centres de données partiellement verts. Puis, nous introduisons le concept de la virtualisation de l'énergie verte, qui peut être vu comme une alternative au stockage d'énergie utilisé dans les centres de données pour éliminer le problème d'intermittence dans une certaine mesure. Avec l'adoption du concept de virtualisation, nous maximisons l'utilisation de l'énergie verte contrairement au stockage d'énergie qui induit des pertes d'énergie, tout en introduisant des Green SLA basé sur l'énergie verte pour le fournisseur de services et les utilisateurs finaux. En utilisant des traces réalistes et une simulation et une analyse approfondie, nous montrons que la proposition peut fournir un système efficace, robuste et rentable de gestion de l'énergie pour le centre de données. Si une gestion efficace de l'énergie en présence d'énergie verte intermittente est nécessaire, la façon dont les applications Cloud modernes peuvent tirer profit de la présence ou l'absence d'énergie verte n'a pas été suffisamment étudiée. Contrairement aux applications Batch, les applications Interactive Cloud doivent toujours être accessibles et ne peuvent pas être programmées à l'avance pour correspondre au profil d'énergie verte. Par conséquent, cette thèse propose une solution d'autoscaling adaptée à l'énergie pour exploiter les caractéristiques internes des applications et créer une conscience d'énergie verte dans l'application, tout en respectant les propriétés traditionnelles de QoS. Pour cela, nous concevons un contrôleur d'application green qui profite de la disponibilité de l'énergie verte pour effectuer une adaptation opportuniste dans une application gérée par un contrôleur orienté performance. L'expérience est réalisée avec une application réelle sur Grid5000 et les résultats montrent une réduction significative de la consommation d'énergie par rapport à l'approche orientée performance, tout en respectant les attributs traditionnels de QoS.


                          Date de soutenance : 03-05-2017
                          Président du jury : Jean-Louis Pazat
                          Jury :
                          • Christine Morin [Président]
                          • Jean-Marc Pierson [Rapporteur]
                          • Pascal Bouvry [Rapporteur]
                          • Eric Rutten
                          • Romain Rouvoy
                          • Thomas Ledoux

                            Marko Abarca, Modélisation des Réseaux Métaboliques en interaction avec l’Environnement
                          Modélisation des Réseaux Métaboliques en interaction avec l’Environnement
                          Auteur : Marko Abarca
                          Manuscript :
                          Equipe : GDD.


                          Mots-clés : Ecologie MicrobienneModélisation par ContraintesRéseaux MétaboliquesOptimisation MultiObjective
                          Résumé

                          Les réseaux métaboliques permettent à l’utilisateur la construction de modèles détaillés en utilisant des jeux de données dites “omiques” de haute résolution. En particulier, les modèles par contraintes (CBM, en anglais) sont utilisés pour obtenir des prédictions quantitatives à partir de modèles métaboliques. Pendent les 20 dernières années, CBMs ont été appliqués avec succès à un large éventail de problèmes dans plusieurs aspects de la physiologie microbienne. L’objectif principal de la présente thèse est d’utiliser les CBM comme une technique de modélisation dans le contexte de l’écologie microbienne. En particulier, les effets du réseau métabolique sur l’environnement et les effets des variables environnementales sur la physiologie sont explorés à l’aide de mesures de confiance. La première section est dédiée à l’application des CBM à des réseaux métaboliques isolées. D’abord, une nouvelle application de CBM est utilisée pour étudier l’insertion de gènes tels qu’ils sont optimales pour maximiser le taux de croissance. Ensuite, les effets des conditions environnementales dans une chemostat chez le réseau métabolique, sont évalués par des approches CBM classiques et contrastés avec des observations expérimentales. Enfin, un nouveau CBM est développé pour déterminer les conditions environnementales telles qu’elles favorisent le la perte des gènes. La deuxième section comporte sur les interactions entre plusieurs réseaux métaboliques différents. L’utilisation de compartiments pour représenter différents microorganismes est d’abord justifiée. Ensuite, une révision des approches existantes dans la littérature est réalisée. Après cette révision, un nouveau CBM basé dans l’optimisation MultiObjective pour l’écosystème microbien est développé. On s’attend à que l’ensemble des travaux développés dans la thèse pourrait servir à rapprocher les champs de l’écologie microbienne et la modélisation par contraintes.


                          Date de soutenance : 28-04-2017
                          Président du jury : Jérémie Bourdon
                          Jury :

                            Copyright : LS2N 2017 - Mentions Légales - 
                             -