Home » Thèses

Thèses soutenues 2017



  Yuan Bian, Planification tactique de production des flux physiques et financiers d’une chaîne logistique multi-site
Planification tactique de production des flux physiques et financiers d’une chaîne logistique multi-site
Auteur : Yuan Bian
Manuscript :


Mots-clés : Besoin en Fond de RoulementFlux de trésorerie actualisésMaximisation du profit
Résumé

En période de crise financière, les entreprises ont besoin de trésorerie pour réagir efficacement aux aléas et assurer leur solvabilité. Cette thèse se situe à l’interface entre l’opérationnel et la finance pour développer des modèles de planification tactique gérant simultanément les flux physiques et financiers dans la supply chain. Le coût de financement des opérations basé sur le besoin en fond de roulement (BFR) est intégré comme un nouvel aspect financier jamais considéré dans la littérature de lot-sizing. Nous débutons par une extension du modèle EOQ considérant les coûts de financement du BFR. L’objectif est la maximisation du profit. Une quantité de production optimale est obtenue analytiquement ainsi que l’analyse de la sensibilité du modèle. De plus, les comparaisons avec le modèle EOQ et un modèle qui considère le coût du capital sont étudiées. Ensuite, un modèle basé sur un lot-sizing dynamique est établi. La propriété ZIO est démontrée et permet l’utilisation d’un algorithme en temps polynomial. Enfin un scénario multi-niveau à capacité infini est étudié avec une approche séquentielle puis centralisée. La propriété ZIO est prouvée dans ces deux cas. Des algorithmes de programmation dynamique sont utilisés pour obtenir une solution optimale. Cette thèse peut être considérée comme un premier, mais significatif, travail combinant la planification de production et la gestion du besoin en fond de roulement dans des modèles de planification tactique. Nous montrons que les aspects financiers ont un impact significatif sur les plans de production. Les cas étudiés dans cette thèse peuvent être considérés comme des sous-problèmes dans l’étude de scénario plus réalistes.


Date de soutenance : 19-12-2017
Président du jury : Nathalie Bostel
Jury :
  • Jean-Laurent Viviani [Président]
  • Safia Kedad Sidhoum [Rapporteur]
  • Pierre Féniès [Rapporteur]
  • Stefan Helber [Rapporteur]
  • Alexandre Dolgui

  Quentin Adrien Tonneau, Optimisation de la chaine logistique des déchets non dangereux
Optimisation de la chaine logistique des déchets non dangereux
Auteur : Quentin Adrien Tonneau
Manuscript :


Mots-clés : Recherche opérationnelleLogistique des déchetsProblème de tournées avec gestion de stocksMétaheuristiqueStochastique
Résumé

Avec plus de 345 millions de tonnes de déchets produits en France en 2012, la performance de la chaîne logistique de collecte, transport et traitement de ces produits et matériaux est devenue un enjeu économique et écologique majeur dans notre société. Dans cette thèse, nous nous intéressons à l’optimisation de la chaîne de collecte et transport des déchets sur le plan tactique et opérationnel. Nous modélisons dans un premier temps un nouveau problème tactique d’optimisation de flux de déchets avec sites de transfert et de traitement sur un horizon mono-périodique puis multi-périodique, afin d’exploiter un réseau logistique existant de manière optimale. Nous résolvons différentes variantes de ce problème linéaire mixte à l’aide d’un solveur. Nous étudions dans un second temps la planification opérationnelle de la collecte de conteneurs d’apport volontaire et des tournées de véhicules associées en résolvant un problème riche de tournées avec gestion de stocks et plateformes de vidage intermédiaires. Nous proposons un modèle d’optimisation de ce nouveau problème et le résolvons par un algorithme à voisinages larges (ALNS) dans un cadre déterministe puis stochastique, dans lequel le remplissage des conteneurs est aléatoire et plus conforme à la réalité. Nous obtenons des résultats compétitifs en évaluant notre approche sur des instances de la littérature proches de notre problème riche. En réalisant un logiciel d’optimisation à destination d’une entreprise de collecte et transport de déchets, nous améliorons également de manière significative les tournées de véhicules en application réelle.


Date de soutenance : 18-12-2017
Président du jury : Nathalie Bostel
Jury :
  • Olivier Péton [Président]
  • Philippe Lacomme [Rapporteur]
  • Christian Prins [Rapporteur]
  • Pierre Dejax
  • Fabien Tricoire

  Bertrand Miannay, Analyse de réseaux de régulation par approches de coloration de graphes dans le cadre du myélome multiple
Analyse de réseaux de régulation par approches de coloration de graphes dans le cadre du myélome multiple
Auteur : Bertrand Miannay
Manuscript :


Mots-clés : Programmation par contraintesColoration de graphesBiologie des systèmesMyélome multiple
Résumé

Au cours des 2 dernières décennies, l'explosion des capacités de production de données biologiques et des connaissances sur les interactions biologiques ont permis le développement de nombreuses approches intégrant des données avec des connaissances plus générales. Notre principal objectif était de proposer de nouvelles méthodes de caractérisation et de comparaison de profils d'expressions de gènes issus de cellules cancéreuses d'individus atteints de myélome multiple et de plasmocytes normaux. Pour cela, nous proposons 2 méthodes basées sur les colorations de graphes de régulation. La première, qui permet d'inférer l'état des protéines et des facteurs de transcription à partir d'un profil d'expression, nous a permis d'identifier des activités de facteurs de transcription impliqués dans ces tumeurs. La seconde méthode permet de diviser un réseau de régulation en plusieurs sous-graphes indépendant (des composants) vis à vis de colorations dites "parfaites". Via cette approche, nous avons pu évaluer la similarité entre les profils d'expression et les états "parfait" des composants et en identifier spécifiquement perturbés dans les cellules cancéreuses associés à des voies oncogéniques.


Date de soutenance : 05-12-2017
Président du jury : Olivier Roux
Jury :
  • Carito Guziolowski
  • Florence Magrangeas
  • Stéphane Minvielle
  • Mohamed Elati
  • Nathalie Theret
  • Jean-Daniel Zucker

  Yann Briheche, Optimisation du maillage de la veille sur radar à balayage électronique à panneau fixe
Optimisation du maillage de la veille sur radar à balayage électronique à panneau fixe
Auteur : Yann Briheche
Manuscript :


Mots-clés : Recouvrement d'ensembleProblème de recouvrement de grille rectangulaireGestion des ressources radarAntenne réseau à commande de phaseRadar à balayage électroniqueOptimisation combinatoire
Résumé

Les radars modernes sont des systèmes complexes. Leurs missions, incluant surveillance, suivi et identification, se sont étendues conjointement à leurs capacités, favorisées par le développement de l'électronique et du numérique. Ces radars peuvent balayer dynamiquement et librement l'espace grâce à des panneaux numériques, les libérant des limitations des moteurs mécaniques. La guerre électronique, où les temps de réaction sont toujours plus courts, nécessite néanmoins une gestion parcimonieuse du temps disponible au radar pour accomplir ces missions. Dans ce contexte, l'optimisation du temps utilisé pour la surveillance doit exploiter pleinement les capacités des nouveaux radars. Les travaux réalisés durant cette thèse ont été de formaliser mathématiquement ce problème, de déterminer et adapter les outils pertinents pour sa résolution, et d'en explorer les possibilités. Le problème de la surveillance radar se rapproche conceptuellement du recouvrement d'ensemble en optimisation combinatoire. Grâce à des algorithmes utilisant la programmation dynamique et la programmation linéaire en nombres entiers, ce problème a pu être résolu, et étendu à des situations plus complexes, incluant différentes contraintes opérationnelles. Cette approche fructueuse ouvre de nouvelles pistes pour l'amélioration des performances des radars, et offre de nombreuses possibilités d'applications. Entre autres l'aide à la conception des couvertures des radars actuels, la simulation des performances d'architectures de futurs radars et le développement de radars cognitifs, capables de s'adapter à leur environnement opérationnel.


Date de soutenance : 30-11-2017
Président du jury : Fouad Bennis
Jury :
  • Hugh Griffiths
  • Rajib Bhattacharjya
  • Frédéric Barbaresco
  • Georges Fadel
  • Bernard Yannou (Rapporteur)

  Vaiyee Huynh, Stabilité Posturale d’un Exosquelette Actif de Jambes
Stabilité Posturale d’un Exosquelette Actif de Jambes
Auteur : Vaiyee Huynh
Manuscript :


Mots-clés : ExosqueletteEquilibrePoint de captureRépartition des effortsSous-actionnement
Résumé

Quel que soit le type d'exosquelettes de jambes, la question d’équilibre du système est très importante, puisqu'il s'agit de robots physiquement attachés à l'utilisateur. Dans le but de respecter au maximum la volonté de l'utilisateur ainsi que ses mouvements, cette thèse a pour objectif de développer des stratégies de commande de gestion d'équilibre pour un exosquelette d’assistance. Il s'agit alors d'assister l'équilibre du système couplé (utilisateur valide + exosquelette), en gérant l'équilibre de l'exosquelette soumis à l'action de l'utilisateur. La commande de gestion d'équilibre proposée s'inspire des commandes développées par le CEA-LIST sur les exosquelettes Hercule et des stratégies de récupération d'équilibre observées chez l'humain. Elle est essentiellement basée sur le concept du point de capture instantané. En effet,le point de capture instantané est un bon outil qui englobe aussi bien le cas statique que le cas dynamique et surtout, qui contient une information sur la direction de mouvement, ce qui nous permet d'anticiper certaines actions comme l'action de faire un pas. Les contributions de cette thèse sont alors :• l'application d'une commande du point de capture à un exosquelette d'assistance ;• la proposition d'une nouvelle répartition des efforts sur les deux jambes de l'exosquelette permettant d'anticiper les perturbations et le pas ;• la gestion du sous-actionnement (toutes les articulations ne sont pas motorisées) en phase de double support via un calcul d'optimisation qui a pour objectif de suivre la répartition des efforts désirée et de maîtriser les forces d'interaction entre l'utilisateur et l'exosquelette.


Date de soutenance : 23-11-2017
Président du jury : Christine Chevallereau
Jury :
  • Philippe Fraisse [Président]
  • Philippe Souères [Rapporteur]
  • Samer Mohammed [Rapporteur]
  • Alain Micaelli
  • Catherine Bidard

  Soufian Antoine Salim, Analyse discursive et multi-modale des conversations écrites en ligne portées sur la résolution de problèmes
Analyse discursive et multi-modale des conversations écrites en ligne portées sur la résolution de problèmes
Auteur : Soufian Antoine Salim
Manuscript :


Mots-clés : Actes de dialogueDiscoursCommunication médiée par les réseaux
Résumé

Nous nous intéressons aux conversations écrites en ligne orientées vers la résolution de problèmes. Dans la littérature, les interactions entre humains sont typiquement modélisées en termes d’actes de dialogue, qui désignent les types de fonctions remplies par les énoncés dans un discours. Nous cherchons à utiliser ces actes pour analyser les conversations écrites en ligne. Un cadre et des méthodes bien définies permettant une analyse fine de ce type de conversations en termes d’actes de dialogue représenteraient un socle solide sur lequel pourraient reposer différents systèmes liés à l’aide à la résolution des problèmes et à l’analyse des conversations écrites en ligne. De tels systèmes représentent non seulement un enjeu important pour l’industrie, mais permettraient également d’améliorer les plate-formes d’échanges collaboratives qui sont quotidiennement sollicitées par des millions d’utilisateurs. Cependant, les techniques d’identification de la structure des conversations n’ont pas été développées autour des conversations écrites en ligne. Il est nécessaire d’adapter les ressources existantes pour ces conversations. Cet obstacle est à placer dans le cadre de la recherche en communication médiée par les réseaux (CMR), et nous confronte à ses problématiques propres. Notre objectif est de modéliser les conversations écrites en ligne orientées vers la résolution de problèmes en termes d’actes de dialogue, et de proposer des outils pour la reconnaissance automatique de ces actes.


Date de soutenance : 22-11-2017
Président du jury : Emmanuel Morin
Jury :

      Gwendal Daniel, Persistance, requêtage, et transformation efficaces de grands modèles
    Persistance, requêtage, et transformation efficaces de grands modèles
    Auteur : Gwendal Daniel
    Manuscript :


    Mots-clés : IDMPassage à l’échelleRequêtage de modèleTransformation de modèle
    Résumé

    L’Ingénierie Dirigée par les Modèles (IDM) est une méthode de développement logicielle ayant pour but d’améliorer la productivité et la qualité logicielle en utilisant les modèles comme artefacts de premiers plans durant le processus développement. Dans cette approche, les modèles sont typiquement utilisés pour représenter des vues abstraites d’un système, manipuler des données, valider des propriétés, et sont finalement transformés en ressources applicatives (code, documentation, tests, etc). Bien que les techniques d’IDM aient montré des résultats positifs lors de leurs intégrations dans des processus industriels, les études montrent que la mise à l’échelle des solutions existantes est un des freins majeurs à l’adoption de l’IDM dans l’industrie. Ces problématiques sont particulièrement importantes dans le cadre d’approches génératives, qui nécessitent des techniques efficaces de stockage, requêtage, et transformation de grands modèles typiquement construits dans un contexte mono-utilisateur. Plusieurs solutions de persistance, requêtage, et transformations basées sur des bases de données relationnelles ou NoSQL ont été proposées pour améliorer le passage à l’échelle, mais ces dernières sont souvent basées sur une seule sérialisation model/base de données, adaptée à une activité de modélisation particulière, mais peu efficace pour d’autres cas d’utilisation. Par exemple, une sérialisation en graphe est optimisée pour calculer des chemins de navigations complexes,mais n’est pas adaptée pour accéder à des valeurs atomiques de manière répétée. De plus, les frameworks de modélisations existants ont été initialement développés pour gérer des activités simples, et leurs APIs n’ont pas évolué pour gérer les modèles de grande taille, limitant les performances des outils actuels. Dans cette thèse nous présentons une nouvelle infrastructure de modélisation ayant pour but de résoudre les problèmes de passage à l’échelle en proposant (i) un framework de persistance permettant de choisir la représentation bas niveau la plus adaptée à un cas d’utilisation, (ii) une solution de requêtage efficace qui délègue les navigations complexes à la base de données stockant le modèle,bénéficiant de ses optimisations bas niveau et améliorant significativement les performances en terme de temps d’exécution et consommation mémoire, et (iii) une approche de transformation de modèles qui calcule directement les transformations au niveau de la base de données. Nos solutions sont construites en utilisant des standards OMG tels que UML et OCL, et sont intégrées dans les solutions de modélisations majeures telles que ATL ou EMF.


    Date de soutenance : 14-11-2017
    Président du jury : Jordi Cabot
    Jury :
    • Jean-Claude Royer [Président]
    • Marie-Pierre Gervais [Rapporteur]
    • Jean-Michel Bruel [Rapporteur]
    • Sébastien Gérard

      Saurabh Puri, Apprentissage, sélection et codage de nouvelles transformées de blocs dans et pour la boucle d’optimisation de codeurs vidéo
    Apprentissage, sélection et codage de nouvelles transformées de blocs dans et pour la boucle d’optimisation de codeurs vidéo
    Auteur : Saurabh Puri
    Manuscript :


    Mots-clés : Transformations de blocsTransformations dépendantes du signalTransformations basées sur l’apprentissageOptimisation transformée-débit-distortionHEVCCompression vidéo
    Résumé

    Les transformées sont un élément clé dans les systèmes de codage vidéo par blocs. Cette thèse approfondit les schémas d’apprentissage à multiples transformées. Une première contribution de ce travail est consacrée à l’évaluation de schémas d’apprentissage de transformées de deux types en ligne et hors ligne. Les deux approches sont comparées en détail et leur pertinence respective révélées. Nous proposons ensuite plusieurs techniques afin d’améliorer la stabilité du système d’apprentissage et réduire le coût de la signalisation. Une seconde contribution concerne les schémas d’apprentissage multi-transformées hors ligne déjà connus qui sont étendus avec pour objectifs de 1) fournir des transformées plus génériques et moins biaisées, 2) obtenir des gains de compression plus élevés, 3) réduire la complexité d’encodage et de décodage. On propose un schéma dit IMDTC (Improved Mode Dependent Transform Competition) qui offre un gain de codage très significatif, plus de 5% par rapport à HEVC standard sous la configuration All Intra (AI), avec une augmentation de complexité raisonnable. Enfin, l’adaptabilité au contenu de l’apprentissage hors ligne est étendue en explorant une nouvelle approche d’apprentissage des transformées basée sur des jeux de transformées adaptées à des contenus. Plusieurs ensembles contenant de multiples transformées sont appris sur différents contenus et regroupés en jeu. Lors du codage d’une région donnée d’une image, un ensemble de transformées est sélectionné localement à partir du jeu. Les résultats numériques montrent le potentiel élevé de cette approche par rapport aux approches classiques en ligne et hors ligne.


    Date de soutenance : 09-11-2017
    Président du jury : Patrick Le Callet(patrick.lecallet@univ-nantes.fr)
    Jury :

        Walid Benghabrit, Un modèle formel pour la responsabilisation
      Un modèle formel pour la responsabilisation
      Auteur : Walid Benghabrit
      Manuscript :


      Mots-clés : Vie privéeLogique temporelleMonitorageResponsabilisationSécurité
      Résumé

      Nous assistons à la démocratisation des services ducloud et de plus en plus d’utilisateurs (individuels ouentreprises) utilisent ces services dans la vie de tous lesjours. Dans ces scénarios, les données personnellestransitent généralement entre plusieurs entités.L’utilisateur final se doit d’être informé de la collecte, dutraitement et de la rétention de ses donnéespersonnelles, mais il doit aussi pouvoir tenir pourresponsable le fournisseur de service en cas d’atteinte àsa vie privée. La responsabilisation (ou accountability)désigne le fait qu’un système ou une personne estresponsable de ses actes et de leurs conséquences.Dans cette thèse nous présentons un framework deresponsabilisation AccLab qui permet de prendre enconsidération la responsabilisation dès la phase deconception d’un système jusqu’à son implémentation.Afin de réconcilier le monde juridique et le mondeinformatique, nous avons développé un langage dédiénommé AAL permettant d’écrire des obligations et despolitiques de responsabilisation. Ce langage est basé surune logique formelle FOTL ce qui permet de vérifier lacohérence des politiques de responsabilisation ainsi quela compatibilité entre deux politiques. Les politiques sontensuite traduites en une logique temporelle distribuéeque nous avons nommée FO-DTL 3, cette dernière estassociée à une technique de monitorage basée sur laréécriture de formules. Enfin nous avons développé unoutil monitorage appelé AccMon qui fournit des moyensde surveiller les politiques de responsabilisation dans lecontexte d’un système réel. Les politiques sont fondéessur la logique FO-DTL 3 et le framework peut agir enmode centralisée ou distribuée et fonctionne à la fois enligne et hors ligne.


      Date de soutenance : 27-10-2017
      Président du jury : Jean-Claude Royer
      Jury :
      • Daniel Le Métayer [Président]
      • Ana Cavalli [Rapporteur]
      • Yves Roudier [Rapporteur]
      • Nora Cuppens
      • Anderson Santana de Oliveira
      • Hervé Grall

        Gilles Madi Wamba, Combiner la programmation par contraintes et l’apprentissage machine pour construire un modèle éco-énergétique pour petits et moyens data centers
      Combiner la programmation par contraintes et l’apprentissage machine pour construire un modèle éco-énergétique pour petits et moyens data centers
      Auteur : Gilles Madi Wamba
      Manuscript :


      Mots-clés : Apprentissage machinePlanification de tâchesProgrammation par contraintesCloud computing
      Résumé

      Au cours de la dernière décennie les technologies de cloud computing ont connu un essor considérable se traduisant par la montée en flèche de la consommation électrique des data center. L’ampleur du problème a motivé de nombreux travaux de recherche s’articulant autour de solutions de réduction statique ou dynamique de l’enveloppe globale de consommation électrique d’un data center. L’objectif de cette thèse est d’intégrer les sources d’énergie renouvelables dans les modèles d’optimisation dynamique d’énergie dans un data center. Pour cela nous utilisons la programmation par contraintes ainsi que des techniques d’apprentissage machine. Dans un premier temps, nous proposons une contrainte globale d’intersection de tâches tenant compte d’une ressource à coûts variables. Dans un second temps, nous proposons deux modèles d’apprentissage pour la prédiction de la charge de travail d’un data center et pour la génération de telles courbes. Enfin, nous formalisons le problème de planification énergiquement écologique (PPEE) et proposons un modèle global à base de PPC ainsi qu’une heuristique de recherche pour le résoudre efficacement. Le modèle proposé intègre les différents aspects inhérents au problème de planification dynamique dans un data center : machines physiques hétérogènes, types d’applications variés (i.e., applications interactives et applications par lots), opérations et coûts énergétiques de mise en route et d’extinction des machines physiques, interruption/reprise des applications par lots, consommation des ressources CPU et RAM des applications, migration des tâches et coûts énergétiques relatifs aux migrations, prédiction de la disponibilité d’énergie verte, consommation énergétique variable des machines physiques.


      Date de soutenance : 27-10-2017
      Président du jury : Nicolas Beldiceanu
      Jury :
      • Jean-Marc Pierson [Président]
      • Sara Bouchenak [Rapporteur]
      • Arnaud Lallouet [Rapporteur]
      • Laurent Perron

        Ting Zhang, Nouvelles architectures pour la reconnaissance des expressions mathématiques manuscrites
      Nouvelles architectures pour la reconnaissance des expressions mathématiques manuscrites
      Auteur : Ting Zhang
      Manuscript :


      Mots-clés : Reconnaissance d’expressions mathématiquesRéseaux de neurones récurrentsBLSTMÉcriture en ligne
      Résumé

      Véritable challenge scientifique, la reconnaissance d’expressions mathématiques manuscrites est un champ très attractif de la reconnaissance des formes débouchant sur des applications pratiques innovantes. En effet, le grand nombre de symboles (plus de 100) utilisés ainsi que la structure en 2 dimensions des expressions augmentent la difficulté de leur reconnaissance. Dans cette thèse, nous nous intéressons à la reconnaissance des expressions mathématiques manuscrites en-ligne en utilisant de façon innovante les réseaux de neurones récurrents profonds BLSTM avec CTC pour construire un système d’analyse basé sur la construction de graphes. Nous avons donc étendu la structure linéaire des BLSTM à des structures d’arbres (Tree-Based BLSTM) permettant de couvrir les 2 dimensions du langage. Nous avons aussi proposé d’ajouter des contraintes de localisation dans la couche CTC pour adapter les décisions du réseau à l’échelle des traits de l’écriture, permettant une modélisation et une évaluation robustes. Le système proposé construit un graphe à partir des traits du tracé à reconnaître et de leurs relations spatiales. Plusieurs arbres sont dérivés de ce graphe puis étiquetés par notre Tree-Based BLSTM. Les arbres obtenus sont ensuite fusionnés pour construire un SLG (graphe étiqueté de traits) modélisant une expression 2D. Une différence majeure par rapport aux systèmes traditionnels est l’absence des étapes explicites de segmentation et reconnaissance des symboles isolés puis d’analyse de leurs relations spatiales, notre approche produit directement un graphe SLG. Notre système sans grammaire obtient des résultats comparables aux systèmes spécialisés de l’état de l’art.


      Date de soutenance : 26-10-2017
      Président du jury : Christian Viard-Gaudin
      Jury :
      • Laurence LIKFORMAN-SULEM
      • Thierry PAQUET
      • Christophe GARCIA

        Rola Osta, Contributions à l’Ordonnancement en Temps Réel pour les Systèmes Autonomes en Energie.
      Contributions à l’Ordonnancement en Temps Réel pour les Systèmes Autonomes en Energie.
      Auteur : Rola Osta
      Manuscript :


      Mots-clés : Earliest Deadline FirstRécupération d’énergieService apériodiqueOrdonnancement préemptif
      Résumé

      Aujourd’hui, la récupération d’énergie renouvelable (energy harvesting) comme celle envisagée pour de nombreux objets sans fil, rend possible un fonctionnement quasi-perpétuel de ces systèmes, sans intervention humaine, car sans recharge périodique de batterie ou de pile. Concevoir ce type de système autonome d’un point de vue énergétique devient très complexe lorsque celui-ci a en plus un comportement contraint par le temps et en particulier doit respecter des échéances de fin d’exécution au plus tard. Comme pour tout système temps réel, une problématique incontournable est de trouver un mécanisme d’ordonnancement dynamique capable de prendre en compte conjointement deux contraintes clés : le temps et l’énergie. Dans cette thèse, nous nous intéressons à l’ordonnancement de tâches mixtes constituées de tâches périodiques et de tâches apériodiques souples sans échéance, tout en répondant à une question clé: comment servir les tâches apériodiques pour minimiser leur temps de réponse sans remettre en question la faisabilité des tâches périodiques. Nous considérons un système monoprocesseur monofréquence, alimenté par un réservoir d’énergie approvisionné par une source environnementale. Dans ce cadre, nous avons proposé quatre nouveaux serveurs de tâches apériodiques utilisables avec l’ordonnanceur optimal ED-H. L’étude a comporté une phase de validation théorique puis une étude de simulation.


      Date de soutenance : 26-10-2017
      Président du jury : Maryline Chetto
      Jury :

          Mira Abboud, Software Architecture Extraction : Meta-model, model and tool
        Software Architecture Extraction : Meta-model, model and tool
        Auteur : Mira Abboud
        Manuscript :


        Mots-clés : Extraction d'architecture logicielle
        Résumé

        Face à la complexité croissante des systèmes logiciels, les architectures logicielles sont apparues comme un allié précieux pour la conception et la maintenance de ces systèmes. Cependant, pour de nombreux systèmes, la représentation de leur architecture n’est pas fiable ; elle est soit indisponible, soit insuffisante ou soit non mise à jour. Pour pallier ce problème qui met en danger la maintenance, l’évolution, la réutilisation et la migration d’un système, l’extraction d’une architecture du système est souvent proposée comme une bonne alternative. L’extraction d’une architecture logicielle est définie comme la science de l’analyse et de la conversion du code source en une architecture logicielle. Cette thèse contribue à apporter une solution au problème d’inexistence d’outil de mesure pour les processus d’extraction d’une architecture logicielle. Ainsi, nous proposons un méta-modèle appelé SArEM (Software Architecture Extraction Meta- model) qui spécifie les différents processus d’extraction d’une architecture logicielle. Le méta- modèle est basé sur le méta-modèle SPEM et couvre les principaux concepts des processus d’extraction d’une architecture logicielle. En outre, nous fournissons un outil qui permet aux architectes de construire leur propre pro- cessus, d’interagir avec les sorties générées et de découvrir une architecture logicielle conforme à leurs souhaits. Plus précisément, nous proposons une approche d’extraction d’une architec- ture logicielle appelée SAD (Software Architecture Discovery) basée sur ECD (Extraction de Connaissances à partir des Données). SAD consiste à considérer l’extraction d’une architecture logicielle comme un processus de découverte de nouvelles connaissances. Ainsi, notre contri- bution est articulée autour deux points : le premier point est la suggestion d’un processus gé- nérique pour l’extraction d’une architecture logicielle et le second point est l’élaboration d’une extension d’un outil ECD qui supporte l’exécution des processus d’extraction d’une architecture logicielle.


        Date de soutenance : 25-10-2017
        Président du jury : Mourad oussalah
        Jury :

            Nicolas David, Réseaux de Petri à Paramètres Discrets
          Réseaux de Petri à Paramètres Discrets
          Auteur : Nicolas David
          Manuscript :


          Mots-clés : Réseaux de PetriParamètresSynthèseDécidabilitéComplexitéCouvertureAccessibilité
          Résumé

          Afin de permettre une modélisation plus souple des systèmes, nous proposons d’étendre les réseaux de Petri par des paramètres discrets représentant le poids des arcs ou le nombre de jetons présents dans les places. Dans ce modèle, tout problème de décision peut être décliné sous deux versions, une universelle, demandant si la propriété considérée est vraie quelles que soient les valeurs que prennent les paramètres et une existentielle, qui s’interroge sur l’existence d’une valeur pour les paramètres telle que la propriété soit satisfaite. Concernant la couverture, nous montrons que ces deux problèmes sont indécidables dans le cas général. Nous introduisons donc des sous classes syntaxiques basées sur la restriction des paramètres aux places, aux arcs en sortie ou aux arcs en entrée des transitions. Dans ces différents cas, nous montrons que la couverture existentielle et universelle sont décidables et EXPSPACE-complètes. Nous étudions alors le problème de la synthèse de paramètres qui s’intéresse à calculer l’ensemble des valeurs de paramètres telles que la propriété considérée soit vraie. Sur les sous classes introduites, concernant la couverture, nous montrons que les ensembles solutions à la synthèse ont des structures fermée supérieurement (cas des arcs de sortie) et fermée inférieurement (cas des arcs d’entrée). Nous prouvons alors que ces ensembles se calculent par un algorithme de la littérature, proposé par Valk et Jantzen, dont les conditions d’application se réduisent aux problèmes de décision étudiés précédemment. Enfin nous étudions les frontières de décision en nous intéressant aux versions paramétrées de l’accessibilité pour ces sous classes.


          Date de soutenance : 20-10-2017
          Président du jury : Claude JARD
          Jury :

              Anicet Bart, Modélisation et résolution par contraintes de problèmes de vérification
            Modélisation et résolution par contraintes de problèmes de vérification
            Auteur : Anicet Bart
            Manuscript :


            Mots-clés : Modélisation par contraintesRésolution par contraintesVérification de programmesInterprétation abstraiteVérification de modèles
            Résumé

            La programmation par contraintes offre des langages et des outils permettant de résoudre des problèmes à forte combinatoire et à la complexité élevée tels que ceux qui existent en vérification de programmes. Dans cette thèse nous résolvons deux familles de problèmes de la vérification de programmes. Dans chaque cas de figure nous commençons par une étude formelle du problème avant de proposer des modèles en contraintes puis de réaliser des expérimentations. La première contribution concerne un langage réactif synchrone représentable par une algèbre de diagramme de blocs. Les programmes utilisent des flux infinis et modélisent des systèmes temps réel. Nous proposons un modèle en contraintes muni d’une nouvelle contrainte globale ainsi que ses algorithmes de filtrage inspirés de l’interprétation abstraite. Cette contrainte permet de calculer des sur-approximations des valeurs des flux des diagrammes de blocs. Nous évaluons notre processus de vérification sur le langage FAUST, qui est un langage dédié à la génération de flux audio. La seconde contribution concerne les systèmes probabilistes représentés par des chaînes de Markov à intervalles paramétrés, un formalisme de spécification qui étend les chaînes de Markov. Nous proposons des modèles en contraintes pour vérifier des propriétés qualitatives et quantitatives. Nos modèles dans le cas qualitatif améliorent l’état de l’art tandis que ceux dans le cas quantitatif sont les premiers proposés à ce jour. Nous avons implémenté nos modèles en contraintes en problèmes de programmation linéaire en nombres entiers et en problèmes de satisfaction modulo des théories. Les expériences sont réalisées à partir d’un jeu d’essais de la bibliothèque PRISM.


            Date de soutenance : 17-10-2017
            Président du jury : Éric Monfroy
            Jury :
            • Béatrice Bérard [Président]
            • Salvador Abreu [Rapporteur]
            • Nicolas Beldiceanu
            • Philippe Codognet
            • Charlotte Truchet

              Ranjan Kumar Hasda, Contribution à l'optimisation de Problème d'Agencement d’Espaces Rectangulaires Inégaux
            Contribution à l'optimisation de Problème d'Agencement d’Espaces Rectangulaires Inégaux
            Auteur : Ranjan Kumar Hasda
            Manuscript :


            Mots-clés : OptimisationAlgorithme GénétiqueAgencement d’EspaceApproche HybrideConstruction-Amélioration
            Résumé

            L'agencement d'espace est un problème courant dans la plupart des secteurs industriels. Ce problème est de nature continue et discret et il est considéré comme un problème NP-difficile. Les méthodes d'optimisation traditionnelles, plus appropriées pour une recherche locale sont difficilement utilisables aux problèmes d'agencement. Afin de contourner ces limitations inhérentes aux méthodes classiques, nous proposons deux algorithmes adaptés aux problèmes d'agencement statique de composants de différentes tailles. Pour les problèmes d'agencement considérés, les fonctions objectives à minimiser sont non linéaires et représentent les coûts associés aux sommes pondérées des distances entre les composants. La première approche que nous considérons est une méthode hybride en deux étapes. La première étape consiste à construire un agencement en se basant sur la méthode dite "bas-gauche" comme une solution locale. Ensuite, la solution obtenue est améliorée en appliquant un algorithme génétique modifié. Les opérateurs de croisement et de mutation sont alors adaptés pour prendre en compte les spécificités du problème d'agencement. La deuxième approche est une combinaison entre une recherche locale et globale. Dans ce cas, l'algorithme génétique est également modifié par l'introduction d'un opérateur spécialisé pour le traîtement des rotations des composants. Il permet notamment d'éviter le couplage entre les variables réelles et entières et permet également de réduire considérablement le nombre de variables du problème d'optimisation. Les performances des deux approches sont testées et comparées avec les exemples de référence extraits des publications traitant du problème d'optimisation d'agencement. Nous démontrons que les deux approches que nous proposons obtiennent de meilleures performances que les approches existantes.


            Date de soutenance : 17-10-2017
            Président du jury : Fouad Bennis(fouad.bennis@irccyn.ec-nantes.fr)
            Jury :

                Joseph Lark, Construction semi-automatique de ressources pour la fouille d'opinion
              Construction semi-automatique de ressources pour la fouille d'opinion
              Auteur : Joseph Lark
              Manuscript :
              Equipe : TALN.


              Mots-clés : Fouille d'opinionTraitement automatique des languesRessources spécialisées
              Résumé

              Identifying satisfaction triggers among customers is a crucial need in today's business world, as a strong customer relationship is now a most vital asset. The domain of opinion mining, in which this thesis falls into, offers several methods to answer this need. These methods, however, require a continuous update of specialized resources which are the cornerstone of many opinion mining tools. The objective of this work is to develop acquisition and structuration strategies for these resources, which can be lexicons, morphosyntactic rules or annotated data. Each of these items presents its own extraction difficulties, on top of the general issue of their update in a language- or domain-specific setting. Indeed, language constraints are fundamental in opinion mining, so the proposed methods must take these into account. First, we study the core elements from which opinion expressions are built in customer feedback. This study leads us to suggest a new modelisation of opinion mining as a sequence labeling task. We then compare the benefits of each type of resource through a benchmark of several opinion mining methods, and conclude that the best performing strategy is a hybrid approach. Finally, we present results for resource acquisition methods that answer not only the needs of opinion mining but also the constraints from the industrial setting in which this work has been conducted.


              Date de soutenance : 17-10-2017
              Président du jury : Emmanuel Morin
              Jury :

                  Pauline Folz, Collaboration dans une fédération de consommateurs de données liées
                Collaboration dans une fédération de consommateurs de données liées
                Auteur : Pauline Folz
                Manuscript :
                Equipe : TALN.


                Mots-clés : Web sémantiqueCache collaboratifOrdonnancementFédérationSPARQLTPFRéseaux superposésPair-à-pair
                Résumé

                Les producteurs de données ont publié des millions de faits RDF sur le Web en suivant les principes des données liées. N’importe qui peut récupérer des informations utiles en interrogeant les données liées avec des requêtes SPARQL. Ces requêtes sont utiles dans plusieurs domaines, comme la santé ou le journalisme des données. Cependant, il y a un compromis entre la performance des requêtes et la disponibilité des données lors de l’exécution des requêtes SPARQL. Dans cette thèse, nous étudions comment la collaboration des consommateurs de données ouvre de nouvelles opportunités concernant ce compromis. Plus précisément, comment la collaboration des consommateurs de données peut : améliorer les performances sans dégrader la disponibilité, ou améliorer la disponibilité sans dégrader les performances. Nous considérons que les données liées permettent à n’importe qui d’exécuter un médiateur compact qui peut interroger des sources de données sur le Web grâce à des requêtes SPARQL. L’idée principale est de connecter ces médiateurs ensemble pour construire une fédération de consommateurs de données liées. Dans cette fédération, chaque médiateur interagit avec un sous-ensemble du réseau. Grâce à cette fédération, nous avons construit : (i) un cache décentralisé hébergé par les médiateurs. Ce cache côté client permet de prendre en charge une part importante des sous-requêtes et d’améliorer la disponibilité des données avec un impact faible sur les performances. (ii) un algorithme de délégation qui permet aux médiateurs de déléguer leurs requêtes à d’autres médiateurs. Nous démontrons que la délégation permet d’exécuter un ensemble de requêtes plus rapidement quand les médiateurs collaborent. Cela améliore les performances sans dégrader la disponibilité des données.


                Date de soutenance : 12-10-2017
                Président du jury : Pascal Molli
                Jury :

                    Sylvain Lanneau, Localisation et estimation basées modèle d’un objet ellipsoidal avec le sens électrique artificiel
                  Localisation et estimation basées modèle d’un objet ellipsoidal avec le sens électrique artificiel
                  Auteur : Sylvain Lanneau
                  Manuscript :
                  Equipe : TALN.


                  Mots-clés : Robotique sous-MarineSens électrique artificielInspection d’objetLocalisationEstimation de forme
                  Résumé

                  Le but de cette thèse est de contribuer à la perception sous-marine pour des applications de robotique grâce à un champ électrique. Nous proposons de nouvelles méthodes pour l’inspection, la localisation et l’estimation de forme d’un objet ellipsoïdal en utilisant un capteur inspiré des poissons faiblement électriques. Premièrement, nous montrons que l’objet peut être détecté et que son matériau et sa position par rapport à l’axe du capteur peuvent être discriminés en utilisant de simples détections de seuils sur les courants mesurés. Ensuite, nous proposons l’implémentation successive de trois lois de contrôle réactives permettant au capteur de se diriger vers l’objet et d’effectuer une révolution autour de celui-ci en suivant ses frontières. Puis, nous utilisons l’algorithme MUSIC afin de localiser le centre de l’objet. Enfin, les paramètres géométriques de l’objet et son orientation sont estimés grâce à une méthode d’optimisation basée sur les moindres carrés et sur l’inversion du modèle analytique du tenseur de polarisation d’un objet ellipsoïdal. Nous montrons que ces algorithmes fonctionnent en conditions expérimentales. Pour les algorithmes de localisation et d’estimation de forme, des techniques impliquant des déplacements du capteur sont proposées, afin de réduire significativement les imprécisions dues aux écarts entre le modèle et les mesures de courant.


                  Date de soutenance : 04-10-2017
                  Président du jury : Frédéric Boyer
                  Jury :
                  • Luc Jaulin [Président]
                  • Habib Ammari [Rapporteur]
                  • Nicolas Andreff [Rapporteur]
                  • Stéphane Viollet
                  • Fabien Candelier
                  • Vincent Creuze
                  • Vincent Lebastard

                    Yacine Bouallouche, Méta-modèle et cadre méthodologique pour l'ingénierie d'une organisation étendue. Application à une administration étendue
                  Méta-modèle et cadre méthodologique pour l'ingénierie d'une organisation étendue. Application à une administration étendue
                  Auteur : Yacine Bouallouche
                  Manuscript :
                  Equipe : TALN.


                  Mots-clés : Gestion publiqueValeur publiqueGénie industrielRéseau d’organisationsPartenariat public-privéModélisation d’entrepriseInteropérabilitéContrôle inter-organisationnel
                  Résumé

                  L’accélération des changements politiques et socio-économiques influe fortement sur l’équilibre budgétaire des organisations publiques. Elles sont contraintes de tendre vers un modèle d’organisation plus réactif et flexible. Pour les organisations publiques, l’enjeu est de déterminer la meilleure hybridation public-privé, déclinée en une structure réticulaire, permettant d’assurer la performance économique de leurs services mais également la création de valeur publique. Ces réorganisations présentent de nombreux écueils insuffisamment adressés par la littérature en gestion publique. Elle analyse les évolutions et les lacunes en matière de management dans la sphère publique mais elle ne propose que rarement les méthodes et outils supportant les formes de management qu’elle recommande. Dans ce contexte, l’objectif de cette thèse est de s’approprier la littérature en gestion publique pour y apporter un nouveau regard et proposer la mise en oeuvre de modèles, méthodes et outils du génie industriel. Ainsi, nous proposons un méta-modèle et un cadre méthodologique pour l’ingénierie d’une organisation étendue. Cette proposition vise à maîtriser la complexité d’une structure réticulaire sans nuire à l’autonomie des organisations (publiques et/ou privées) qui la composent. La mise en oeuvre de la méthodologie proposée est illustrée par le biais d’un cas d’école inspiré de la fonction habillement du ministère des Armées : le scénario d’une externalisation de cette fonction habillement est étudié en prenant en considération son inclusion dans une structure réticulaire.


                  Date de soutenance : 25-09-2017
                  Président du jury : Alain Bernard
                  Jury :

                      Yacine Hebbal, Mécanismes de monitoring sémantique dédiés à la sécurité des infrastructures cloud IaaS
                    Mécanismes de monitoring sémantique dédiés à la sécurité des infrastructures cloud IaaS
                    Auteur : Yacine Hebbal
                    Manuscript :
                    Equipe : TALN.


                    Mots-clés : Introspection de Machine VirtuelleLe Fossé SémantiqueAnalyse Binaire StatiqueRéutilisation du Code Binaire
                    Résumé

                    L’introspection de machine virtuelle (VM) consiste à superviser les états et les activités de celles-ci depuis la couche de virtualisation, tirant ainsi avantage de son emplacement qui offre à la fois une bonne visibilité des états et des activités des VMs ainsi qu’une bonne isolation de ces dernières. Cependant, les états et les activités des VMs à superviser sont vus par la couche de virtualisation comme une suite binaire de bits et d’octets en plus des états des ressources virtuelles. L’écart entre la vue brute disponible à la couche de virtualisation et celle nécessaire pour la supervision de sécurité des VMs constitue un challenge pour l’introspection appelé « le fossé sémantique ». Pour obtenir des informations sémantiques sur les états et les activités des VMs à fin de superviser leur sécurité, nous présentons dans cette thèse un ensemble de techniques basé sur l’analyse binaire et la réutilisation du code binaire du noyau d’une VM. Ces techniques permettent d’identifier les adresses et les noms de la plupart des fonctions noyau d’une VM puis de les instrumenter (intercepter, appeler et analyser) pour franchir le fossé sémantique de manière automatique et efficiente même dans les cas des optimisations du compilateur et de la randomisation de l’emplacement du code noyau dans la mémoire de la VM.


                    Date de soutenance : 18-09-2017
                    Président du jury : Jean-Marc Menaud
                    Jury :
                    • Éric Totel [Président]
                    • Daniel Hagimont [Rapporteur]
                    • Vania Marangozova [Rapporteur]
                    • Sylvie Laniepce
                    • Frédéric Le Mouël

                      Michel Albonico, Test de système élastiques basés sur le Cloud
                    Test de système élastiques basés sur le Cloud
                    Auteur : Michel Albonico
                    Manuscript :
                    Equipe : TALN.


                    Mots-clés : ContrôlabilitéTest pendant l’élasticitéCloud ComputingÉlasticité
                    Résumé

                    Les systèmes déployés dans être testés pendant l’élasticité, ce qui entraîne plusieurs problématiques. D’abord, l’exécution d’un test pendant l’élasticité peut exiger de conduire le CBS dans une succession de comportements élastiques spécifiques, càd., une séquence d’ajout/retrait de ressources, qui nécessite des variations précises de la charge des requêtes envoyées au cloud. Seconde, certaines adaptations du CBS ne sont réalisées qu’à un moment précis, par exemple après un ajout de ressources et, par conséquent, leurs tests doivent être synchronisés avec des états spécifiques du CBS. Troisième, les testeurs doivent rejouer les tests pendant l’élasticité de manière déterministe afin de déboguer et corriger le CBS. Quatrième, la création des tests pendant l’élasticité est complexe et laborieuse dû au large nombre de paramètres, et à la particularité du cloud computing. Enfin, seulement quelques combinaisons de paramètres peuvent causer des problèmes au CBS, que les cas de test créés au hasard peuvent manquer, alors qu’un jeu de tests couvrant toutes les combinaisons possibles serait trop grand et impossible à exécuter. Dans cette thèse, nous abordons toutes ces problématiques en proposant plusieurs approches :1) une approche qui conduit les CBSs dans une suite de comportements élastiques prédéfinis, 2) une approche qui synchronise l’exécution des tests selon les états du CBS, 3) une approche qui permette la reproduction des tests pendant l’élasticité, 4) un langage spécifique à ce domaine (DSL, selon l’acronyme anglais) qui résume la mise en œuvre des tests pendant l’élasticité, 5) une approche qui génère des petits ensembles de tests pendant l’élasticité tout en révélant des problèmes liés à l’élasticité.


                    Date de soutenance : 28-08-2017
                    Président du jury : Gerson Sunyé
                    Jury :
                    • Philippe Lamarre [Président]
                    • Eduardo Cunha de Almeida [Rapporteur]
                    • Lydie du Bousquet [Rapporteur]
                    • Jean-Marc Menaud

                      Ahmed Aldahdooh, Transmission vidéo «contenu»-adaptée dans le contexte HEVC: Optimisation de la compression, de la tolérance aux erreurs de la transmission, et de la qualité visuelle
                    Transmission vidéo «contenu»-adaptée dans le contexte HEVC: Optimisation de la compression, de la tolérance aux erreurs de la transmission, et de la qualité visuelle
                    Auteur : Ahmed Aldahdooh
                    Manuscript :
                    Equipe : TALN.


                    Mots-clés : Masquage d’erreurEnodage à description multipleCompression vidéoCaractéristiques du contenu visuelRésilience d’erreurEvaluation de la qualité visuelleTransmission vidéoHEVC standard
                    Résumé

                    Dans cette étude, nous utilisons des caractéristiques locales/globales en vue d’améliorer la chaîne de transmission des séquences de vidéos. Ce travail est divisé en quatres parties principales qui mettent à profit les caractéristiques de contenu vidéo. La première partie introduit un modèle de prédiction de paramètres d’un encodeur basé sur la complexité du contenu. Ce modèle utilise le débit, la distorsion, ainsi que la complexité de différentes configurations de paramètres afin d’obtenir des valeurs souhaitables (recommandées) de paramètres d’encodage. Nous identifions ensuite le lien en les caractéristiques du contenu et ces valeurs recommandées afin de construire le modèle de prédiction. La deuxième partie illustre le schéma de l’encodage à description multiple (Multiple Description Coding ou MDC, en anglais) que nous proposons dans ces travaux. Celui-ci est optimisé pour des MDC d’ordre-hauts. Le décodage correspondant et la procédure de récupération de l’erreur contenu-dépendant sont également étudiés et identifiés. La qualité de la vidéo reçue a été évaluée subjectivement. En analysant les résultats des expériences subjectives, nous introduisons alors un schéma adaptatif, c’est-à-dire adapté à la connaissance du contenu vidéo. Enfin, nous avons simulé un scénario d’application afin d’évaluer un taux de débit réaliste. Dans la troisième partie, nous utilisons une carte de déplacement, calculées au travers des propriétés de mouvement du contenu vidéo, comme entrée pour l’algorithme de masquage d’erreur par recouvrement (inpainting based error concealment algorithm). Une expérience subjective a été conduite afin d’évaluer l’algorithme et d’étudier la perturbation de l’observateur au visionnage de la vidéo traitée. La quatrième partie possèdent deux sous-parties. La première se penche sur les algorithmes de sélections par HRC pour les grandes bases de données de vidéos. La deuxième partie introduit l’évaluation de la qualité vidéo utilisant la connaissance du contenu global non-référencé.


                    Date de soutenance : 25-08-2017
                    Président du jury : Prof. Patrick LE CALLET, Dr. Marcus BARKOWSKY
                    Jury :

                        Alex Kosgodagan, Modélisation de dépendance en grandes dimensions par les réseaux Bayésiens pour la détérioration d’infrastructures et autres applications
                      Modélisation de dépendance en grandes dimensions par les réseaux Bayésiens pour la détérioration d’infrastructures et autres applications
                      Auteur : Alex Kosgodagan
                      Manuscript :
                      Equipe : TALN.


                      Mots-clés : Jugement structuré d’expertModélisation de copulesModèle de dégradation probabilisteRéseaux Bayésiens
                      Résumé

                      Cette thèse explore l’utilisation des réseaux Bayésiens (RB) afin de répondre à des problématiques de dégradation en grandes dimensions concernant des infrastructures du génie civil. Alors que les approches traditionnelles basées l’évolution physique déterministe de détérioration sont déficientes pour des problèmes à grande échelle, les gestionnaires d’ouvrages ont développé une connaissance de modèles nécessitant la gestion de l’incertain. L’utilisation de la dépendance probabiliste se révèle être une approche adéquate dans ce contexte tandis que la possibilité de modéliser l’incertain est une composante attrayante. Le concept de dépendance au sein des RB s’exprime principalement de deux façons. D’une part, les probabilités conditionnelles classiques s’appuyant le théorème de Bayes et d’autre part, une classe de RB faisant l’usage de copules et corrélation de rang comme mesures de dépendance. Nous présentons à la fois des contributions théoriques et pratiques dans le cadre de ces deux classes de RB ; les RB dynamiques discrets et les RB non paramétriques, respectivement. Des problématiques concernant la paramétrisation de chacune des classes sont également abordées. Dans un contexte théorique, nous montrons que les RBNP permet de caractériser n’importe quel processus de Markov.


                      Date de soutenance : 26-06-2017
                      Président du jury : Bruno Castanier
                      Jury :
                      • Christophe Bérenguer [Président]
                      • Roger Marvin Cooke [Rapporteur]
                      • Laurent Bouillaut [Rapporteur]
                      • Philippe Leray
                      • Laurent Truffet
                      • Wim Courage

                        Robin Tournemenne, Optimisation d'un instrument de musique de type cuivre basée sur des simulations sonores par modèle physique
                      Optimisation d'un instrument de musique de type cuivre basée sur des simulations sonores par modèle physique
                      Auteur : Robin Tournemenne
                      Manuscript :
                      Equipe : TALN.


                      Mots-clés : OptimisationAcoustiqueÉtudes perceptives
                      Résumé

                      Le travail présenté dans cette thèse s’intéresse à l’optimisation de la géométrie interne (la perce) des instruments de musique à vent de la famille des cuivres. L’originalité de l’approche repose sur l’utilisation de simulations sonores par modèle physique pour déterminer la perce optimisant des qualités sonores telles que la justesse ou le timbre de l’instrument. Le modèle physique utilisé, représentant le fonctionnement de l’excitateur, du résonateur et du couplage entre ces deux éléments, permet d’obtenir des sons représentatifs de leur interaction. La méthode de simulation utilisée est l’équilibrage harmonique, qui produit des simulations sonores en régime permanent, représentatives de la perce et des paramètres de contrôle du musicien virtuel. Différents problèmes d’optimisation sont formulés, pour lesquels la fonction objectif à minimiser et les contraintes représentent des attributs de la qualité des notes, la variable d’optimisation étant les dimensions géométriques de la perce. Étant donné les coûts de calcul et l'indisponibilité des dérivées de la fonction objectif, une méthode d’optimisation par recherche directe assistée de métamodèles est choisie (MADS). Deux exemples d'optimisation de la justesse ou du timbre d'une trompette, avec 2 et 5 variables d’optimisation, valident l'approche. Les résultats montrent que la méthode optimise la justesse globale de l’instrument de manière robuste, pour un coût raisonnable. Enfin, deux études perceptives étudient, d’une part, la capacité du modèle physique à produire des sons perceptivement différents entre des instruments différents, et, d’autre part, comment les différences entre un instrument nominal et un instrument optimisé sont perçues.


                      Date de soutenance : 14-06-2017
                      Président du jury : Jean-François Petiot
                      Jury :

                          Robin Tournemenne, Optimisation d’un instrument de musique de type cuivre basée sur des simulations sonores par modèle physique
                        Optimisation d’un instrument de musique de type cuivre basée sur des simulations sonores par modèle physique
                        Auteur : Robin Tournemenne
                        Manuscript :
                        Equipe : TALN.


                        Mots-clés : OptimisationAcoustiqueÉtudes perceptives
                        Résumé

                        Le travail présenté dans cette thèse s’intéresse à l’optimisation de la géométrie interne (la perce) des instruments de musique à vent de la famille des cuivres. L’originalité de l’approche repose sur l’utilisation de simulations sonores par modèle physique pour déterminer la perce optimisant des qualités sonores telles que la justesse ou le timbre de l’instrument. Le modèle physique utilisé, représentant le fonctionnement de l’excitateur, du résonateur et du couplage entre ces deux éléments, permet d’obtenir des sons représentatifs de leur interaction. La méthode de simulation utilisée est l’équilibrage harmonique, qui produit des simulations sonores en régime permanent, représentatives de la perce et des paramètres de contrôle du musicien virtuel. Différents problèmes d’optimisation sont formulés, pour lesquels la fonction objectif à minimiser et les contraintes représentent des attributs de la qualité des notes, la variable d’optimisation étant les dimensions géométriques de la perce. Étant donné les coûts de calcul et l'indisponibilité des dérivées de la fonction objectif, une méthode d’optimisation par recherche directe assistée de métamodèles est choisie (MADS). Deux exemples d'optimisation de la justesse ou du timbre d'une trompette, avec 2 et 5 variables d’optimisation, valident l'approche. Les résultats montrent que la méthode optimise la justesse globale de l’instrument de manière robuste, pour un coût raisonnable. Enfin, deux études perceptives étudient, d’une part, la capacité du modèle physique à produire des sons perceptivement différents entre des instruments différents, et, d’autre part, comment les différences entre un instrument nominal et un instrument optimisé sont perçues.


                        Date de soutenance : 14-06-2017
                        Président du jury : Jean-François Petiot
                        Jury :
                        • Saïd Moussaoui [Président]
                        • Christophe Vergez [Rapporteur]
                        • Jean-Loïc Le Carrou [Rapporteur]
                        • Joël Bensoa
                        • Joël Gilbert
                        • Marthe Curtit

                          Yunbo Li, Allocation de ressources dans un Cloud partiellement alimenté par des sources d’énergie renouvelable
                        Allocation de ressources dans un Cloud partiellement alimenté par des sources d’énergie renouvelable
                        Auteur : Yunbo Li
                        Manuscript :
                        Equipe : TALN.


                        Mots-clés : Allocation de ressourcesEfficacité énergétiqueÉnergie renouvelableCloud
                        Résumé

                        La plupart des infrastructures de cloud efficace en énergie proposées dans la littérature ne tiennent pas compte de la disponibilité électrique et des énergies renouvelables dans leurs modèles. L’intégration des énergies renouvelables dans les centres de données réduit considérablement leur consommation d’énergie et leur empreinte carbone. Étant donné que l’énergie renouvelable est intermittente et fluctue en fonction du temps, elle est habituellement sous-utilisée. Nous abordons le problème de l’amélioration de l’utilisation des énergies renouvelables dans un centre de données unique et étudions deux approches : la planification opportuniste et le stockage de l’énergie. Nos résultats démontrent que les deux approches permettent de réduire la consommation d’énergie non-renouvelable sous différentes configurations. Nous étendons ce travail au contexte des Edge Clouds et de l’Internet des Objets dans le cas de l’analyse de flux de données. Nous montrons comment rendre les Edge Clouds plus verts avec une production d’énergie renouvelable sur site combinée à un stockage d’énergie et à une dégradation de performance des applications des utilisateurs.


                        Date de soutenance : 12-06-2017
                        Président du jury : Jean-Marc Menaud
                        Jury :
                        • Romain Rouvoy [Président]
                        • Pascal Bouvry [Rapporteur]
                        • Patricia Stolf [Rapporteur]
                        • Laurent Lefèvre

                          Zakaria Yahouni, Le meilleur des cas pour l’ordonnancement de groupes : Un nouvel indicateur proactif-réactif pour l’ordonnancement sous incertitudes
                        Le meilleur des cas pour l’ordonnancement de groupes : Un nouvel indicateur proactif-réactif pour l’ordonnancement sous incertitudes
                        Auteur : Zakaria Yahouni
                        Manuscript :
                        Equipe : TALN.


                        Mots-clés : Coopération homme-machineOrdonnancementOrdonnancement de groupesBorne inférieureSéparation et évaluationAide à la décision
                        Résumé

                        Cette thèse représente une étude d'un nouvel indicateur d'aide à la décision pour le problème d'ordonnancement d'ateliers de production sous présence d'incertitudes. Les contributions apportées dans ce travail se situent dans le contexte des groupes d'opérations permutables. Cette approche consiste à proposer une solution d'ordonnancement flexible caractérisant un ensemble fini non-énuméré d'ordonnancements. Un opérateur est ensuite censé sélectionner l'ordonnancement qui répond le mieux aux perturbations survenues dans l'atelier. Nous nous intéressons plus particulièrement à cette phase de sélection et nous mettons l'accent sur l’intérêt de l'humain pour la prise de décision. Dans un premier temps, nous présentons le meilleur des cas; indicateur d'aide à la décision pour le calcul du meilleur ordonnancement caractérisé par l'ordonnancement de groupes. Nous proposons des bornes inférieures pour le calcul des dates de début/fin des opérations. Ces bornes sont ensuite implémentées dans une méthode de séparation et d'évaluation permettant le calculer du meilleur des cas. Grâce à des simulations effectuées sur des instances de job shop de la littérature, nous mettons l'accent sur l'utilité et la performance d'un tel indicateur dans un système d'aide à la décision. Enfin, nous proposons une Interface Homme-Machine (IHM) adaptée à l'ordonnancement de groupes et pilotée par un système d'aide à la décision multicritères. L'implémentation de cette IHM sur un cas d'étude réel a permis de soulever certaines pratiques efficaces pour l'aide à la décision dans le contexte de l'ordonnancement sous incertitudes.


                        Date de soutenance : 23-05-2017
                        Président du jury : Nasser Mebarki
                        Jury :
                        • Djamila Hadj Slimane [Président]
                        • Christian Artigues [Rapporteur]
                        • Rabah Gouri [Rapporteur]
                        • Farouk Yalaoui
                        • Jean-Jacques Loiseau
                        • David Damand

                          Zakaria Yahouni, Le meilleur des cas pour l'ordonnancement de groupes : Un nouvel indicateur proactif-réactif pour l'ordonnancement sous incertitudes
                        Le meilleur des cas pour l'ordonnancement de groupes : Un nouvel indicateur proactif-réactif pour l'ordonnancement sous incertitudes
                        Auteur : Zakaria Yahouni
                        Manuscript :
                        Equipe : TALN.


                        Mots-clés : Borne inférieureSéparation et évaluationOrdonnancementOrdonnancement de groupesAide à la décisionCoopération homme-machine
                        Résumé

                        Cette thèse représente une étude d'un nouvel indicateur d'aide à la décision pour le problème d'ordonnancement d'ateliers de production sous présence d'incertitudes. Les contributions apportées dans ce travail se situent dans le contexte des groupes d'opérations permutables. Cette approche consiste à proposer une solution d'ordonnancement flexible caractérisant un ensemble fini non-énuméré d'ordonnancements. Un opérateur est ensuite censé sélectionner l'ordonnancement qui répond le mieux aux perturbations survenues dans l'atelier. Nous nous intéressons plus particulièrement à cette phase de sélection et nous mettons l'accent sur l’intérêt de l'humain pour la prise de décision. Dans un premier temps, nous présentons le meilleur des cas; indicateur d'aide à la décision pour lecalcul du meilleur ordonnancement caractérisé par l'ordonnancement de groupes. Nous proposons des bornes inférieures pour le calcul des dates de début/fin des opérations. Ces bornes sont ensuite implémentées dans une méthode de séparation et d'évaluation permettant le calculer du meilleur des cas. Grâce à des simulations effectuées sur des instances de job shop de la littérature,nous mettons l'accent sur l'utilité et la performance d'un tel indicateur dans un système d'aide à la décision. Enfin, nous proposons une Interface Homme-Machine(IHM) adaptéeà l'ordonnancement de groupes et pilotéepar un système d'aide à la décision multicritères. L'implémentation de cette IHM sur un cas d'étude réel a permis de soulever certaines pratiques efficaces pour l'aideà la décision dans le contexte de l'ordonnancement sous incertitudes.


                        Date de soutenance : 23-05-2017
                        Président du jury : Nasser Mebarki
                        Jury :
                        • Djamila Hadj Slimane
                        • Christian Artigues (rapporteur)
                        • Rabah Gouri
                        • Farouk Yalaoui
                        • Jean-Jacques Loiseau (Examinateur)
                        • David Damand

                          Georges Nassopoulos, Déduire des Basic Graph Patterns depuis les Logs des Fournisseurs du Linked Data
                        Déduire des Basic Graph Patterns depuis les Logs des Fournisseurs du Linked Data
                        Auteur : Georges Nassopoulos
                        Manuscript :
                        Equipe : TALN.


                        Mots-clés : Contrôle de UsageAnalyse de LogsExploitation de DonnéesDonnées Liées
                        Résumé

                        Conformément aux principes de Linked Data, les fournisseurs de données ont publié des milliards de faits en tant que données RDF. Exécuter les requêtes SPARQL sur les endpoints SPARQL ou les serveurs Triple Pattern Fragments (TPF) permet de consommer facilement des données du Linked Data. Cependant, le traitement des requêtes SPARQL fédérées, tout comme le traitement des requêtes TPF, décompose la requête initiale en de nombreuses sous-requêtes. Les fournisseurs de données ne voient alors que les sous-requêtes et la requête initiale n’est connue que des utilisateurs finaux. La connaissance des requêtes exécutées est fondamentale pour les fournisseurs, afin d’assurer un contrôle de l’utilisation des données, d’optimiser le coût des réponses aux requêtes, de justifier un retour sur investissements, d’améliorer l’expérience utilisateur ou de créer des modèles commerciaux à partir de tendances d’utilisation. Dans cette thèse, nous nous concentrons sur l’analyse des logs d’exécution des serveurs TPF et des endpoints SPARQL pour extraire les Basic Graph Patterns (BGP) des requêtes SPARQL exécutées. Le principal défi pour l’extraction des BGPs est l’exécution simultanée des requêtes SPARQL. Nous proposons deux algorithmes : LIFT et FETA. Sous certaines conditions, nous constatons que LIFT et FETA sont capables d’extraire des BGPs avec une bonne précision et un bon rappel.


                        Date de soutenance : 22-05-2017
                        Président du jury : Pascal Molli(pascal.molli@univ-nantes.fr)
                        Jury :
                        • Philippe Lamarre [Rapporteur]
                        • Olivier Curé [Rapporteur]
                        • Pascale Kuntz-Cosperec (examinateur)
                        • Claudia Roncancio (examinateur)
                        • René Quiniou (examinateur)
                        • Patricia Serrano-Alvarado (co-encadrant)
                        • Emmanuel Desmontils (co-encadrant)

                        Copyright : LS2N 2017 - Mentions Légales - 
                         -