Home » Thèses

Thèses soutenues 2017



  Yuan Bian, Planification tactique de production des flux physiques et financiers d’une chaîne logistique multi-site
Planification tactique de production des flux physiques et financiers d’une chaîne logistique multi-site
Auteur : Yuan Bian
Manuscript :


Mots-clés : Lot-SizingBesoin en Fond de RoulementFlux de trésorerie actualisésMaximisation du profit
Résumé

En période de crise financière, les entreprises ont besoin de trésorerie pour réagir efficacement aux aléas et assurer leur solvabilité. Cette thèse se situe à l’interface entre l’opérationnel et la finance pour développer des modèles de planification tactique gérant simultanément les flux physiques et financiers dans la supply chain. Le coût de financement des opérations basé sur le besoin en fond de roulement (BFR) est intégré comme un nouvel aspect financier jamais considéré dans la littérature de lot-sizing. Nous débutons par une extension du modèle EOQ considérant les coûts de financement du BFR. L’objectif est la maximisation du profit. Une quantité de production optimale est obtenue analytiquement ainsi que l’analyse de la sensibilité du modèle. De plus, les comparaisons avec le modèle EOQ et un modèle qui considère le coût du capital sont étudiées. Ensuite, un modèle basé sur un lot-sizing dynamique est établi. La propriété ZIO est démontrée et permet l’utilisation d’un algorithme en temps polynomial. Enfin un scénario multi-niveau à capacité infini est étudié avec une approche séquentielle puis centralisée. La propriété ZIO est prouvée dans ces deux cas. Des algorithmes de programmation dynamique sont utilisés pour obtenir une solution optimale. Cette thèse peut être considérée comme un premier, mais significatif, travail combinant la planification de production et la gestion du besoin en fond de roulement dans des modèles de planification tactique. Nous montrons que les aspects financiers ont un impact significatif sur les plans de production. Les cas étudiés dans cette thèse peuvent être considérés comme des sous-problèmes dans l’étude de scénario plus réalistes.


Date de soutenance : 19-12-2017
Président du jury : Nathalie Bostel
Jury :
  • Jean-Laurent Viviani [Président]
  • Safia Kedad Sidhoum [Rapporteur]
  • Pierre Féniès [Rapporteur]
  • Stefan Helber [Rapporteur]
  • Alexandre Dolgui

  Quentin Adrien Tonneau, Optimisation de la chaine logistique des déchets non dangereux
Optimisation de la chaine logistique des déchets non dangereux
Auteur : Quentin Adrien Tonneau
Manuscript :


Mots-clés : Recherche opérationnelleLogistique des déchetsProblème de tournées avec gestion de stocksMétaheuristiqueStochastiqueAlns
Résumé

Avec plus de 345 millions de tonnes de déchets produits en France en 2012, la performance de la chaîne logistique de collecte, transport et traitement de ces produits et matériaux est devenue un enjeu économique et écologique majeur dans notre société. Dans cette thèse, nous nous intéressons à l’optimisation de la chaîne de collecte et transport des déchets sur le plan tactique et opérationnel. Nous modélisons dans un premier temps un nouveau problème tactique d’optimisation de flux de déchets avec sites de transfert et de traitement sur un horizon mono-périodique puis multi-périodique, afin d’exploiter un réseau logistique existant de manière optimale. Nous résolvons différentes variantes de ce problème linéaire mixte à l’aide d’un solveur. Nous étudions dans un second temps la planification opérationnelle de la collecte de conteneurs d’apport volontaire et des tournées de véhicules associées en résolvant un problème riche de tournées avec gestion de stocks et plateformes de vidage intermédiaires. Nous proposons un modèle d’optimisation de ce nouveau problème et le résolvons par un algorithme à voisinages larges (ALNS) dans un cadre déterministe puis stochastique, dans lequel le remplissage des conteneurs est aléatoire et plus conforme à la réalité. Nous obtenons des résultats compétitifs en évaluant notre approche sur des instances de la littérature proches de notre problème riche. En réalisant un logiciel d’optimisation à destination d’une entreprise de collecte et transport de déchets, nous améliorons également de manière significative les tournées de véhicules en application réelle.


Date de soutenance : 18-12-2017
Président du jury : Nathalie Bostel
Jury :
  • Olivier Péton [Président]
  • Philippe Lacomme [Rapporteur]
  • Christian Prins [Rapporteur]
  • Pierre Dejax
  • Fabien Tricoire

  Emna Ben Abdallah, Étude de la dynamique des réseaux biologiques : apprentissage des modèles, intégration des données temporelles et analyse formelle des propriétés dynamiques
Étude de la dynamique des réseaux biologiques : apprentissage des modèles, intégration des données temporelles et analyse formelle des propriétés dynamiques
Auteur : Emna Ben Abdallah
Manuscript :


Mots-clés : Réseaux de régulation biologiqueSystèmes complexesRéseaux d’automatesRéseaux d’automates avec le tempsApprentissage des modèlesAnalyse formelleAtteignabilitéAttracteursAnswer Set Programming
Résumé

Au cours des dernières décennies, l’émergence d’une large gamme de nouvelles technologies a permis de produire une quantité massive de données biologiques (génomique, protéomique...). Ainsi, une grande quantité de données de séries temporelles est maintenant élaborée tous les jours. Nouvellement produites, ces données peuvent nous fournir des nouvelles interprétations sur le comportement des Systèmes Biologiques (SB). Cela conduit alors à des développements considérables dans le domaine de la bioinformatique qui peuvent tirer profit de ces données. Ceci justifie notre motivation pour le développement de méthodes efficaces qui exploitent ces données pour l’apprentissage des Réseaux de Régulation Biologique (RRB) modélisant les SB. Nous introduisons alors, dans cette thèse, une nouvelle approche qui infère des RRB à partir des données de séries temporelles. Les RRB appris sont présentés avec un nouveau formalisme, introduit dans cette thèse, appelé " réseau d’automates avec le temps" (T-AN). Ce dernier assure le raffinement de la dynamique des RRB, modélisés avec le formalisme des réseaux d’automates (AN), grâce à l’intégration d’un paramètre temporel (délai) dans les transitions locales des automates. Cet enrichissement permet de paramétrer les transitions entre les états locaux des automates et aussi entre les états globaux du réseau. À posteriori de l’apprentissage des RRB, et dans le but d’avoir une meilleure compréhension de la nature du fonctionnement des SB, nous procédons à l’analyse formelle de la dynamique des RRB. Nous introduisons alors des méthodes logiques originales (développées en Answer Set Programming) pour déchiffrer l’énorme complexité de la dynamique des SB. Les propriétés dynamiques étudiées sont : l’identification des attracteurs (ensemble d’états globaux terminaux dont le réseau ne peut plus s’échapper) et la vérification de la propriété d’atteignabilité d’un objectif (un ensemble de composants) à partir d’un état global initial du réseau.


Date de soutenance : 07-12-2017
Président du jury : Olivier Roux
Jury :
  • Laurent Trilling [Président]
  • Hanna Klaudel [Rapporteur]
  • Sylvain Sené [Rapporteur]
  • Franck Delaunay

  Bertrand Miannay, Analyse de réseaux de régulation par approches de coloration de graphes dans le cadre du myélome multiple
Analyse de réseaux de régulation par approches de coloration de graphes dans le cadre du myélome multiple
Auteur : Bertrand Miannay
Manuscript :


Mots-clés : Biologie des systèmesMyélome multipleColoration de graphesProgrammation par contraintes
Résumé

Au cours des 2 dernières décennies, l’explosion des capacités de production de données biologiques et des connaissances sur les interactions biologiques ont permis le développement de nombreuses approches intégrant des données avec des connaissances plus générales. Notre principal objectif était de proposer de nouvelles méthodes de caractérisation et de comparaison de profils d’expressions de gènes issus de cellules cancéreuses d’individus atteints de myélome multiple et de plasmocytes normaux. Pour cela, nous proposons 2 méthodes basées sur les colorations de graphes de régulation. La première, qui permet d’inférer l’état des protéines et des facteurs de transcription à partir d’un profil d’expression, nous a permis d’identifier des activités de facteurs de transcription impliqués dans ces tumeurs. La seconde méthode permet de diviser un réseau de régulation en plusieurs sous-graphes indépendant (des composants) vis à vis de colorations dites "parfaites". Via cette approche, nous avons pu évaluer la similarité entre les profils d’expression et les états "parfait" des composants et en identifier spécifiquement perturbés dans les cellules cancéreuses associés à des voies oncogéniques.


Date de soutenance : 05-12-2017
Président du jury : Olivier Roux
Jury :
  • Jean-Daniel Zucker [Président]
  • Mohamed Elati [Rapporteur]
  • Nathalie Théret [Rapporteur]
  • Florence Magrangeas

  Yann Briheche, Optimisation du maillage de la veille sur radar à balayage électronique à panneau fixe
Optimisation du maillage de la veille sur radar à balayage électronique à panneau fixe
Auteur : Yann Briheche
Manuscript :


Mots-clés : Gestion des ressources radarRadar à balayage électroniqueAntenne reseau à commande de phaseOptimisation combinatoireRecouvrement d'ensembleProblème de recouvrement de grille rectangulaire
Résumé

Les radars modernes sont des systèmes complexes. Leurs missions, incluant surveillance, suivi et identification, se sont étendues conjointement à leurs capacités, favorisées par le développement de l'électronique et du numérique. Ces radars peuvent balayer dynamiquement et librement l'espace grâce à des panneaux numériques, les libérant des limitations des moteurs mécaniques. La guerre électronique, où les temps de réaction sont toujours plus courts, nécessite néanmoins une gestion parcimonieuse du temps disponible au radar pour accomplir ces missions. Dans ce contexte, l'optimisation du temps utilisé pour la surveillance doit exploiter pleinement les capacités des nouveaux radars. Les travaux réalisés durant cette thèse ont été de formaliser mathématiquement ce problème, de déterminer et adapter les outils pertinents pour sa résolution, et d'en explorer les possibilités. Le problème de la surveillance radar se rapproche conceptuellement du recouvrement d'ensemble en optimisation combinatoire. Grâce à des algorithmes utilisant la programmation dynamique et la programmation linéaire en nombres entiers, ce problème a pu être résolu, et étendu à des situations plus complexes, incluant différentes contraintes opérationnelles. Cette approche fructueuse ouvre de nouvelles pistes pour l'amélioration des performances des radars, et offre de nombreuses possibilités d'applications. Entre autres l'aide à la conception des couvertures des radars actuels, la simulation des performances d'architectures de futurs radars et le développement de radars cognitifs, capables de s'adapter à leur environnement opérationnel.


Date de soutenance : 30-11-2017
Président du jury : Fouad Bennis
Jury :
  • Hugh Griffiths [Président]
  • Georges Fadel [Rapporteur]
  • Bernard Yannou [Rapporteur]
  • Frédéric Barbaresco
  • Rajib Bhattacharjya

  Vaiyee Huynh, Stabilité Posturale d’un Exosquelette Actif de Jambes
Stabilité Posturale d’un Exosquelette Actif de Jambes
Auteur : Vaiyee Huynh
Manuscript :


Mots-clés : ExosqueletteEquilibrePoint de captureRépartition des effortsSous-actionnementAssistance
Résumé

Quel que soit le type d'exosquelettes de jambes, la question d’équilibre du système est très importante, puisqu'il s'agit de robots physiquement attachés à l'utilisateur. Dans le but de respecter au maximum la volonté de l'utilisateur ainsi que ses mouvements, cette thèse a pour objectif de développer des stratégies de commande de gestion d'équilibre pour un exosquelette d’assistance. Il s'agit alors d'assister l'équilibre du système couplé (utilisateur valide + exosquelette), en gérant l'équilibre de l'exosquelette soumis à l'action de l'utilisateur. La commande de gestion d'équilibre proposée s'inspire des commandes développées par le CEA-LIST sur les exosquelettes Hercule et des stratégies de récupération d'équilibre observées chez l'humain. Elle est essentiellement basée sur le concept du point de capture instantané. En effet,le point de capture instantané est un bon outil qui englobe aussi bien le cas statique que le cas dynamique et surtout, qui contient une information sur la direction de mouvement, ce qui nous permet d'anticiper certaines actions comme l'action de faire un pas. Les contributions de cette thèse sont alors :• l'application d'une commande du point de capture à un exosquelette d'assistance ;• la proposition d'une nouvelle répartition des efforts sur les deux jambes de l'exosquelette permettant d'anticiper les perturbations et le pas ;• la gestion du sous-actionnement (toutes les articulations ne sont pas motorisées) en phase de double support via un calcul d'optimisation qui a pour objectif de suivre la répartition des efforts désirée et de maîtriser les forces d'interaction entre l'utilisateur et l'exosquelette.


Date de soutenance : 23-11-2017
Président du jury : Christine Chevallereau
Jury :
  • Philippe Fraisse [Président]
  • Philippe Souères [Rapporteur]
  • Samer Mohammed [Rapporteur]
  • Alain Micaelli

  Soufian Antoine Salim, Analyse discursive et multi-modale des conversations écrites en ligne portées sur la résolution de problèmes
Analyse discursive et multi-modale des conversations écrites en ligne portées sur la résolution de problèmes
Auteur : Soufian Antoine Salim
Manuscript :


Mots-clés : Actes de dialogueDiscoursCommunication médiée par les réseaux
Résumé

Nous nous intéressons aux conversations écrites en ligne orientées vers la résolution de problèmes. Dans la littérature, les interactions entre humains sont typiquement modélisées en termes d’actes de dialogue, qui désignent les types de fonctions remplies par les énoncés dans un discours. Nous cherchons à utiliser ces actes pour analyser les conversations écrites en ligne. Un cadre et des méthodes bien définies permettant une analyse fine de ce type de conversations en termes d’actes de dialogue représenteraient un socle solide sur lequel pourraient reposer différents systèmes liés à l’aide à la résolution des problèmes et à l’analyse des conversations écrites en ligne. De tels systèmes représentent non seulement un enjeu important pour l’industrie, mais permettraient également d’améliorer les plate-formes d’échanges collaboratives qui sont quotidiennement sollicitées par des millions d’utilisateurs. Cependant, les techniques d’identification de la structure des conversations n’ont pas été développées autour des conversations écrites en ligne. Il est nécessaire d’adapter les ressources existantes pour ces conversations. Cet obstacle est à placer dans le cadre de la recherche en communication médiée par les réseaux (CMR), et nous confronte à ses problématiques propres. Notre objectif est de modéliser les conversations écrites en ligne orientées vers la résolution de problèmes en termes d’actes de dialogue, et de proposer des outils pour la reconnaissance automatique de ces actes.


Date de soutenance : 22-11-2017
Président du jury : Emmanuel Morin
Jury :

      Nicolas Magdelaine, Diabète de type 1 du modèle ... à la boucle fermée
    Diabète de type 1 du modèle ... à la boucle fermée
    Auteur : Nicolas Magdelaine
    Manuscript :


    Mots-clés : Diabète de type 1ModélisationEssais cliniquesRégulation automatique de glycémieSystèmes PositifsBrevetPancréas artificiel
    Résumé

    Pour les personnes atteintes du diabète de type 1 le traitement actuel consiste en de multiples injections quotidiennes d’insuline afin de maintenir la glycémie dans une plage admissible. Les complications à long terme peuvent être réduites grâce à des injections d’insuline correctement dosées mais également grâce à un système de régulation automatique de glycémie. Cette Thèse présente un nouveau modèle du métabolisme du patient diabétique de type 1. Son interprétation le rend directement utilisable pour dresser le profil des patients et les conseiller sur leurs injections d’insuline. La Société Francophone du Diabète a financé des essais cliniques réalisés actuellement au CHU de Nantes pour valider ce modèle. La deuxième contribution de cette Thèse est une loi de commande qui pour la première fois garantit à la fois positivité de la commande et l’absence d’hypoglycémie qui sont les deux contraintes fortes de ce problème. Elle s’inspire du calcul du bolus, tel que le font les patients tous les jours et tel que l’insulinothérapie le préconise. La commande Hypo-Free Hyper-Minimizer est la version destinée à fonctionner dans une boucle hybride ; le Dynamic Bolus Calculator régulera la glycémie dans une boucle autonome. Ces deux lois de commande restent simples, et en étant très proches de la pratique clinique sont donc immédiatement compréhensibles par les médecins et les patients. Notre travail balaye le spectre complet, de la démonstration rigoureuse de positivité de la commande et de l’état en termes d’ensemble positivement invariant, à l’application industrielle par un dépôt de Brevet.


    Date de soutenance : 21-11-2017
    Président du jury : Claude Moog
    Jury :
    • Nicolas Moës [Président]
    • Andrea de Gaetano [Rapporteur]
    • Isabelle Queinnec [Rapporteur]
    • Maeva Doron
    • Michel Krempf

      Meriem Kouki, Energy control of production systems : Tool proposal to help design Discrete Event Simulation models integrating energy.
    Energy control of production systems : Tool proposal to help design Discrete Event Simulation models integrating energy.
    Auteur : Meriem Kouki
    Manuscript :


    Mots-clés : DurabilitéSystèmes de productionSimulation à évènements discretsModélisationPrédictionEfficacité énergétiqueConsommation énergétique
    Résumé

    Les industries sont aujourd’hui contraintes d’innover et d’améliorer leur durabilité sous une pression économique, politique et sociale accrue dans un marché très concurrentiel, avec une société de plus en plus sensible aux enjeux environnementaux. Dans ce contexte, de nombreuses initiatives ont été menées aussi bien au niveau académique qu’industriel pour améliorer la gestion de l’énergie dans la phase de production. En parallèle des avancées technologiques, les économies d’énergie liées à l’organisation de la production ne sont pas toujours exploitées du fait d’un manque de données liées au comportement énergétique des systèmes. Pour répondre à cette problématique, la simulation à évènements discrets est une solution fiable, mais plusieurs verrous empêchent encore son utilisation industrielle : les approches de la littérature manquent de généricité et de procédures fiables pour intégrer les données réelles de consommation énergétique dans les cas les plus complexes. L’objectif de notre travail est de proposer un outil de simulation permettant de prédire la consommation énergétique des systèmes de production et servir d’outil d’aide à la décision couplant des objectifs énergétiques et productivistes généralement peu conciliables. Cet outil est basé sur une approche générique et flexible permettant de modéliser et simuler les flux de production et les flux énergétiques dans une plateforme unique. De plus, une méthodologie d’intégration des données de consommation complexes, basée sur une approche stochastique, est proposée. La validation de notre approche et de l’outil a été réalisée sur des unités industrielles du domaine de la transformation des polymères et élastomères.


    Date de soutenance : 17-11-2017
    Président du jury : Pierre Castagna
    Jury :
    • Ali Gharbi [rapporteur]
    • Vincent Cheutet [rapporteur]
    • Pierre Mousseau [examinateur]
    • Nicolay Tchernev [examinateur]
    • Hind Bril Elhaouzi [examinateur]
    • Céline Cornardeau[invitée]

      Gwendal Daniel, Persistance, requêtage, et transformation efficaces de grands modèles
    Persistance, requêtage, et transformation efficaces de grands modèles
    Auteur : Gwendal Daniel
    Manuscript :


    Mots-clés : IDMTransformation de modèleRequêtage de modèlePassage à l’échelle
    Résumé

    L’Ingénierie Dirigée par les Modèles (IDM) est une méthode de développement logicielle ayant pour but d’améliorer la productivité et la qualité logicielle en utilisant les modèles comme artefacts de premiers plans durant le processus développement. Dans cette approche, les modèles sont typiquement utilisés pour représenter des vues abstraites d’un système, manipuler des données, valider des propriétés, et sont finalement transformés en ressources applicatives (code, documentation, tests, etc). Bien que les techniques d’IDM aient montré des résultats positifs lors de leurs intégrations dans des processus industriels, les études montrent que la mise à l’échelle des solutions existantes est un des freins majeurs à l’adoption de l’IDM dans l’industrie. Ces problématiques sont particulièrement importantes dans le cadre d’approches génératives, qui nécessitent des techniques efficaces de stockage, requêtage, et transformation de grands modèles typiquement construits dans un contexte mono-utilisateur. Plusieurs solutions de persistance, requêtage, et transformations basées sur des bases de données relationnelles ou NoSQL ont été proposées pour améliorer le passage à l’échelle, mais ces dernières sont souvent basées sur une seule sérialisation model/base de données, adaptée à une activité de modélisation particulière, mais peu efficace pour d’autres cas d’utilisation. Par exemple, une sérialisation en graphe est optimisée pour calculer des chemins de navigations complexes,mais n’est pas adaptée pour accéder à des valeurs atomiques de manière répétée. De plus, les frameworks de modélisations existants ont été initialement développés pour gérer des activités simples, et leurs APIs n’ont pas évolué pour gérer les modèles de grande taille, limitant les performances des outils actuels. Dans cette thèse nous présentons une nouvelle infrastructure de modélisation ayant pour but de résoudre les problèmes de passage à l’échelle en proposant (i) un framework de persistance permettant de choisir la représentation bas niveau la plus adaptée à un cas d’utilisation, (ii) une solution de requêtage efficace qui délègue les navigations complexes à la base de données stockant le modèle,bénéficiant de ses optimisations bas niveau et améliorant significativement les performances en terme de temps d’exécution et consommation mémoire, et (iii) une approche de transformation de modèles qui calcule directement les transformations au niveau de la base de données. Nos solutions sont construites en utilisant des standards OMG tels que UML et OCL, et sont intégrées dans les solutions de modélisations majeures telles que ATL ou EMF.


    Date de soutenance : 14-11-2017
    Président du jury : Jordi Cabot
    Jury :
    • Jean-Claude Royer [Président]
    • Marie-Pierre Gervais [Rapporteur]
    • Jean-Michel Bruel [Rapporteur]
    • Sébastien Gérard

      Saurabh Puri, Apprentissage, sélection et codage de nouvelles transformées de blocs dans et pour la boucle d’optimisation de codeurs vidéo
    Apprentissage, sélection et codage de nouvelles transformées de blocs dans et pour la boucle d’optimisation de codeurs vidéo
    Auteur : Saurabh Puri
    Manuscript :


    Mots-clés : Transformations de blocsTransformations dépendantes du signalTransformations basées sur l’apprentissageOptimisation transformée-débit-distortionHEVCCompression vidéo
    Résumé

    Les transformées sont un élément clé dans les systèmes de codage vidéo par blocs. Cette thèse approfondit les schémas d’apprentissage à multiples transformées. Une première contribution de ce travail est consacrée à l’évaluation de schémas d’apprentissage de transformées de deux types en ligne et hors ligne. Les deux approches sont comparées en détail et leur pertinence respective révélées. Nous proposons ensuite plusieurs techniques afin d’améliorer la stabilité du système d’apprentissage et réduire le coût de la signalisation. Une seconde contribution concerne les schémas d’apprentissage multi-transformées hors ligne déjà connus qui sont étendus avec pour objectifs de 1) fournir des transformées plus génériques et moins biaisées, 2) obtenir des gains de compression plus élevés, 3) réduire la complexité d’encodage et de décodage. On propose un schéma dit IMDTC (Improved Mode Dependent Transform Competition) qui offre un gain de codage très significatif, plus de 5% par rapport à HEVC standard sous la configuration All Intra (AI), avec une augmentation de complexité raisonnable. Enfin, l’adaptabilité au contenu de l’apprentissage hors ligne est étendue en explorant une nouvelle approche d’apprentissage des transformées basée sur des jeux de transformées adaptées à des contenus. Plusieurs ensembles contenant de multiples transformées sont appris sur différents contenus et regroupés en jeu. Lors du codage d’une région donnée d’une image, un ensemble de transformées est sélectionné localement à partir du jeu. Les résultats numériques montrent le potentiel élevé de cette approche par rapport aux approches classiques en ligne et hors ligne.


    Date de soutenance : 09-11-2017
    Président du jury : Patrick Le Callet(patrick.lecallet@univ-nantes.fr)
    Jury :

        Walid Benghabrit, Un modèle formel pour la responsabilisation
      Un modèle formel pour la responsabilisation
      Auteur : Walid Benghabrit
      Manuscript :


      Mots-clés : ResponsabilisationSécuritéVie privéeLogique temporelleMonitorage
      Résumé

      Nous assistons à la démocratisation des services ducloud et de plus en plus d’utilisateurs (individuels ouentreprises) utilisent ces services dans la vie de tous lesjours. Dans ces scénarios, les données personnellestransitent généralement entre plusieurs entités.L’utilisateur final se doit d’être informé de la collecte, dutraitement et de la rétention de ses donnéespersonnelles, mais il doit aussi pouvoir tenir pourresponsable le fournisseur de service en cas d’atteinte àsa vie privée. La responsabilisation (ou accountability)désigne le fait qu’un système ou une personne estresponsable de ses actes et de leurs conséquences.Dans cette thèse nous présentons un framework deresponsabilisation AccLab qui permet de prendre enconsidération la responsabilisation dès la phase deconception d’un système jusqu’à son implémentation.Afin de réconcilier le monde juridique et le mondeinformatique, nous avons développé un langage dédiénommé AAL permettant d’écrire des obligations et despolitiques de responsabilisation. Ce langage est basé surune logique formelle FOTL ce qui permet de vérifier lacohérence des politiques de responsabilisation ainsi quela compatibilité entre deux politiques. Les politiques sontensuite traduites en une logique temporelle distribuéeque nous avons nommée FO-DTL 3, cette dernière estassociée à une technique de monitorage basée sur laréécriture de formules. Enfin nous avons développé unoutil monitorage appelé AccMon qui fournit des moyensde surveiller les politiques de responsabilisation dans lecontexte d’un système réel. Les politiques sont fondéessur la logique FO-DTL 3 et le framework peut agir enmode centralisée ou distribuée et fonctionne à la fois enligne et hors ligne.


      Date de soutenance : 27-10-2017
      Président du jury : Jean-Claude Royer
      Jury :
      • Daniel Le Métayer [Président]
      • Ana Cavalli [Rapporteur]
      • Yves Roudier [Rapporteur]
      • Nora Cuppens
      • Anderson Santana de Oliveira
      • Hervé Grall

        Gilles Madi Wamba, Combiner la programmation par contraintes et l’apprentissage machine pour construire un modèle éco-énergétique pour petits et moyens data centers
      Combiner la programmation par contraintes et l’apprentissage machine pour construire un modèle éco-énergétique pour petits et moyens data centers
      Auteur : Gilles Madi Wamba
      Manuscript :


      Mots-clés : Planification de tâchesProgrammation par contraintesCloud computingApprentissage machine
      Résumé

      Au cours de la dernière décennie les technologies de cloud computing ont connu un essor considérable se traduisant par la montée en flèche de la consommation électrique des data center. L’ampleur du problème a motivé de nombreux travaux de recherche s’articulant autour de solutions de réduction statique ou dynamique de l’enveloppe globale de consommation électrique d’un data center. L’objectif de cette thèse est d’intégrer les sources d’énergie renouvelables dans les modèles d’optimisation dynamique d’énergie dans un data center. Pour cela nous utilisons la programmation par contraintes ainsi que des techniques d’apprentissage machine. Dans un premier temps, nous proposons une contrainte globale d’intersection de tâches tenant compte d’une ressource à coûts variables. Dans un second temps, nous proposons deux modèles d’apprentissage pour la prédiction de la charge de travail d’un data center et pour la génération de telles courbes. Enfin, nous formalisons le problème de planification énergiquement écologique (PPEE) et proposons un modèle global à base de PPC ainsi qu’une heuristique de recherche pour le résoudre efficacement. Le modèle proposé intègre les différents aspects inhérents au problème de planification dynamique dans un data center : machines physiques hétérogènes, types d’applications variés (i.e., applications interactives et applications par lots), opérations et coûts énergétiques de mise en route et d’extinction des machines physiques, interruption/reprise des applications par lots, consommation des ressources CPU et RAM des applications, migration des tâches et coûts énergétiques relatifs aux migrations, prédiction de la disponibilité d’énergie verte, consommation énergétique variable des machines physiques.


      Date de soutenance : 27-10-2017
      Président du jury : Nicolas Beldiceanu
      Jury :
      • Jean-Marc Pierson [Président]
      • Sara Bouchenak [Rapporteur]
      • Arnaud Lallouet [Rapporteur]
      • Laurent Perron

        Rola El Osta, Contributions à l’Ordonnancement en Temps Réel pour les Systèmes Autonomes en Energie.
      Contributions à l’Ordonnancement en Temps Réel pour les Systèmes Autonomes en Energie.
      Auteur : Rola El Osta
      Manuscript :


      Mots-clés : Earliest Deadline FirstRécupération d’énergieService apériodiqueOrdonnancement préemptif
      Résumé

      Aujourd’hui, la récupération d’énergie renouvelable (energy harvesting) comme celle envisagée pour de nombreux objets sans fil, rend possible un fonctionnement quasi-perpétuel de ces systèmes, sans intervention humaine, car sans recharge périodique de batterie ou de pile. Concevoir ce type de système autonome d’un point de vue énergétique devient très complexe lorsque celui-ci a en plus un comportement contraint par le temps et en particulier doit respecter des échéances de fin d’exécution au plus tard. Comme pour tout système temps réel, une problématique incontournable est de trouver un mécanisme d’ordonnancement dynamique capable de prendre en compte conjointement deux contraintes clés : le temps et l’énergie. Dans cette thèse, nous nous intéressons à l’ordonnancement de tâches mixtes constituées de tâches périodiques et de tâches apériodiques souples sans échéance, tout en répondant à une question clé: comment servir les tâches apériodiques pour minimiser leur temps de réponse sans remettre en question la faisabilité des tâches périodiques. Nous considérons un système monoprocesseur monofréquence, alimenté par un réservoir d’énergie approvisionné par une source environnementale. Dans ce cadre, nous avons proposé quatre nouveaux serveurs de tâches apériodiques utilisables avec l’ordonnanceur optimal ED-H. L’étude a comporté une phase de validation théorique puis une étude de simulation.


      Date de soutenance : 26-10-2017
      Président du jury : Maryline Chetto
      Jury :

          Ting Zhang, Nouvelles architectures pour la reconnaissance des expressions mathématiques manuscrites
        Nouvelles architectures pour la reconnaissance des expressions mathématiques manuscrites
        Auteur : Ting Zhang
        Manuscript :


        Mots-clés : Reconnaissance d’expressions mathématiquesRéseaux de neurones récurrentsBLSTMÉcriture en ligne
        Résumé

        Véritable challenge scientifique, la reconnaissance d’expressions mathématiques manuscrites est un champ très attractif de la reconnaissance des formes débouchant sur des applications pratiques innovantes. En effet, le grand nombre de symboles (plus de 100) utilisés ainsi que la structure en 2 dimensions des expressions augmentent la difficulté de leur reconnaissance. Dans cette thèse, nous nous intéressons à la reconnaissance des expressions mathématiques manuscrites en-ligne en utilisant de façon innovante les réseaux de neurones récurrents profonds BLSTM avec CTC pour construire un système d’analyse basé sur la construction de graphes. Nous avons donc étendu la structure linéaire des BLSTM à des structures d’arbres (Tree-Based BLSTM) permettant de couvrir les 2 dimensions du langage. Nous avons aussi proposé d’ajouter des contraintes de localisation dans la couche CTC pour adapter les décisions du réseau à l’échelle des traits de l’écriture, permettant une modélisation et une évaluation robustes. Le système proposé construit un graphe à partir des traits du tracé à reconnaître et de leurs relations spatiales. Plusieurs arbres sont dérivés de ce graphe puis étiquetés par notre Tree-Based BLSTM. Les arbres obtenus sont ensuite fusionnés pour construire un SLG (graphe étiqueté de traits) modélisant une expression 2D. Une différence majeure par rapport aux systèmes traditionnels est l’absence des étapes explicites de segmentation et reconnaissance des symboles isolés puis d’analyse de leurs relations spatiales, notre approche produit directement un graphe SLG. Notre système sans grammaire obtient des résultats comparables aux systèmes spécialisés de l’état de l’art.


        Date de soutenance : 26-10-2017
        Président du jury : Christian Viard-Gaudin
        Jury :
        • Laurence LIKFORMAN-SULEM
        • Thierry PAQUET
        • Christophe GARCIA

          Mira Abboud, Software Architecture Extraction : Meta-model, model and tool
        Software Architecture Extraction : Meta-model, model and tool
        Auteur : Mira Abboud
        Manuscript :


        Mots-clés : Extraction d'architecture logicielle
        Résumé

        Face à la complexité croissante des systèmes logiciels, les architectures logicielles sont apparues comme un allié précieux pour la conception et la maintenance de ces systèmes. Cependant, pour de nombreux systèmes, la représentation de leur architecture n’est pas fiable ; elle est soit indisponible, soit insuffisante ou soit non mise à jour. Pour pallier ce problème qui met en danger la maintenance, l’évolution, la réutilisation et la migration d’un système, l’extraction d’une architecture du système est souvent proposée comme une bonne alternative. L’extraction d’une architecture logicielle est définie comme la science de l’analyse et de la conversion du code source en une architecture logicielle. Cette thèse contribue à apporter une solution au problème d’inexistence d’outil de mesure pour les processus d’extraction d’une architecture logicielle. Ainsi, nous proposons un méta-modèle appelé SArEM (Software Architecture Extraction Meta- model) qui spécifie les différents processus d’extraction d’une architecture logicielle. Le méta- modèle est basé sur le méta-modèle SPEM et couvre les principaux concepts des processus d’extraction d’une architecture logicielle. En outre, nous fournissons un outil qui permet aux architectes de construire leur propre pro- cessus, d’interagir avec les sorties générées et de découvrir une architecture logicielle conforme à leurs souhaits. Plus précisément, nous proposons une approche d’extraction d’une architec- ture logicielle appelée SAD (Software Architecture Discovery) basée sur ECD (Extraction de Connaissances à partir des Données). SAD consiste à considérer l’extraction d’une architecture logicielle comme un processus de découverte de nouvelles connaissances. Ainsi, notre contri- bution est articulée autour deux points : le premier point est la suggestion d’un processus gé- nérique pour l’extraction d’une architecture logicielle et le second point est l’élaboration d’une extension d’un outil ECD qui supporte l’exécution des processus d’extraction d’une architecture logicielle.


        Date de soutenance : 25-10-2017
        Président du jury : Mourad oussalah
        Jury :

            Nicolas David, Réseaux de Petri à Paramètres Discrets
          Réseaux de Petri à Paramètres Discrets
          Auteur : Nicolas David
          Manuscript :


          Mots-clés : Réseaux de PetriParamètresSynthèseDécidabilitéComplexitéCouvertureAccessibilité
          Résumé

          Afin de permettre une modélisation plus souple des systèmes, nous proposons d’étendre les réseaux de Petri par des paramètres discrets représentant le poids des arcs ou le nombre de jetons présents dans les places. Dans ce modèle, tout problème de décision peut être décliné sous deux versions, une universelle, demandant si la propriété considérée est vraie quelles que soient les valeurs que prennent les paramètres et une existentielle, qui s’interroge sur l’existence d’une valeur pour les paramètres telle que la propriété soit satisfaite. Concernant la couverture, nous montrons que ces deux problèmes sont indécidables dans le cas général. Nous introduisons donc des sous classes syntaxiques basées sur la restriction des paramètres aux places, aux arcs en sortie ou aux arcs en entrée des transitions. Dans ces différents cas, nous montrons que la couverture existentielle et universelle sont décidables et EXPSPACE-complètes. Nous étudions alors le problème de la synthèse de paramètres qui s’intéresse à calculer l’ensemble des valeurs de paramètres telles que la propriété considérée soit vraie. Sur les sous classes introduites, concernant la couverture, nous montrons que les ensembles solutions à la synthèse ont des structures fermée supérieurement (cas des arcs de sortie) et fermée inférieurement (cas des arcs d’entrée). Nous prouvons alors que ces ensembles se calculent par un algorithme de la littérature, proposé par Valk et Jantzen, dont les conditions d’application se réduisent aux problèmes de décision étudiés précédemment. Enfin nous étudions les frontières de décision en nous intéressant aux versions paramétrées de l’accessibilité pour ces sous classes.


          Date de soutenance : 20-10-2017
          Président du jury : Claude JARD
          Jury :

              Anicet Bart, Modélisation et résolution par contraintes de problèmes de vérification
            Modélisation et résolution par contraintes de problèmes de vérification
            Auteur : Anicet Bart
            Manuscript :


            Mots-clés : Modélisation par contraintesRésolution par contraintesVérification de programmesInterprétation abstraiteVérification de modèles
            Résumé

            La programmation par contraintes offre des langages et des outils permettant de résoudre des problèmes à forte combinatoire et à la complexité élevée tels que ceux qui existent en vérification de programmes. Dans cette thèse nous résolvons deux familles de problèmes de la vérification de programmes. Dans chaque cas de figure nous commençons par une étude formelle du problème avant de proposer des modèles en contraintes puis de réaliser des expérimentations. La première contribution concerne un langage réactif synchrone représentable par une algèbre de diagramme de blocs. Les programmes utilisent des flux infinis et modélisent des systèmes temps réel. Nous proposons un modèle en contraintes muni d’une nouvelle contrainte globale ainsi que ses algorithmes de filtrage inspirés de l’interprétation abstraite. Cette contrainte permet de calculer des sur-approximations des valeurs des flux des diagrammes de blocs. Nous évaluons notre processus de vérification sur le langage FAUST, qui est un langage dédié à la génération de flux audio. La seconde contribution concerne les systèmes probabilistes représentés par des chaînes de Markov à intervalles paramétrés, un formalisme de spécification qui étend les chaînes de Markov. Nous proposons des modèles en contraintes pour vérifier des propriétés qualitatives et quantitatives. Nos modèles dans le cas qualitatif améliorent l’état de l’art tandis que ceux dans le cas quantitatif sont les premiers proposés à ce jour. Nous avons implémenté nos modèles en contraintes en problèmes de programmation linéaire en nombres entiers et en problèmes de satisfaction modulo des théories. Les expériences sont réalisées à partir d’un jeu d’essais de la bibliothèque PRISM.


            Date de soutenance : 17-10-2017
            Président du jury : Éric Monfroy
            Jury :
            • Béatrice Bérard [Président]
            • Salvador Abreu [Rapporteur]
            • Nicolas Beldiceanu
            • Philippe Codognet
            • Charlotte Truchet

              Joseph Lark, Construction semi-automatique de ressources pour la fouille d'opinion
            Construction semi-automatique de ressources pour la fouille d'opinion
            Auteur : Joseph Lark
            Manuscript :


            Mots-clés : Fouille d'opinionTraitement automatique des languesRessources spécialisées
            Résumé

            Identifying satisfaction triggers among customers is a crucial need in today's business world, as a strong customer relationship is now a most vital asset. The domain of opinion mining, in which this thesis falls into, offers several methods to answer this need. These methods, however, require a continuous update of specialized resources which are the cornerstone of many opinion mining tools. The objective of this work is to develop acquisition and structuration strategies for these resources, which can be lexicons, morphosyntactic rules or annotated data. Each of these items presents its own extraction difficulties, on top of the general issue of their update in a language- or domain-specific setting. Indeed, language constraints are fundamental in opinion mining, so the proposed methods must take these into account. First, we study the core elements from which opinion expressions are built in customer feedback. This study leads us to suggest a new modelisation of opinion mining as a sequence labeling task. We then compare the benefits of each type of resource through a benchmark of several opinion mining methods, and conclude that the best performing strategy is a hybrid approach. Finally, we present results for resource acquisition methods that answer not only the needs of opinion mining but also the constraints from the industrial setting in which this work has been conducted.


            Date de soutenance : 17-10-2017
            Président du jury : Emmanuel Morin
            Jury :

                Ranjan Kumar Hasda, Contribution à l'optimisation de problème d'agencement d’espaces rectangulaires inégales
              Contribution à l'optimisation de problème d'agencement d’espaces rectangulaires inégales
              Auteur : Ranjan Kumar Hasda
              Manuscript :


              Mots-clés : Agencement d’espaceOptimisationAlgorithme génétiqueApproche Hybride Construction- Amélioration
              Résumé

              L'agencement d'espace est un problème courant dans la plupart des secteurs industriels. Ce problème est de nature continue et discret et il est considéré comme un problème NP-difficile. Les méthodes d'optimisation traditionnelles, plus appropriées pour une recherche locale sont difficilement utilisables aux problèmes d'agencement. Afin de contourner ces limitations inhérentes aux méthodes classiques, nous proposons deux algorithmes adaptés aux problèmes d'agencement statique de composants de différentes tailles. Pour les problèmes d'agencement considérés, les fonctions objectives à minimiser sont non linéaires et représentent les coûts associés aux sommes pondérées des distances entre les composants. La première approche que nous considérons est une méthode hybride en deux étapes. La première étape consiste à construire un agencement en se basant sur la méthode dite "bas-gauche" comme une solution locale. Ensuite, la solution obtenue est améliorée en appliquant un algorithme génétique modifié. Les opérateurs de croisement et de mutation sont alors adaptés pour prendre en compte les spécificités du problème d'agencement. La deuxième approche est une combinaison entre une recherche locale et globale. Dans ce cas, l'algorithme génétique est également modifié par l'introduction d'un opérateur spécialisé pour le traitement des rotations des composants. Il permet notamment d'éviter le couplage entre les variables réelles et entières et permet également de réduire considérablement le nombre de variables du problème d'optimisation. Les performances des deux approches sont testées et comparées avec les exemples de référence extraits des publications traitant du problème d'optimisation d'agencement. Nous démontrons que les deux approches que nous proposons obtiennent de meilleures performances que les approches existantes.


              Date de soutenance : 17-10-2017
              Président du jury : Fouad Bennis
              Jury :
              • Jean-Yves Fourquet [Président]
              • Gérard Poisson [Rapporteur]
              • Xavier Fischer [Rapporteur]
              • Ina Taralova
              • Rajib Kumar Bhattacharjya
              • Yannick Ravaut

                Pauline Folz, Collaboration dans une fédération de consommateurs de données liées
              Collaboration dans une fédération de consommateurs de données liées
              Auteur : Pauline Folz
              Manuscript :


              Mots-clés : Web sémantiqueCache collaboratifOrdonnancementFédérationSPARQLTPFRéseaux superposésPair-à-pair
              Résumé

              Les producteurs de données ont publié des millions de faits RDF sur le Web en suivant les principes des données liées. N’importe qui peut récupérer des informations utiles en interrogeant les données liées avec des requêtes SPARQL. Ces requêtes sont utiles dans plusieurs domaines, comme la santé ou le journalisme des données. Cependant, il y a un compromis entre la performance des requêtes et la disponibilité des données lors de l’exécution des requêtes SPARQL. Dans cette thèse, nous étudions comment la collaboration des consommateurs de données ouvre de nouvelles opportunités concernant ce compromis. Plus précisément, comment la collaboration des consommateurs de données peut : améliorer les performances sans dégrader la disponibilité, ou améliorer la disponibilité sans dégrader les performances. Nous considérons que les données liées permettent à n’importe qui d’exécuter un médiateur compact qui peut interroger des sources de données sur le Web grâce à des requêtes SPARQL. L’idée principale est de connecter ces médiateurs ensemble pour construire une fédération de consommateurs de données liées. Dans cette fédération, chaque médiateur interagit avec un sous-ensemble du réseau. Grâce à cette fédération, nous avons construit : (i) un cache décentralisé hébergé par les médiateurs. Ce cache côté client permet de prendre en charge une part importante des sous-requêtes et d’améliorer la disponibilité des données avec un impact faible sur les performances. (ii) un algorithme de délégation qui permet aux médiateurs de déléguer leurs requêtes à d’autres médiateurs. Nous démontrons que la délégation permet d’exécuter un ensemble de requêtes plus rapidement quand les médiateurs collaborent. Cela améliore les performances sans dégrader la disponibilité des données.


              Date de soutenance : 12-10-2017
              Président du jury : Pascal Molli
              Jury :

                  Sylvain Lanneau, Localisation et estimation basées modèle d’un objet ellipsoidal avec le sens électrique artificiel
                Localisation et estimation basées modèle d’un objet ellipsoidal avec le sens électrique artificiel
                Auteur : Sylvain Lanneau
                Manuscript :


                Mots-clés : Bio-InspirationRobotique sous-MarineSens électrique artificielInspection d’objetLocalisationEstimation de forme
                Résumé

                Le but de cette thèse est de contribuer à la perception sous-marine pour des applications de robotique grâce à un champ électrique. Nous proposons de nouvelles méthodes pour l’inspection, la localisation et l’estimation de forme d’un objet ellipsoïdal en utilisant un capteur inspiré des poissons faiblement électriques. Premièrement, nous montrons que l’objet peut être détecté et que son matériau et sa position par rapport à l’axe du capteur peuvent être discriminés en utilisant de simples détections de seuils sur les courants mesurés. Ensuite, nous proposons l’implémentation successive de trois lois de contrôle réactives permettant au capteur de se diriger vers l’objet et d’effectuer une révolution autour de celui-ci en suivant ses frontières. Puis, nous utilisons l’algorithme MUSIC afin de localiser le centre de l’objet. Enfin, les paramètres géométriques de l’objet et son orientation sont estimés grâce à une méthode d’optimisation basée sur les moindres carrés et sur l’inversion du modèle analytique du tenseur de polarisation d’un objet ellipsoïdal. Nous montrons que ces algorithmes fonctionnent en conditions expérimentales. Pour les algorithmes de localisation et d’estimation de forme, des techniques impliquant des déplacements du capteur sont proposées, afin de réduire significativement les imprécisions dues aux écarts entre le modèle et les mesures de courant.


                Date de soutenance : 04-10-2017
                Président du jury : Frédéric Boyer
                Jury :
                • Luc Jaulin [Président]
                • Habib Ammari [Rapporteur]
                • Nicolas Andreff [Rapporteur]
                • Stéphane Viollet
                • Fabien Candelier
                • Vincent Creuze
                • Vincent Lebastard

                  Mohamed Amine Aouadhi, Introduction de raisonnement probabiliste dans la méthode B événementiel
                Introduction de raisonnement probabiliste dans la méthode B événementiel
                Auteur : Mohamed Amine Aouadhi
                Manuscript :


                Mots-clés : ProbabilitésModélisationEvent-B
                Résumé

                Les méthodes de modélisation et de vérification formelles à base de preuves, par exemple le B événementiel, ne permettent pas, à ce jour, de bien prendre en compte l’ensemble des aspects quantitatifs des systèmes réels. En particulier, l’ajout d’aspects probabilistes dans les systèmes B événementiel est une problématique qui n’a pas été bien étudiée dans l’état de l’art. La difficulté réside principalement dans l’expression des probabilités ainsi que la vérification des aspects probabilistes dans ce formalisme. Dans cette thèse, une extension probabiliste au B événementiel est proposée pour permettre la description ainsi que la vérification des aspects probabilistes des systèmes. Nous désignons cette extension par le B événementiel probabiliste. Dans cette extension, nous proposons de remplacer toutes les sources de non-déterminisme en B événementiel par des probabilités, ce qui permettra ainsi la description des comportements purement probabilistes. Le processus de développement en B événementiel étant basé sur le raffinement, nous proposons plusieurs approches de développement basées sur le raffinement qui permettront l’intégration progressive des probabilités. En particulier, nous étudions la convergence presque certaine d’un ensemble d’événements dans cette extension. La méthode B événementiel est équipée de la plateforme Rodin que nous étendons pour permettre la prise en compte des éléments de l’extension. Les différents aspects de ce travail sont illustrés par plusieurs études de cas : un protocole de communication pair à pair, le système de train d’atterrissage d’un avion et un système de freinage d’urgence.


                Date de soutenance : 29-09-2017
                Président du jury : Claude Jard
                Jury :
                • Benoît Caillaud
                • Dominique Méry
                • Olga Kouchnarenko

                  Alberto Muñoz Arancón, Nouvelles techniques pour la caractérisation des anches simples en situation de jeu
                Nouvelles techniques pour la caractérisation des anches simples en situation de jeu
                Auteur : Alberto Muñoz Arancón
                Manuscript :


                Mots-clés : Anche simpleBec instrumentéBouche artificielleCaractérisation des anchesTest subjectifs
                Résumé

                Ce travail porte sur la caractérisation d'anches simples utilisées pour la clarinette ou le saxophone. Sachant que les musiciens perçoivent des différences importantes dans la qualité des anches de caractéristiques identiques (même marque, coupe et force), cette thèse propose des nouveaux outils pour la caractérisation des anches en situation de jeu.Un bec instrumenté utilisant des capteurs embarqués est développé de façon à mesurer le déplacement de l'anche et la différence de pression de part et d’autre de l'anche. À partir de ces signaux, il est possible d'estimer des paramètres d'anche associés à différents modèles physiques. Les résultats obtenus montrent que la complexité du modèle décrivant le comportement de l'anche doit augmenter avec la nuance de jeu. Le bec instrumenté est utilisé dans une campagne de mesures comportant 7 musiciens et 20 anches, et permet de quantifier la variabilité des résultats due aux musiciens. Des tests subjectifs sont réalisés avec ces mêmes musiciens, et montrent que les différences entre les anches se réduisent à une seule dimension (facilité de jeu ou timbre). Les corrélations entre les descripteurs subjectifs et les paramètres objectifs mesurés sont étudiées afin de mieux comprendre les différences perçues entre les anches, permettant le développement d'un modèle prédictif de la qualité des anches.De façon à éviter la variabilité produite par le musicien, une bouche artificielle aspirante est développée. La comparaison des mesures réalisées par la bouche artificielle et par un musicien permet d'identifier la plage de fonctionnement optimale où la bouche artificielle imite au mieux le jeu du musicien.


                Date de soutenance : 28-09-2017
                Président du jury : Bruno Gazengel
                Jury :
                • Jean-Pierre Dalmont
                • Jean-François Petiot

                  Yacine Bouallouche, Méta-modèle et cadre méthodologique pour l’ingénierie d’une organisation étendue : Application à une administration étendue
                Méta-modèle et cadre méthodologique pour l’ingénierie d’une organisation étendue : Application à une administration étendue
                Auteur : Yacine Bouallouche
                Manuscript :


                Mots-clés : Génie industrielGestion publiqueValeur publiqueRéseau d’organisationsPartenariat public-privéModélisation d’entrepriseInteropérabilitéContrôle inter-organisationnel
                Résumé

                L’accélération des changements politiques et socioéconomiques influe fortement sur l’équilibre budgétaire des organisations publiques. Elles sont contraintes de tendre vers un modèle d’organisation plus réactif et flexible. Pour les organisations publiques, l’enjeu est de déterminer la meilleure hybridation public-privée, déclinée en une structure réticulaire, permettant d’assurer la performance économique de leurs services mais également la création de valeur publique. Ces réorganisations présentent de nombreux écueils insuffisamment adressés par la littérature en gestion publique. Elle analyse les évolutions et les lacunes en matière de management dans la sphère publique mais elle ne propose que rarement les méthodes et outils supportant les formes de management qu’elle recommande. Dans ce contexte, l’objectif de cette thèse est de s’approprier la littérature en gestion publique pour y apporter un nouveau regard et proposer la mise en oeuvre de modèles, méthodes et outils du génie industriel. Ainsi, nous proposons un méta-modèle et un cadre méthodologique pour l’ingénierie d’une organisation étendue. Cette proposition vise à maîtriser la complexité d’une structure réticulaire sans nuire à l’autonomie des organisations (publiques et/ou privées) qui la composent. La mise en oeuvre de la méthodologie proposée est illustrée par le biais d’un cas d’école inspiré de la fonction habillement du ministère des Armées : le scénario d’une externalisation de cette fonction habillement est étudié en prenant en considération son inclusion dans une structure réticulaire.


                Date de soutenance : 25-09-2017
                Président du jury : Alain Bernard
                Jury :
                • Jean-Paul Bourrières [Président]
                • Bernard Archimède [Rapporteur]
                • Xavier Boucher [Rapporteur]

                  Yacine Bouallouche, Méta-modèle et cadre méthodologique pour l'ingénierie d'une organisation étendue. Application à une administration étendue
                Méta-modèle et cadre méthodologique pour l'ingénierie d'une organisation étendue. Application à une administration étendue
                Auteur : Yacine Bouallouche
                Manuscript :


                Mots-clés : Génie industrielGestion publiqueValeur publiqueRéseau d’organisationsPartenariat public-privéModélisation d’entrepriseInteropérabilitéContrôle inter-organisationnel
                Résumé

                L’accélération des changements politiques et socio-économiques influe fortement sur l’équilibre budgétaire des organisations publiques. Elles sont contraintes de tendre vers un modèle d’organisation plus réactif et flexible. Pour les organisations publiques, l’enjeu est de déterminer la meilleure hybridation public-privé, déclinée en une structure réticulaire, permettant d’assurer la performance économique de leurs services mais également la création de valeur publique. Ces réorganisations présentent de nombreux écueils insuffisamment adressés par la littérature en gestion publique. Elle analyse les évolutions et les lacunes en matière de management dans la sphère publique mais elle ne propose que rarement les méthodes et outils supportant les formes de management qu’elle recommande. Dans ce contexte, l’objectif de cette thèse est de s’approprier la littérature en gestion publique pour y apporter un nouveau regard et proposer la mise en oeuvre de modèles, méthodes et outils du génie industriel. Ainsi, nous proposons un méta-modèle et un cadre méthodologique pour l’ingénierie d’une organisation étendue. Cette proposition vise à maîtriser la complexité d’une structure réticulaire sans nuire à l’autonomie des organisations (publiques et/ou privées) qui la composent. La mise en oeuvre de la méthodologie proposée est illustrée par le biais d’un cas d’école inspiré de la fonction habillement du ministère des Armées : le scénario d’une externalisation de cette fonction habillement est étudié en prenant en considération son inclusion dans une structure réticulaire.


                Date de soutenance : 25-09-2017
                Président du jury : Alain Bernard
                Jury :

                    Yacine Hebbal, Mécanismes de monitoring sémantique dédiés à la sécurité des infrastructures cloud IaaS
                  Mécanismes de monitoring sémantique dédiés à la sécurité des infrastructures cloud IaaS
                  Auteur : Yacine Hebbal
                  Manuscript :


                  Mots-clés : Introspection de Machine VirtuelleLe Fossé SémantiqueAnalyse Binaire StatiqueRéutilisation du Code Binaire
                  Résumé

                  L’introspection de machine virtuelle (VM) consiste à superviser les états et les activités de celles-ci depuis la couche de virtualisation, tirant ainsi avantage de son emplacement qui offre à la fois une bonne visibilité des états et des activités des VMs ainsi qu’une bonne isolation de ces dernières. Cependant, les états et les activités des VMs à superviser sont vus par la couche de virtualisation comme une suite binaire de bits et d’octets en plus des états des ressources virtuelles. L’écart entre la vue brute disponible à la couche de virtualisation et celle nécessaire pour la supervision de sécurité des VMs constitue un challenge pour l’introspection appelé « le fossé sémantique ». Pour obtenir des informations sémantiques sur les états et les activités des VMs à fin de superviser leur sécurité, nous présentons dans cette thèse un ensemble de techniques basé sur l’analyse binaire et la réutilisation du code binaire du noyau d’une VM. Ces techniques permettent d’identifier les adresses et les noms de la plupart des fonctions noyau d’une VM puis de les instrumenter (intercepter, appeler et analyser) pour franchir le fossé sémantique de manière automatique et efficiente même dans les cas des optimisations du compilateur et de la randomisation de l’emplacement du code noyau dans la mémoire de la VM.


                  Date de soutenance : 18-09-2017
                  Président du jury : Jean-Marc Menaud
                  Jury :
                  • Éric Totel [Président]
                  • Daniel Hagimont [Rapporteur]
                  • Vania Marangozova [Rapporteur]
                  • Sylvie Laniepce
                  • Frédéric Le Mouël

                    Michel Albonico, Test de système élastiques basés sur le Cloud
                  Test de système élastiques basés sur le Cloud
                  Auteur : Michel Albonico
                  Manuscript :


                  Mots-clés : Cloud ComputingContrôlabilitéÉlasticitéTest pendant l’élasticité
                  Résumé

                  Les systèmes déployés dans être testés pendant l’élasticité, ce qui entraîne plusieurs problématiques. D’abord, l’exécution d’un test pendant l’élasticité peut exiger de conduire le CBS dans une succession de comportements élastiques spécifiques, càd., une séquence d’ajout/retrait de ressources, qui nécessite des variations précises de la charge des requêtes envoyées au cloud. Seconde, certaines adaptations du CBS ne sont réalisées qu’à un moment précis, par exemple après un ajout de ressources et, par conséquent, leurs tests doivent être synchronisés avec des états spécifiques du CBS. Troisième, les testeurs doivent rejouer les tests pendant l’élasticité de manière déterministe afin de déboguer et corriger le CBS. Quatrième, la création des tests pendant l’élasticité est complexe et laborieuse dû au large nombre de paramètres, et à la particularité du cloud computing. Enfin, seulement quelques combinaisons de paramètres peuvent causer des problèmes au CBS, que les cas de test créés au hasard peuvent manquer, alors qu’un jeu de tests couvrant toutes les combinaisons possibles serait trop grand et impossible à exécuter. Dans cette thèse, nous abordons toutes ces problématiques en proposant plusieurs approches :1) une approche qui conduit les CBSs dans une suite de comportements élastiques prédéfinis, 2) une approche qui synchronise l’exécution des tests selon les états du CBS, 3) une approche qui permette la reproduction des tests pendant l’élasticité, 4) un langage spécifique à ce domaine (DSL, selon l’acronyme anglais) qui résume la mise en œuvre des tests pendant l’élasticité, 5) une approche qui génère des petits ensembles de tests pendant l’élasticité tout en révélant des problèmes liés à l’élasticité.


                  Date de soutenance : 28-08-2017
                  Président du jury : Gerson Sunyé
                  Jury :
                  • Philippe Lamarre [Président]
                  • Eduardo Cunha de Almeida [Rapporteur]
                  • Lydie du Bousquet [Rapporteur]
                  • Jean-Marc Menaud

                    Ahmed Aldahdooh, Transmission vidéo «contenu»-adaptée dans le contexte HEVC: Optimisation de la compression, de la tolérance aux erreurs de la transmission, et de la qualité visuelle
                  Transmission vidéo «contenu»-adaptée dans le contexte HEVC: Optimisation de la compression, de la tolérance aux erreurs de la transmission, et de la qualité visuelle
                  Auteur : Ahmed Aldahdooh
                  Manuscript :


                  Mots-clés : Caractéristiques du contenu visuelRésilience d’erreurMasquage d’erreurEnodage à description multipleCompression vidéoEvaluation de la qualité visuelleTransmission vidéoHEVC standard
                  Résumé

                  Dans cette étude, nous utilisons des caractéristiques locales/globales en vue d’améliorer la chaîne de transmission des séquences de vidéos. Ce travail est divisé en quatres parties principales qui mettent à profit les caractéristiques de contenu vidéo. La première partie introduit un modèle de prédiction de paramètres d’un encodeur basé sur la complexité du contenu. Ce modèle utilise le débit, la distorsion, ainsi que la complexité de différentes configurations de paramètres afin d’obtenir des valeurs souhaitables (recommandées) de paramètres d’encodage. Nous identifions ensuite le lien en les caractéristiques du contenu et ces valeurs recommandées afin de construire le modèle de prédiction. La deuxième partie illustre le schéma de l’encodage à description multiple (Multiple Description Coding ou MDC, en anglais) que nous proposons dans ces travaux. Celui-ci est optimisé pour des MDC d’ordre-hauts. Le décodage correspondant et la procédure de récupération de l’erreur contenu-dépendant sont également étudiés et identifiés. La qualité de la vidéo reçue a été évaluée subjectivement. En analysant les résultats des expériences subjectives, nous introduisons alors un schéma adaptatif, c’est-à-dire adapté à la connaissance du contenu vidéo. Enfin, nous avons simulé un scénario d’application afin d’évaluer un taux de débit réaliste. Dans la troisième partie, nous utilisons une carte de déplacement, calculées au travers des propriétés de mouvement du contenu vidéo, comme entrée pour l’algorithme de masquage d’erreur par recouvrement (inpainting based error concealment algorithm). Une expérience subjective a été conduite afin d’évaluer l’algorithme et d’étudier la perturbation de l’observateur au visionnage de la vidéo traitée. La quatrième partie possèdent deux sous-parties. La première se penche sur les algorithmes de sélections par HRC pour les grandes bases de données de vidéos. La deuxième partie introduit l’évaluation de la qualité vidéo utilisant la connaissance du contenu global non-référencé.


                  Date de soutenance : 25-08-2017
                  Président du jury : Prof. Patrick LE CALLET, Dr. Marcus BARKOWSKY
                  Jury :

                      Alex Kosgodagan, Modélisation de dépendance en grandes dimensions par les réseaux Bayésiens pour la détérioration d’infrastructures et autres applications
                    Modélisation de dépendance en grandes dimensions par les réseaux Bayésiens pour la détérioration d’infrastructures et autres applications
                    Auteur : Alex Kosgodagan
                    Manuscript :


                    Mots-clés : Réseaux BayésiensModélisation de copulesJugement structuré d’expertModèle de dégradation probabiliste
                    Résumé

                    Cette thèse explore l’utilisation des réseaux Bayésiens (RB) afin de répondre à des problématiques de dégradation en grandes dimensions concernant des infrastructures du génie civil. Alors que les approches traditionnelles basées l’évolution physique déterministe de détérioration sont déficientes pour des problèmes à grande échelle, les gestionnaires d’ouvrages ont développé une connaissance de modèles nécessitant la gestion de l’incertain. L’utilisation de la dépendance probabiliste se révèle être une approche adéquate dans ce contexte tandis que la possibilité de modéliser l’incertain est une composante attrayante. Le concept de dépendance au sein des RB s’exprime principalement de deux façons. D’une part, les probabilités conditionnelles classiques s’appuyant le théorème de Bayes et d’autre part, une classe de RB faisant l’usage de copules et corrélation de rang comme mesures de dépendance. Nous présentons à la fois des contributions théoriques et pratiques dans le cadre de ces deux classes de RB ; les RB dynamiques discrets et les RB non paramétriques, respectivement. Des problématiques concernant la paramétrisation de chacune des classes sont également abordées. Dans un contexte théorique, nous montrons que les RBNP permet de caractériser n’importe quel processus de Markov.


                    Date de soutenance : 26-06-2017
                    Président du jury : Bruno Castanier
                    Jury :
                    • Christophe Bérenguer [Président]
                    • Roger Marvin Cooke [Rapporteur]
                    • Laurent Bouillaut [Rapporteur]
                    • Philippe Leray
                    • Laurent Truffet
                    • Wim Courage

                    Copyright : LS2N 2017 - Mentions Légales - 
                     -