Home » Thèses

Thèses soutenues 2020



  Thomas Minier, La Préemption Web pour interroger le Web des Données
La Préemption Web pour interroger le Web des Données
Auteur : Thomas Minier
Manuscript :


Mots-clés : Web sémantiqueGestion des données liéesServeurs SPARQL publics
Résumé

En suivant les principes du Linked Open Data, les fournisseurs de données ont publié des milliards de documents RDF via des services publics d'évaluation de requêtes SPARQL. Pour garantir la disponibilité et la stabilité de ces services, ils appliquent des politiques de quotas sur l'utilisation des serveurs. Les requêtes qui excèdent ces quotas sont interrompues et ne renvoient que des résultats partiels. Cette interruption n'est pas un problème s'il est possible de reprendre l'exécution des requêtes ultérieurement, mais il n'existe aucun modèle de préemption le permettant. Dans cette thèse, nous proposons de résoudre le problème relatif à la construction des services qui permettent à n'importe quel utilisateur d'exécuter n'importe quelle requête SPARQL en obtenant des résultats complets. Nous proposons la préemption Web, un nouveau modèle d'exécution qui permet l'interruption de requêtes SPARQL après un quantum de temps, ainsi que leur reprise sur demande des clients. Nous proposons également SaGe, un moteur d'évaluation de requêtes SPARQL qui implémente la préemption Web tout en garantissant un surcoût de préemption minimal. Nos résultats expérimentaux démontrent que SaGe est plus performant que les approches existantes, en termes de temps moyen d'exécution des requêtes et d'obtention des premiers résultats.


Date de soutenance : 10-11-2020
Président du jury : Pascal Molli (pascal.molli@univ-nantes.fr)
Jury :
  • Fabien Gandon (rapporteur)
  • Ruben Verborgh (rapporteur)
  • Pascale Kuntz-Cosperec [Président]
  • Fatiha Saïs (examinatrice)

  Fouad Khenfri, Optimisation holistique pour la configuration d’une architecture logicielle embarquée : application au standard AUTOSAR
Optimisation holistique pour la configuration d’une architecture logicielle embarquée : application au standard AUTOSAR
Auteur : Fouad Khenfri
Manuscript :


Mots-clés : Systèmes embarquésAutosarOrdonnancement
Résumé

AUTOSAR (AUTomotive Open System Architecture) est un standard industriel mondial créé en 2003 dans le but de standardiser le développement des architectures logicielles automobiles. Il fournit un ensemble de concepts et définit une méthodologie commune pour le développement des logiciels embarqués automobiles. Les principales caractéristiques de ce standard sont la modularité et la « configurabilité» de logiciels qui permettent la réutilisation fonctionnelle des modules logiciels fournis par des fournisseurs différents. Cependant,le développement d’une application embarquée AUTOSAR nécessite la configuration d’un grand nombre de paramètres liés principalement au grand nombre de composants logiciels (software component« SWC ») de l’application. Cette configuration commence par l’étape d’allocation des SWCs à la plateforme matérielle (calculateursconnectés par des réseaux), jusqu’à l’étape de configuration de chaque calculateur et du réseau de communication. Différentes alternatives sont possibles pendant ces étapes de configuration etc chaque décision de conception peut impacter les performances temporelles du système, d’où la nécessité d’automatiser ces étapes de configuration et de développer un outil d’évaluation d’architectures.Dans ce travail de thèse, nous introduisons une approche holistique d’optimisation afin de synthétiser l’architecture E/E d’un système embarqué AUTOSAR. Cette approche se base sur des méthodes métaheuristique et heuristique. La méthode métaheuristique (i.e. algorithme génétique) a le rôle de trouver les allocations les plus satisfaisantes des SWCs aux calculateurs. A chaque allocation proposée, deux méthodes heuristiques sont développées afin de résoudre le problème de la configuration des calculateurs (le nombre de tâches et ses priorités, allocation des runnables aux tâches, etc.) et des réseaux de communication (le nombre de messages et ses priorités, allocation des « data-elements » aux messages,etc.). Afin d’évaluer les performances de chaque allocation, nous proposons une nouvelle méthode d’analyse pour calculer le temps de réponse des tâches, des runnables, et de bout-en-bout de tâches/runnables. L’approche d’exploration architecturale proposée par cette thèse considère le modèle des applications périodiques et elle est évaluée à l’aide d’applications génériques et industrielles.


Date de soutenance : 13-09-2020
Président du jury : Chetto Maryline
Jury :

      Damien Schnebelen, Étude et modélisation des stratégies visuelles en situation de conduite automobile autonome
    Étude et modélisation des stratégies visuelles en situation de conduite automobile autonome
    Auteur : Damien Schnebelen
    Manuscript :


    Mots-clés : Sortie de boucleModélisationConduite autonomeStratégies visuellesSortie de boucle
    Résumé

    Driver behaviour, including visual strategies, can be modified in autonomous driving situations compared to manual driving. The first axis of this PhD work focuses on the adaptation of visual strategies in autonomous driving. To this end, two experiments were conducted in different road contexts (rural roads with bends and motorway), with drivers having to continuously or partially supervise the driving scene.The results show that the strategies evolve in all cases towards a disengagement of the gaze from the immediate road to move either upstream for more anticipation (continuous supervision on rural roads) or towards irrelevant areas (partial supervision on motorways). The second line of work deals with the link between visual strategies and the out-of-the-loop phenomenon, i.e. the gradual disenga-gement of the driver from supervision as he drives in autonomous mode. The results show that it is possible to predict the state of the driver in the loop from his spontaneous visual strategies.These conclusions are based on statistical modelling work. The resulting models highlight the importance of considering indicators of gaze dynamics to predict the driver's state.These conclusions are based on statistical modelling work. The resulting models highlight the importance of considering indicators of gaze dynamics to predict the driver's state. These results can be used to develop algorithms for detecting driver disengagement in future autonomous vehicles.


    Date de soutenance : 27-08-2020
    Président du jury : Franck Mars
    Jury :
    • Jordan Navarro
    • Thierry Baccino
    • Céline Lemercier

      Dimitri Antakly, Apprentissage et Vérification Statistique pour la Sécurité
    Apprentissage et Vérification Statistique pour la Sécurité
    Auteur : Dimitri Antakly
    Manuscript :


    Mots-clés : Recursive Timescale Graphical Event ModelsStatistical Model CheckingVérification formelleApprentissage de modèlesFlux d’évènementsEvaluation de sécurité
    Résumé

    Les principaux objectifs poursui- vis au cours de cette thèse sont en premier lieu de pouvoir combiner les avantages de l’apprentissage graphique probabiliste de mo- dèles et de la vérification formelle afin de pouvoir construire une nouvelle stratégie pour les évaluations de sécurité. D’autre part, il s’agit d’évaluer la sécurité d’un système réel donné. Par conséquent, nous proposons une approche où un "Recursive Timescale Graphi- cal Event Model (RTGEM)" appris d’après un flux d’évènements est considéré comme re- présentatif du système sous-jacent. Ce mo- dèle est ensuite utilisé pour vérifier une pro- priété de sécurité. Si la propriété n’est pas vé- rifiée, nous proposons une méthodologie de recherche afin de trouver un autre modèle qui la vérifiera. Nous analysons et justifions les différentes techniques utilisées dans notre ap- proche et nous adaptons une mesure de dis- tance entre Graphical Event Models. La me- sure de distance entre le modèle appris et le proximal secure model trouvé nous donne un aperçu d’à quel point notre système réel est loin de vérifier la propriété donnée. Dans un soucis d’exhaustivité, nous proposons des sé- ries d’expériences sur des données de syn- thèse nous permettant de fournir des preuves expérimentales que nous pouvons atteindre les objectifs visés.


    Date de soutenance : 02-07-2020
    Président du jury : Philippe Leray(philippe.Leray@univ-nantes.fr)
    Jury :

        Loic Jeanson, Apports à la construction d’outillage information pour les études liées au patrimoine
      Apports à la construction d’outillage information pour les études liées au patrimoine
      Analyse d’un carrefour disciplinaire et cahier des charges pour une méthodologie d’intégration de connaissances hétérogènes
      Auteur : Loic Jeanson
      Manuscript :


      Mots-clés : PatrimoineÉvaluationÉtudeNumériqueInformatiqueSémantique
      Résumé

      Les travaux patrimoniaux connaissent de multiples déclinaisons : étude en vue d’une candidature, exposition en musée, analyse ethnologique, archéologique, historiographique.. La nature des activités dépend du type de patrimoine considéré, des intentions, de la documentation à disposition, etc. Le plus souvent, des travaux complémentaires s’agrègent, permettant de combiner les points de vue, hypothèses et informations. Les humanités numériques, c’est à dire les activités d’étude, en sciences humaines au sens large, ayant recours à l’informatique calculatoire, se développent depuis les années 60. Les travaux patrimoniaux ne sont pas en reste, mais la quantité et la diversité, voire l’hétérogénéité des informations, combinées aux critères déontologiques du travail patrimonial compliquent le développement d’outillage pertinent. Dans une première partie, une réflexion portant sur les caractéristiques des travaux patrimoniaux et sur les enjeux du travail de modélisation en lien étroit avec la documentation est présentée. A partir de cette analyse, un cahier des charges pour la production d’un outil est établi permettant de faire face aux enjeux prioritaires. L’opposition entre la construction du sens qui entraîne la patrimonialisation, et la rupture du sens inhérente au numérique, est discutée, ainsi que le besoin de transparence dans les pratiques de modélisation. Les critères d’intégrité et d’authenticité des biens patrimoniaux, qui guident en partie nos apports, seront aussi affirmés dans leurs dimensions dynamiques. La mise en application, par le cas d’étude de l’Observatoire du Pic du Midi ainsi que celui de la série des cercles méridiens Gautier, permet de démontrer les propositions et d’en éprouver la pertinence et les limites.


      Date de soutenance : 22-06-2020
      Président du jury : Alain Bernard
      Jury :
      • Pascale Kuntz-Cosprec
      • Pierre Hallot
      • Manuel Zacklad

        Ramzi Ben Mhenni, Méthodes de programmation en nombres mixtes pour l’optimisation parcimonieuse en traitement du signal
      Méthodes de programmation en nombres mixtes pour l’optimisation parcimonieuse en traitement du signal
      Auteur : Ramzi Ben Mhenni
      Manuscript :


      Mots-clés : ParcimonieTraitement du signalRecherche opérationnelleOptimisation en norme L0Programmation en nombres mixtesAlgorithmes branch-and-boundDémélange spectral
      Résumé

      L'approximation parcimonieuse consiste à ajuster un modèle de données linéaire au sens des moindres carrés avec un faible nombre de composantes non nulles (la ``norme'' L0). En raison de sa complexité combinatoire, ce problème d'optimisation est souvent abordé par des méthodes sous-optimales. Il a cependant récemment été montré que sa résolution exacte était envisageable au moyen d'une reformulation en programme en nombres mixtes (MIP), couplée à un solveur MIP générique, mettant en œuvre des stratégies de type branch-and-bound. Cette thèse aborde le problème d'approximation parcimonieuse en norme L0 par la construction d'algorithmes branch-and-bound dédiés, exploitant les structures mathématiques du problème. D'une part, nous interprétons l'évaluation de chaque nœud comme l'optimisation d'un critère en norme L1, pour lequel nous proposons des méthodes dédiées. D'autre part, nous construisons une stratégie d'exploration efficace exploitant la parcimonie de la solution, privilégiant l'activation de variables non nulles dans le parcours de l'arbre de décision. La méthode proposée dépasse largement les performances du solveur CPLEX, réduisant le temps de calcul et permettant d'aborder des problèmes de plus grande taille. Dans un deuxième volet de la thèse, nous proposons et étudions des reformulations MIP du problème de démélange spectral sous contrainte de parcimonie en norme L0 et sous des contraintes plus complexes de parcimonie structurée, généralement abordées de manière relâchée dans la littérature. Nous montrons que, pour des problèmes de complexité limitée, la prise en compte de manière exacte de ces contraintes est possible et permet d'améliorer l'estimation par rapport aux approches existantes.


      Date de soutenance : 13-05-2020
      Président du jury : Sébastien Bourguignon
      Jury :
      • Christian Jutten
      • Paul Honeine
      • Liva Ralaivola

        Sébastien Levilly, Quantification de biomarqueurs hémodynamiques en imagerie cardiovasculaire par résonance magnétique de flux 4D
      Quantification de biomarqueurs hémodynamiques en imagerie cardiovasculaire par résonance magnétique de flux 4D
      Auteur : Sébastien Levilly
      Manuscript :
      Equipe : SIMS.


      Mots-clés : Cisaillement à la paroiSimulation numérique des fluidesIRM de flux 4DCarotide
      Résumé

      En imagerie cardiovasculaire, un biomarqueur est une information quantitative permettant d'établir une corrélation avec la présence ou le développement d'une pathologie cardiovasculaire. Ces biomarqueurs sont généralement obtenus grâce à l'imagerie de l'anatomie et du flux sanguin. Récemment, la séquence d'acquisition d'IRM de flux 4D a ouvert la voie à la mesure du flux sanguin dans un volume 3D au cours du cycle cardiaque. Or, ce type d'acquisition résulte d'un compromis entre le rapport signal sur bruit, la résolution et le temps d'acquisition. Le temps d'acquisition est limité et par conséquent les données sont bruitées et sous-résolues. Dans ce contexte, la quantification de biomarqueurs est difficile. L'objectif de cette thèse est d'améliorer la quantification de biomarqueurs et en particulier du cisaillement à la paroi. Deux stratégies ont été mises en œuvre pour atteindre cet objectif. Une première solution permettant le filtrage spatio-temporel du champ de vitesse a été proposée. Cette dernière a révélé l'importance de la paroi dans la modélisation d'un champ de vitesse. Une seconde approche, constituant la contribution majeure de cette thèse, s'est focalisée sur la conception d'un algorithme estimant le cisaillement à la paroi. L'algorithme, nommé PaLMA, s'appuie sur la modélisation locale de la paroi pour construire un modèle de vitesse autour d'un point d'intérêt. Le cisaillement est évalué à partir du modèle de la vitesse. Cet algorithme intègre une étape de régularisation a posteriori améliorant la quantification du cisaillement à la paroi. Par ailleurs, une approximation du filtre IRM est utilisée pour la première fois pour l'estimation du cisaillement. Enfin, cet algorithme a été évalué sur des données synthétiques, avec des écoulements complexes au sein de carotides, en fonction du niveau de bruit, de la résolution et de la segmentation. Il permet d'atteindre des performances supérieures à une méthode de référence dans le domaine, dans un contexte représentatif de la pratique clinique.


      Date de soutenance : 12-05-2020
      Président du jury : Jérôme Idier
      Jury :
      • Étienne Mémin [Président]
      • Christian Heinrich [Rapporteur]
      • Nadjia Kachenoura [Rapporteur]
      • Perrine Paul-Gilloteaux
      • Monica Sigovan
      • Jean-Michel Serfaty
      • David Le Touzé

        Ran Bao, Modélisation formelle de systèmes de drones civils à l'aide de méthodes probabilistes paramétrées
      Modélisation formelle de systèmes de drones civils à l'aide de méthodes probabilistes paramétrées
      Auteur : Ran Bao
      Manuscript :
      Equipe : SIMS.


      Mots-clés : DroneModèle formelChaîne de MarkovModel checking statistique paramétrique
      Résumé

      Les drones sont maintenant très répandus dans la société et sont souvent utilisés dans des situations dangereuses pour le public environnant. Il est alors nécessaire d’étudier leur fiabilité, en particulier dans le contexte de vols au-dessus d’un public. Dans cette thèse, nous étudions la modélisation et l’analyse de drones dans le contexte de leur plan de vol. Pour cela, nous construisons plusieurs modèles probabilistes du drone et les utilisons ainsi que le plan de vol pour modéliser la trajectoire du drone. Le modèle le plus détaillé obtenu prend en compte des paramètres comme la précision de l’estimation de la position par les différents capteurs, ainsi que la force et la direction du vent. Le modèle est analysé afin de mesurer la probabilité que le drone entre dans une zone dangereuse. Du fait de la nature et de la complexité des modèles successifs obtenus, leur vérification avec les outils classiques, tels que PRISM ou PARAM, est impossible. Nous utilisons donc une nouvelle méthode d’approximation, appelée Model Checking Statistique Paramétrique. Cette méthode a été implémentée dans un prototype, que nous avons mis à l’épreuve sur ce cas d’étude complexe. Nous avons pour finir utilisé les résultats fournis par ce prototype afin de proposer des pistes permettant d’améliorer la sécurité du public dans le contexte considéré.


      Date de soutenance : 07-05-2020
      Président du jury : Christian Attiogbe
      Jury :
      • Patricia Bouyer-Decitre
      • Laure Petrucci
      • Olga Kouchnarenko
      • Claud Jard

        Yewan Wang, Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/ logicielle et de l’environnement associé
      Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/ logicielle et de l’environnement associé
      Auteur : Yewan Wang
      Manuscript :
      Equipe : SIMS.


      Mots-clés : Modélisation du consommation énergétiqueEfficacité énergétiqueVariabilité des processeursEffet thermique
      Résumé

      Depuis des années, la consommation énergétique du centre de donnée a pris une importance croissante suivant une explosion de demande dans cloud computing. Cette thèse aborde le défi scientifique de la modélisation énergétique d’un centre de données, en fonction des paramètres les plus importants. Disposant d’une telle modélisation, un opérateur pourrait mieux repenser / concevoir ses actuels / futurs centre de données. Pour bien identifier les impacts énergétiques des matériels et logiciels utilisés dans les systèmes informatiques. Dans la première partie de la thèse, nous avons réaliser un grand nombre évaluations expérimentales pour identifier et caractériser les incertitudes de la consommation d’énergie induite par les éléments externes : effets thermiques, différencesentre des processeurs identiques causées par un processus de fabrication imparfait, problèmes de précision issus d’outil de mesure de la puissance, etc. Nous avons terminé cette étude scientifique par le développement d’une modélisation global pour un cluster physique donné, ce cluster est composé par 48 serveurs identiques et équipé d’un système de refroidissement à expansion à direct, largement utilisé aujourd’hui pour les datacenters modernes. La modélisation permet d’estimer la consommation énergétique globale en fonction des configurations opérationnelles et des données relatives à l’activité informatique, telles que la température ambiante, les configurations du système de refroidissement et la charge des serveurs.


      Date de soutenance : 09-03-2020
      Président du jury : Jean-Marc Menaud
      Jury :
      • Romain Rouvoy [Président]
      • Noël de Palma [Rapporteur]
      • Anne-Cécile Orgerie
      • Patricia Stolf
      • Hamid Gualous

        Jingshu Liu, Apprentissage de représentations cross-lingue d’expressions de longueur variable
      Apprentissage de représentations cross-lingue d’expressions de longueur variable
      Auteur : Jingshu Liu
      Manuscript :
      Equipe : SIMS.


      Mots-clés : Plongement lexical bilingueAlignement d’expressionsApprentissage non-supervisé
      Résumé

      L’étude de l’extraction de lexiques bilingues à partir de corpus comparables a été souvent circonscrite aux mots simples. Les méthodes classiques ne peuvent gérer les expressions complexes que si elles sont de longueur identique, tandis que les méthodes de plongements de mots modélisent les expressions comme une seule unité. Ces dernières nécessitent beaucoup de données, et ne peuvent pas gérer les expressions hors vocabulaire. Dans cette thèse, nous nous intéressons à la modélisation d’expressions de longueur variable par co-occurrences et par les méthodes neuronales état de l’art. Nous étudions aussi l’apprentissage de représentation d’expressions supervisé et non-supervisé. Nous proposons deux contributions majeures. Premièrement, une nouvelle architecture appelée tree-free recursive neural network (TFRNN) pour la modélisation d’expressions indépendamment de leur longueur. En apprenant à prédire le contexte de l’expression à partir de son vecteur encodé, nous surpassons les systèmes état de l’art de synonymie monolingue en utilisant seulement le texte brut pour l’entraînement. Deuxièmement, pour la modélisation cross-lingue, nous incorporons une architecture dérivée de TF-RNN dans un modèle encodeur-décodeur avec un mécanisme de pseudo contre-traduction inspiré de travaux sur la traduction automatique neurale nonsupervisée. Notre système améliore significativement l’alignement bilingue des expressions de longueurs différentes.


      Date de soutenance : 29-01-2020
      Président du jury : Emmanuel Morin
      Jury :
      • Sebastian Pena Saldarriaga
      • Pierre Zweigenbaum (Rapporteur)
      • Laurent Besacier (Rapporteur)
      • Olivier Ferret (examinateur)

      Copyright : LS2N 2017 - Mentions Légales - 
       -