Home » HDRs

HDRs 2017



  Mounira Harzallah, Contributions à l’Ingénierie des Connaissances : Construction et Validation d’Ontologie et Mesures Sémantique
Contributions à l’Ingénierie des Connaissances : Construction et Validation d’Ontologie et Mesures Sémantique
Auteur : Mounira Harzallah
Manuscript :


Mots-clés : CapitalisationOntologieMesures sémantiquesModélisation
Résumé

L’ingénierie des connaissances (extraction, modélisation, capitalisation, exploitation...) a connu plusieurs mutations en s’adaptant au cours du temps à l’évolution des connaissances. Elle a notamment dû prendre en compte une évolution dans le temps des ressources des connaissances (experts, livres, bases de données, réseaux sociaux, tweeters, web des données...), de leurs formes (implicite, explicite, structurée, semi ou non structurée), de leurs utilisateurs (organisation, apprenant, utilisateur du web...), des supports de leur utilisation (livres, bases de données, systèmes à bases de connaissances, applications du web sémantique...), du volume et de la vitesse de multiplication de leurs ressources, des techniques de leur extraction, des langages de leur représentation... Dans ces différentes évolutions, l’ontologie a été reconnue comme une représentation sémantique pertinente des connaissances. Je me suis intéressée depuis plus de 13 ans, aux problématiques liées aux ontologies, à leur construction, à leur validation et à leur exploitation, en ingénierie des connaissances. Mes contributions à ce domaine s’organisent autour de 3 axes. Le premier porte sur l’ingénierie des compétences et son articulation à l’ingénierie des connaissances, avec deux contributions majeures : (1) des modèles de connaissances (i.e. une ontologie noyau des compétences basée sur le modèle CRAI (Comptency Resource Aspect Individual) et le modèle CKIM (Competency and Knowledge Integrated Model) pour une représentation intégrée des compétences et connaissances) et (2) une architecture intégrante pour l’ingénierie des compétences. Cette architecture se base sur une modélisation ontologique et fine des compétences et permet de répertorier des techniques d’ingénierie des connaissances et les ressources associées pour l’extraction et la gestion des compétences. Elle a orienté mes travaux de recherche vers deux autres axes : l’axe 2 porte sur les méthodes et techniques d’ingénierie des connaissances pour la conceptualisation et la validation d’ontologie ; l’axe 3 porte sur les mesures sémantiques de comparaison d’objets, une mesure sémantique étant une technique de cette architecture, appliquée à une ontologie pour aider à accomplir certains processus d’une organisation. Dans l’axe 2, j’ai proposé un cadre pour comparer des approches et outils de conceptualisation semi-automatique d’ontologie. J’ai développé deux approches de validation d’ontologie dans lesquelles j’ai cherché, d’une part, à coupler la validation à la conceptualisation, et d’autre part à leur intégrer des contraintes générées à partir d’une ontologie noyau formelle. La première approche est basée sur l’identification des problèmes pouvant nuire à la qualité d’une ontologie. La deuxième approche utilise des règles générées du méta-modèle d’annotation et/ou d’une ontologie noyau pour guider l’annotation d’un objet avec cette ontologie, enrichir cette ontologie et valider ces deux tâches. Ces deux approches pourraient se fusionner et s’étendre vers une approche semi-automatique de construction et validation intégrées d’ontologie, basée sur une ontologie noyau formelle. Dans l’axe 3, j’ai proposé un cadre unifiant pour la définition de trois familles de mesures sémantiques de comparaison d’objets selon leur annotation par une ontologie : un objet peut être annoté par un concept unique, un ensemble de concepts ou un graphe sémantique d’une ontologie. En plus, ce cadre aide à analyser les résultats des mesures et à choisir une mesure adéquate pour une ontologie et une application données. Il se caractérise par l’utilisation d’une approche similaire pour l’approximation du contenu informationnel apporté par chaque type d’annotation, le contenu informationnel étant un élément principal et commun à la définition de ces trois familles de mesures.. Dans ce mémoire de HDR, je présente ces différentes contributions, en les positionnant par rapport à l’évolution des connaissances et par rapport à des travaux connexes de l’état de l’art. Je discute en conclusion la pertinence de mes travaux par rapport au challenge des masses de données et je présente mon projet de recherche et des perspectives liées à ce challenge.


Date de soutenance : 13-12-2017
Président du jury : Mme Bénédicte Le Grand, Professeur, Université Paris 1 Panthéon - Sorbonne, Centre de Recherche en Informatique (CRI) [Examinateur]
Jury :
  • Mme Nathalie Aussenac-Gilles, Directrice de recherche, CNRS/IRIT, Univ. Paul Sabatier, Toulouse [Rapporteur]
  • M. Jean Charlet, Chargé de mission recherche à l’AP-HP & Inserm, Université Pierre et Marie Curie [Rapporteur]
  • M. Serge Garlatti, Professeur, Institut Mines Télécom (IMT) Atlantique [Rapporteur]
  • Mme Bénédicte Le Grand, Professeur, Université Paris 1 Panthéon - Sorbonne, Centre de Recherche en Informatique (CRI) [Examinateur]
  • Mme Pascale Kuntz, Professeur, École Polytechnique de l’Univ. de Nantes [Examinateur]

  Florent Laroche, KLM for Heritage
KLM for Heritage
Vers une humanisation de l'industrie par les Connaissances Patrimoniales Ou comment considérer le patrimoine comme pilier de connaissances pour construire un futur durable.
Auteur : Florent Laroche
Manuscript :


Mots-clés : ConnaissancesSavoir-faireMuséePatrimoineKLMPLMMuséologieRéalité virtuelleInterdisciplinaireNumérique
Résumé

Pourquoi réinventer la roue ? " L'objectif de nos recherches consiste à transposer les connaissances du passé en connaissances contemporaines, lisibles et compréhensibles dans le système sociotechnique d'aujourd'hui. La discipline de l'Archéologie Industrielle Avancée s'appuie sur la Gestion du Cycle de Vie des Connaissances par et pour le Patrimoine : " KLM for heritage ". Elle permet de détourner les outils des sciences de l'ingénierie au profit du patrimoine et, par réciprocité, d'enrichir les approches industrielles par du savoir immatériel ancien. Ces travaux scientifiques enrichissent les approches des Humanités Numériques par la mise en place d'un processus global interdisciplinaire de patrimonialisation avec un outillage anthropocentré. Ce mémoire d'Habilitation à Diriger les Recherches retrace le parcours réalisé depuis plus de 17 ans sur cette thématique scientifique interdisciplinaire. Pour continuer à avancer, tout est à inventer : nouvelles démarches de diffusion de la connaissance, nouvelles pédagogies d'apprentissage, nouvelles structurations de la connaissance intégrant le contexte, le temps… nouveaux outils de digitalisation de nos savoir-faire, nouveaux métiers pour des projets transdisciplinaires… le chantier est vaste.


Date de soutenance : 08-12-2017
Président du jury : Lionel ROUCOULES, Professeur des Universités, Arts et Métiers ParisTech (section CNU 61)
Jury :
  • Emmanuel CAILLAUD, Professeur des Universités, Université de Strasbourg (section CNU 60) [rapporteur]
  • Livio DE LUCA, Directeur de recherche, laboratoire MAP, CNRS Marseille (section CNU 27) [rapporteur]
  • Pierre LAMARD, Professeur des Universités, Université de technologie de Belfort-Montbéliard (section CNU 72) [rapporteur]
  • Nada MATTA, Professeur des universités, Université des Technologie de Troyes (section CNU 27) [examinateur]
  • Alain BERNARD, Professeur des Universités, Ecole Centrale de Nantes (section CNU 60) [examinateur]
  • Benoit FURET, Professeur des Universités, Université de Nantes (section CNU 60) [examinateur]
Annexes :
Video :

  Sophie Sakka, Imitation des mouvements humains par un robot humanoïde sous contrainte d’équilibre
Imitation des mouvements humains par un robot humanoïde sous contrainte d’équilibre
Auteur : Sophie Sakka
Manuscript :


Mots-clés : Mouvements humainsTemps réelÉquilibreRobot humanoïdeModélisation dynamiqueImitation des mouvements
Résumé

Domaines de recherche : 1. Dynamique des mouvements humains (biomécanique) / humanoïdes (robotique) 2. Imitation temps réel ou différé de mouvements humains par un robot humanoïde 3. Insertion des robots dans la société humaine (applications sociales et thérapeutiques)


Date de soutenance : 05-12-2017
Président du jury : Franck Multon
Jury :
  • M. Olivier BRUNEAU, Professeur Université Paris- Sud [rapporteur]
  • M. Philippe FRAISSE, Professeur Université Montpellier2 [rapporteur]
  • M. Philippe SOUERES, Directeur de Recherche CNRS [rapporteur]
  • M. Damien CHABLAT, Directeur de Recherche CNRS [examinateur]
  • M. Franck MULTON, Professeur Université Rennes 2 [examinateur]
  • Mme. Agnès ROBY-BRAMI, Directrice de Recherche INSERM [examinatrice]

  Sébastien Garnier, Identification et modélisation pour le développement de la surveillance d'usinage et de la robotique de production
Identification et modélisation pour le développement de la surveillance d'usinage et de la robotique de production
Auteur : Sébastien Garnier
Manuscript :


Mots-clés : Surveillance d’usinageFraisageRobotiqueFlexibilité articulaire
Résumé

Ce manuscrit présente des travaux portant sur la fabrication. L’approche choisie est ascendante. On observe les grandeurs physiques liées à la fabrication, on les modélise, pour enfin optimiser l’exploitation du moyen. Deux grands thèmes sont abordés dans le document. Le premier concerne le fraisage sur machine rigide, le second, le parachèvement sur machine souple. Au cours du premier thème, la modélisation du fraisage est décrite et deux applications à la surveillance d’usinage sont proposées : la surveillance de l’usure et celle du bris d’outil. Dans les deux cas, la notion d’état de l’outil est exploitée. Deux autres applications sont détaillées : la première concerne le pilotage en puissance du fraisage(UGV), la seconde l’usinage du composite avec des outils à concrétions diamantées pour laquelle la modélisation est intégralement revue. Le deuxième thème concerne l’utilisation de moyens robotisés pour le parachèvement de pièce, et plus particulièrement les robots anthropomorphes. Après une mise en évidence des lacunes de ces derniers, une modélisation est choisie, et différents protocoles d’identifications des paramètres sont détaillés. L’exploitation de ces modèles peut alors être utilisée. Pour mettre en évidence les couplages qui existent entre le moyen et le procédé. Différentes propositions sont faites et mises en œuvre afin de parvenir à assurer la juste qualité des productions à réaliser.


Date de soutenance : 29-11-2017
Président du jury : Benoît FURET , Professeur d‘Université, Université de Nantes [rapporteur]
Jury :
  • Olivier CAHUC, Professeur d‘Université, Université de bordeaux [rapporteur]
  • Henri PARIS, Professeur d‘Université, Université de Grenoble [rapporteur]
  • Gabriel ABBA, Professeur d‘Université, Ecole National d‘ingénieur de Metz [rapporteur]
  • Pascal RAY, Professeur d‘Université, Ecole des Mines de Saint Etienne [examinateur]
  • Laurent SABOURIN , Maître de conférences, HDR, SIGMA à Clermont - Ferrand [examinateur]
  • Stéphane CARO, Chargé de recherche CNRS, HDR, Ecole Centrale de Nantes [examinateur]

  Hala Skaf-Molli, Gestion décentralisée de données du web sémantique
Gestion décentralisée de données du web sémantique
Auteur : Hala Skaf-Molli
Manuscript :


Mots-clés : Données liéesRDFRéplicationCohérenceRequêtes SPARQL fédérées
Résumé

The semantic web is an extension of the web where information has a precise meaning. Thousands of linked datasets are available on the web. Important problems concerning quality, deep web access and availability still unsolved. For data quality, we propose to transform the web of data into a read/write web of data. A data consumer will able to correct an error. Allowing consumers to write the semantic web poses the problem of data consistency. We define synchronization algorithms for RDF data model. To access to the deep web, we propose a mediator approach allowing to combine semantic data and deep web data. The problem is to improve the performance of queries in the presence of a large number of data sources. Finally, to ensure the availability, we propose a replication model for the web of data. The problem is to optimize federated SPARQL queries in the presence of replicas selected at queries execution time.


Date de soutenance : 06-10-2017
Président du jury : Pascale Kuntz, Giuseppe Berio(pascale.kuntz@univ-nantes.fr)
Jury :
  • M. Bernd AMANN, Professor, University of Pierre et Marie Curie (Paris 6) [rapporteur]
  • M. Fabien Gandon, Director de recherche, INRIA Sophia-Antipolis Mediterranée [rapporteur]
  • M. Philippe LAMARRE, Professor, INSA Lyon [rapporteur]
  • M. Abdelkader HAMEURLAIN, Professor, University of Paul Sabatier, Toulouse [examinateur]
  • Mme Maria ESTHER -VIDAL, Professor, University of Simón Bolívar Venezuela and Fraunhofer IAIS, Germany [examinatrice]
  • M. François CHAROY, Professor, TELECOM Nancy-Université de Lorraine [examinateur]

  Naly Rakoto-Ravalontsalama, Commande de Systèmes Hybrides et de Systèmes à Evènements Discrets
Commande de Systèmes Hybrides et de Systèmes à Evènements Discrets
Auteur : Naly Rakoto-Ravalontsalama
Manuscript :


Mots-clés : Systèmes hybridesSystèmes à commutationsCommande supervisée des systèmes à événements discrets
Résumé

Cette Thèse d’Habilitation à Diriger des Recherches (HDR) est effectuée dans le cadre de l’Automatique en général. Elle comporte trois parties distinctes. La première partie concerne la commande des systèmes hybrides et systèmes à commutations (switched systems). La deuxième partie est consacrée à la commande supervisée (supervisory control) des systèmes à événements discrets (discrete-event systems). Enfin les perspectives de recherche sont données dans la troisième et dernière partie. La commande des systèmes hybrides et à commutations traite de la modélisation MLD (Mixed Logical Dynamical Systems) introduite par A. Bemporad et M. Morari (1999). Les systèmes à commutations étant décrits naturellement par un modèle PWA (piecewise affine, affine par morceaux), l’approche MLD est une modélisation alternative. Nous proposons des algorithmes de conversion de PWA vers MLD et vice-versa qui donnent des meilleurs résultats, notamment en temps de simulation. La stabilité d’un système non linéaire à commutations est étudiée en utilisant une approche polynomiale, qui permet de reformuler le système initial en un système continu polynomial, permettant ainsi de prouver sa stabilité Enfin la commande optimale est appliquée aux deux types de systèmes commutés : le cas linéaire et celui non linéaire sont traités par reformulation du système en système polynomial continu, permettant d’utiliser la théorie des moments, qui rend les problèmes de commande optimale plus faciles à résoudre. La deuxième partie concerne les systèmes à événements discrets. Elle a débuté avec la commande supervisée de la cellule flexible de l’EMN, composée d’un convoyeur central et de plusieurs stations robotisées (ISIC 2003, LSS 2004). Ensuite influencé par le thème de recherche des systèmes hybrides et systèmes à commutations (switched systems) venant de l’Automatique continue, nos travaux se sont orientés vers une tentative de définition formelle des SED à commutations (switched DES, MTNS 2006). Toujours dans cette voie, nous avons proposé une définition de systèmes “switched non blocking » (MSR 2013), pour arriver à des systèmes avec plusieurs langages pouvant commuter (switchable languages), suivant le modèle de (Kumar, Takai, Fabian et Ushio, 2005). La troisième et dernière partie est consacrée aux perspectives de recherche. La première perspective concerne la commande optimale de “smart grids”, en exploitant la topologie de commutations (switched topology) dans de tels systèmes. La deuxième perspective traite de la simulation et l’optimisation de systèmes logistiques (le système de tri de bagages Air France à l’Aéroport de Paris-CDG) à l’aide de réseaux de Petri.


Date de soutenance : 06-09-2017
Président du jury : Claude Jard, Professor, University of Nantes - LS2N [examinateur]
Jury :
  • Didier Henrion, Research Director, LAAS-CNRS Toulouse [Rapporteur]
  • Daniel Liberzon, Professor, University of Illinois at Urbana-Champaign, USA [Rapporteur]
  • Eric Niel, Professor, INSA Lyon - Ampère [Rapporteur]
  • Alexandre Dolgui [examinateur]
  • Claude Jard, Professor, University of Nantes - LS2N [examinateur]
  • Stephane Lafortune, Professor, University of Michigan, Ann Arbor, USA [examinateur]
  • Jean-Jacques Loiseau, Research Director, CNRS - LS2N [examinateur]

  Adrien Lebre, Contributions aux systèmes distribués à large échelle la vision infrastructure - Vers le Fog et l’Edge computing comme nouveau modèle d’informatique utilitaire ?
Contributions aux systèmes distribués à large échelle la vision infrastructure - Vers le Fog et l’Edge computing comme nouveau modèle d’informatique utilitaire ?
Auteur : Adrien Lebre
Manuscript :


Mots-clés : OpenStackInformatique en nuageOptimisation du placement des machines virtuellesVirtualisation
Résumé

Afin de satisfaire la demande croissante de calcul et de stockage, les systèmes informatiques n’ont cessé d’évoluer. Des super-ordinateurs (« mainframes ») à l’avènement des infrastructures actuelles dites d’informatique en nuage, les évolutions ont été rythmées par les avancées technologiques réalisées depuis les années 1960 dans le domaine de la conception des ordinateurs bien évidemment mais également dans celui des communications. En effet, parce qu’ils permettent de fournir des capacités au delà de celles pouvant être délivrées par une unique machine, les systèmes informatiques ont évolué dès les années 1990 vers un modèle d’infrastructure distribuée reposant sur une interconnexion de plusieurs machines distinctes. Cependant, de part leur complexité d’administration et d’utilisation, il a fallut attendre près de vingt ans d’activités de recherche et de transferts technologiques pour démocratiser ces infrastructures aussi bien dans les domaines scientifiques qu’industriels. Parmi les technologies qui ont permis cette adoption massive des infrastructures distribuées, les technologies de virtualisation système ont joué un rôle clé. La virtualisation système peut être vue comme une couche d’abstraction entre le matériel et les logiciels applicatifs. Cette abstraction permet une division des ressources physiques proposées par une machine en plusieurs éléments « virtuels ». Chacun de ces éléments peut être affecté à la volée à chacune des applications en fonction de leurs besoins, offrant ainsi une plus grande flexibilité dans la gestion des ressources disponibles. Parmi les abstractions disponibles, la machine virtuelle est probablement la plus connue. Une machine virtuelle fournit une vision abstraite d’une machine physique avec sa propre pile logicielle ( i.e., un système d’exploitation, des bibliothèques et les applicatifs à exécuter). Cette vision plus ou moins réduite des ressources disponibles est rendue possible grâce à un hyperviseur déployé sur la machine physique. Un hyper- viseur peut être vue comme un système d’exploitation traditionnel qui exécute des machines virtuelles en place des processus usuels. En d’autres termes, il est en charge de superviser et d’exécuter l’ensemble des machines virtuelles qui sont présentes sur la machine physique. L’utilisation des machines virtuelles offre plusieurs avantages du point de vue des utilisateurs. Tout d’abord, elle permet de configurer la totalité de la pile logicielle présente dans la machine virtuelle et de sauvegarder cette pile logicielle de manière pérenne. Ce mécanisme permet de redémarrer cet environnement « virtualisé » à chaque fois que nécessaire sans se préoccuper de l’endroit où la ma- chine virtuelle sera démarrée. De plus, en s’appuyant sur la granularité offerte par la machine virtuelle pour développer les applications (en particulier des applications n tiers), il est possible d’adapter le nombre de machines virtuelles de manière à satisfaire la qualité de service attendue. Le terme d’élasticité est souvent employé pour décrire ce phénomène d’adaptation. Enfin, l’utilisation des machines virtuelles offre une isolation plus forte entre les différents services qui sont exécutés simultanément sur une même machine physique. En effet, l’hyperviseur doit assurer qu’une machine virtuelle ne puisse en aucun cas accéder aux ressources affectées aux autres machines virtuelles co-localisées sur la même machine physique. Bien que les technologies de virtualisation aient joué un rôle important dans l’adoption quasi-unanime aujourd’hui du modèle d’informatique en nuage, notamment sur les solutions « Infrastructure-as-a-Service » (IaaS), elles ont également conduit à de nouveau défis scientifiques et techniques, notamment sur les aspects qui ont trait à la gestion des ressources offertes par l’infrastructure (c.-à-d. l’ensemble des serveurs de calcul, de stockage et des liens réseau) ou encore à la gestion du cycle de vie des machines virtuelles (création, mise en pause, redémarrage et migration) au travers cette même infrastructure. Dans ce manuscrit je présente une synthèse des principaux travaux que j’ai réalisés autour ces problématiques depuis mon arrivée en 2008 dans l’équipe ASCOLA. Plus précisément, je me concentre sur trois axes dans lesquels j’ai réalisés diverses contributions. Le premier axe aborde la problématique du placement dynamique des machines virtuelles. Le second traite de la mise en place d’abstractions et de modèles exactes permettant l’étude via simulation des défis relatifs à la gestion et l’utilisation de machines virtuelles dans une infrastructure distribuée à large-échelle. Enfin, le troisième et dernier axe décrit une nouvelle génération d’infrastructure visant à corriger les problèmes intrinsèques au modèle d’informatique en nuage reposant sur un nombre limité de centres de données à large échelle. Cet autour de cet axe et des perspectives que je souhaite y donner pour les prochaines années que je conclus ce document.


Date de soutenance : 01-09-2017
Président du jury : M. Claude Jard, Professor in Computer Science at University of Nantes ; Head of Nantes Digital Science Laboratory (LS2N)
Jury :
  • M. Erik Elmroth, Professor in Computing Science at Umea University, Sweden ; Head of Umea University research on distributed systems. [rapporteur]
  • M. Manish Parashar, Distinguished Professor of Computer Science at Rutgers University, USA ; Director of the Rutgers Discovery Informatics Institute (RDI2) [rapporteur]
  • M. Pierre Sens, Professor at the University of Pierre et Marie Curie (Paris 6), France ; Head of the REGAL Resarch Group [rapporteur]
  • M. Frédéric Desprez, Senior Researcher at Inria Deputy ; Scientific Director at Inria [examinateur]

  Isabelle Milleville-Pennel, Apports et limites de la Réalité Virtuelle pour la mise en contexte de l’humain : Évaluation, Collaboration et Apprentissage
Apports et limites de la Réalité Virtuelle pour la mise en contexte de l’humain : Évaluation, Collaboration et Apprentissage
Auteur : Isabelle Milleville-Pennel
Manuscript :


Mots-clés : EvaluationCollaborationApprentissageReprésentation spatialeRéférentiel CommunRéférentiel Spatial CommunMal des simulateursPrésenceValidité écologiqueSimulateur de conduiteRéalité virtuelle
Résumé

Au cours des dernières décennies la Réalité Virtuelle (RV) est devenue un outil prisé et parfois incontournable tant pour le grand public que pour de nombreux secteurs professionnels (recherche académique, construction automobile ou naval, etc.). Avec l’utilisation accrue de cette technologie émerge de multiples questionnements d’ordre technique, sociétal et éthique. A travers la synthèse des activités de recherche que j’ai pu mener jusqu’à présent, mon objectif est d’apporter des éclairages à ces différents questionnements en montrant ce qui est faisable à l’heure actuelle en essayant de sortir du fantasme pour montrer la réalité de cette technologie. Ce document de synthèse comprend 5 parties. Dans la première partie, la question de la validité écologique et des limites de la réalité virtuelle est abordée à travers un exemple précis ; les environnements virtuels de conduite automobile. Je m’attacherai tout d’abord à définir ce qu’est la validité d’un EV et de quelles façons l’évaluer. Puis nous verrons en quoi la notion de présence dans les EV est cruciale pour en mesurer l’impact sur l’utilisateur. Et enfin nous aborderons la question des limites de cette technologie notamment au travers du mal des simulateurs. La seconde partie de ce document vise à montrer en quoi la réalité virtuelle (RV) peut- être utilisée comme un moyen de mise en contexte de l’individu permettant de mettre en évidence l’implication de divers processus cognitifs dans des activités ciblées. Je m’appuierai pour cela sur les travaux que j’ai réalisés sur simulateur de conduite. Nous verrons notamment que la RV peut s’avérer un complément essentiel dans la mise en place d’un protocole d’évaluation des fonctions cognitives visant à estimer les aptitudes à la conduite de personnes cérébrolésées. Les troisième et quatrième parties concernent l'étude des activités collaboratives à distance en RV. Dans un premier temps, il s’agira de définir comment un référentiel commun (RC) peut s’instaurer entre les opérateurs et plus particulièrement comment une représentation de l’espace peut être partagée et intégrée à ce référentiel commun (Référentiel Spatial Commun : RSC). En second lieu je montrerai en quoi mes travaux ont contribué à : 1- Utiliser les connaissances précédemment acquises sur l’individu afin de créer des situations propices à l’apprentissage et/ou à la simulation de procédures via un environnement virtuel. 2- Créer un environnement adapté aux représentations spatiales d’opérateurs distants et dans lequel ils peuvent interagir et collaborer. Enfin ce document se terminera par une cinquième partie dédiée à la synthèse de mes activités de recherche. J’y conclurai, notamment, sur les atouts et les limites de la RV ainsi que sur le cadrage nécessaire des développements et usages futurs qui seront faits de cette technologie. Pour clore cette partie, j’y présenterai en quoi les recherches que j’ai menées jusqu’à présent ont guidé mes orientations de recherche futures.


Date de soutenance : 23-01-2017
Président du jury : Jean-Marie Burkhardt, Directeur de Recherche, IFSTTAR
Jury :
  • Jean-Marie Burkhardt, Directeur de Recherche, IFSTTAR ( Rapporteur )
  • Michel Denis, Directeur de Recherche, CNRS ( Rapporteur )
  • Daniel Mestre, Directeur de Recherche, CNRS ( Rapporteur )
  • Claude Marin-Lamellet, Directeur de Recherche, IFSTTAR ( Examinateur )
  • Franck Ganier, Professeur, Université Bretagne Occidentale ( Examinateur )
  • Evelyne Klinger, Directeur de Recherche, ESIEA ( Examinateur )

Copyright : LS2N 2017 - Mentions Légales - 
 -