Home » Évènement (Page 2)

Soutenance d’HDR de Thomas LEDOUX

Thomas Ledoux, maître-assistant au sein de l’équipe STACK, soutiendra son Habilitation à Diriger des Recherches (HDR) intitulée « Reconfiguration dynamique d’architectures logicielles : des métaclasses aux « nuages verts »« 

mardi 17 juillet à 11h00,à IMT Atlantique campus de Nantes (amphi G. Besse).

Jury :
Mme Laurence DUCHIEN, Professeur, Université Lille – Sciences et Technologies (Rapporteur)
M. Michel RIVEILL, Professeur, Polytech’Nice Sophia (Rapporteur)
M. Jean-Bernard STEFANI, Directeur de recherche, INRIA Grenoble-Rhône-Alpes (Rapporteur)
M. Pierre COINTE, Professeur, IMT Atlantique (Examinateur)
M. Thierry COUPAYE, VP Recherche Internet des objets, Orange Labs (Examinateur)
M. Rachid GUERRAOUI, Professeur, École polytechnique fédérale de Lausanne (Examinateur)
M. Claude JARD, Professeur, Université de Nantes (Examinateur)

Résumé :

Cette habilitation à diriger des recherches présente une synthèse de mes travaux ayant trait à la reconfiguration dynamique d’architectures logicielles.

En première partie, je propose une analyse de l’adaptation dynamique du logiciel avec la volonté de poser les concepts de base et d’identifier les verrous à lever. Je motive l’intérêt de l’adaptation dynamique et modélise son processus de développement. Je présente un nombre de caractéristiques indispensables à l’adaptation dont la réification et la modularité. Je traite alors l’adaptation dynamique du logiciel comme un objet de première classe introduisant un découplage spatio-temporel entre code métier et logique d’adaptation. L’adaptation dynamique ne pouvant se faire au détriment de la qualité du logiciel et de son intégrité, j’énumère un nombre de propriétés indispensables à respecter, de pistes à étudier pour réaliser à l’exécution ce processus d’adaptation du logiciel.

En deuxième partie, je présente ma contribution à la mise en œuvre de l’adaptation dynamique pour les logiciels à base de composants. Dans un premier temps, je propose un patron d’auto-administration pour les architectures à composants, des langages dédiés pour la navigation et la reconfiguration dans les architectures logicielles Fractal, un framework pour faciliter la création d’applications sensibles au contexte. Dans un second temps, je développe une approche multi-étape pour des reconfigurations dynamiques fiables, qui contient à la fois une partie prévention de fautes basée sur une analyse statique et une partie tolérance aux fautes assurée par un moniteur transactionnel. Cette approche s’appuie sur une spécification des (re)configurations du modèle Fractal basée sur une logique du premier ordre.

En troisième partie, je montre que la reconfiguration dynamique dans les « architectures en nuages » (Cloud computing) peut apporter une réponse à un enjeu sociétal important, à savoir les transitions numérique et énergétique. Contrairement aux travaux actuels qui visent à améliorer l’efficacité énergétique des centres de données en proposant des solutions dans les couches basses du Cloud, je préconise une approche d’éco-élasticité logicielle sur ses couches hautes. En m’inspirant à la fois du concept d’innovation frugale (Jugaad) et du mécanisme d’effacement de la consommation électrique, un certain nombre d’artefacts originaux comme le Cloud SLA, l’effacement de la consommation du logiciel, la virtualisation de l’énergie ou encore le SaaS green energy-aware, sont suggérés pour diminuer l’empreinte carbone des architectures en nuages.

En conclusion, je dresse un bilan final de ma contribution et présente mes perspectives de recherche centrées d’abord sur une généralisation de l’approche précédente à l’aide de méta-modèles, puis sur la conception de micro-services « verts ».

Soutenance d’HDR de Mounira HARZALLAH (équipe DUKe)

Mounira Harzallah soutiendra son Habilitation à Diriger des Recherches, intitulée « Contributions à l’Ingénierie des Connaissances : Construction et validation d’ontologie et mesures sémantiques »
mercredi 13 décembre à 14h, dans l’amphithéâtre 2 du bâtiment IREST de Polytech.

Jury :
Mme Nathalie Aussenac-Gilles, Directrice de recherche, CNRS/IRIT, Univ. Paul Sabatier, Toulouse (Rapporteur)
M. Jean Charlet, Chargé de mission recherche à l’AP-HP & Inserm, Université Pierre et Marie Curie (Rapporteur)
M. Serge Garlatti, Professeur, Institut Mines Télécom (IMT) Atlantique (Rapporteur)
Mme Bénédicte Le Grand, Professeur, Université Paris 1 Panthéon – Sorbonne, Centre de Recherche en Informatique (CRI) (Examinateur)
Mme Pascale Kuntz, Professeur, École Polytechnique de l’Univ. de Nantes (Examinateur)

Résumé :
Les connaissances sont reconnues depuis quelques décennies comme le capital de l’économie immatérielle. Leur ingénierie (extraction, modélisation, capitalisation, exploitation…) est une problématique permanente et omniprésente dans les activités de chacun. Elle a connu plusieurs mutations en s’adaptant au cours du temps à l’évolution des connaissances. Elle a notamment dû prendre en compte une évolution dans le temps des ressources des connaissances (experts, livres, bases de données, réseaux sociaux, tweeters, web des données…), de leurs formes (implicite, explicite, structurée, semi ou non structurée), de leurs utilisateurs (organisation, apprenant, utilisateur du web…), des supports de leur utilisation (livres, bases de données, systèmes experts, systèmes à bases de connaissances, applications du web sémantique…), du volume et de la vitesse de multiplication de leurs ressources, des techniques de leur extraction, des langages de leur représentation…
Dans ces différentes évolutions, l’ontologie a été reconnue comme une représentation sémantique pertinente d’une conceptualisation explicite et formelle d’un domaine. Dans la communauté de l’ingénierie des connaissances, l’aspect formel des ontologies et la possibilité de raisonner avec elles et de les réutiliser, ont conduit de nombreux chercheurs à s’y intéresser et à les utiliser dans plusieurs applications. Au passage à l’échelle, le challenge de leur utilisation dans des projets réels s’est vu confronté à plusieurs obstacles, par exemple : (1) des méthodes de construction peu opérationnelles et non adaptées à la construction d’ontologies larges ; (2) des méthodes de validation plutôt adaptées à certains problèmes logiques ; (3) la difficulté de bien choisir une ontologie pour une application, parce que cette ontologie devrait bien couvrir le domaine de cette application et prendre en compte ses évolutions, et parce qu’il faut y appliquer une mesure sémantique adéquate dont les résultats devraient être et rester proches du jugement humain, même si cette ontologie évolue. Dans le web des données, on s’est focalisé sur les techniques de fouille de données, d’apprentissage automatique, etc., pour gérer les paramètres de volume des données, de la vitesse de leur changement, de leur véracité… tout en oubliant le paramètre de leur hétérogénéité sémantique.
Je me suis intéressée depuis plus de 15 ans, aux problématiques liées aux ontologies, à leur construction, à leur validation et à leur exploitation, en ingénierie des connaissances. Mes contributions à ce domaine sont principalement des modèles sémantiques, des cadres ou des méthodes dont certaines utilisent des techniques de raisonnement logique, de fouille de données ou de traitement automatique de langues. Elles s’organisent autour de 3 axes. Le premier axe porte sur l’ingénierie des compétences et son articulation à l’ingénierie des connaissances. Mes deux contributions majeures dans cet axe sont : (1) des modèles de connaissances (i.e. une ontologie noyau des compétences basée sur le modèle CRAI (Comptency Resource Aspect Individual) conçu dans mes travaux de thèse et le modèle CKIM (Competency and Knowledge Integrated Model) pour une représentation intégrée des compétences et connaissances) et (2) une architecture intégrante pour l’ingénierie des compétences. Cette architecture se base sur une
modélisation ontologique et fine des compétences permettant d’intégrer la réalisation des différents processus d’ingénierie des compétences. En plus, elle permet de répertorier des
techniques d’ingénierie des connaissances et les ressources associées pour l’extraction des compétences. Cette architecture pourrait s’étendre à une architecture intégrante pour l’ingénierie des connaissances et porter sur tout type de processus d’une organisation qui requière des connaissances. D’autres types de données (e.g. données structurées, traces) et de techniques pourraient être rajoutés à cette architecture. Cette architecture a orienté mes travaux de recherche vers les deux autres axes : l’axe 2 qui porte sur les méthodes et techniques d’ingénierie des connaissances pour la conceptualisation et la validation d’ontologie, l’ontologie et les méthodes et techniques d’ingénierie des connaissances étant deux composants principaux de cette architecture ; l’axe 3 porte sur les mesures sémantiques de comparaison d’objets, une mesure sémantique étant une technique de cette architecture, appliquée à une ontologie pour aider à accomplir certains processus d’une organisation. Plus précisément, dans l’axe 2, j’ai traité des approches et outils de conceptualisation semi-automatique d’ontologie et j’ai proposé un cadre pour les comparer. J’ai traité également l’étape de validation d’ontologie, considérée dans mes travaux comme un processus qui devrait se réaliser en parallèle avec la conceptualisation. En outre, à partir de mon expérience en construction d’ontologie dans différents projets, il m’a semblé évident le rôle clé qu’une ontologie noyau pourrait jouer dans ces deux processus (i.e. la conceptualisation et la validation). J’ai donc proposé deux approches de validation d’ontologie dans lesquelles j’ai cherché, d’une part, à coupler la validation à la conceptualisation, et d’autre part à leur intégrer des contraintes générées à partir d’une ontologie noyau formelle. La première approche est basée sur l’identification des problèmes pouvant nuire à la qualité d’une ontologie. J’ai proposé une nouvelle typologie évolutive de ces problèmes ; une liste de dépendances de vérification et correction des problèmes pour optimiser le processus de validation ; des anti-patrons partiels pour l’aide à l’identification des problèmes de « Contradiction sociale »; et une méthode, utilisant des règles inductives, pour l’aide à la correction du problème « Ontologie Plate ». La deuxième approche de validation est appliquée à une ontologie pour l’annotation. Elle utilise des règles générées du méta-modèle d’annotation et/ou d’une ontologie noyau pour guider l’annotation d’un objet avec cette ontologie, enrichir cette ontologie si nécessaire et valider ces deux tâches. Ces deux approches pourraient se fusionner et s’étendre vers une approche semi-automatique de construction et validation intégrées d’ontologie, basée sur une ontologie noyau formelle. Dans l’axe 3, j’ai proposé un cadre unifiant pour la définition de trois familles de mesures
sémantique de comparaison d’objets selon leur annotation par une ontologie. Chaque famille de mesure se distingue par le type d’annotation pris en compte dedans : un objet peut être annoté par un concept unique, un ensemble de concepts ou un graphe sémantique d’une ontologie. Ce cadre unifiant se caractérise par l’utilisation d’une approche similaire pour l’approximation du contenu informationnel apporté par chaque type d’annotation, le contenu informationnel étant un élément principal et commun à la définition de ces trois familles de mesures. Par ailleurs, ce cadre unifiant aide aussi à analyser les résultats des mesures et à choisir une mesure adéquate pour une ontologie et une application données.
Dans mon mémoire de HDR, je présente ces différentes contributions, en les positionnant par rapport à l’évolution des connaissances et par rapport à des travaux connexes de l’état de l’art. Je discute en conclusion la pertinence de mes travaux par rapport aux challenges du web des données et je présente mon projet de recherche et des perspectives liées à ce challenge.

Soutenance d’HDR de Charlotte TRUCHET (équipe TASC)

Charlotte Truchet soutiendra son Habilitation à Diriger des Recherches, intitulée « Vers une programmation par contraintes moins contrainte, outils venant de l’Interprétation Abstraite et de l’Analyse en Moyenne pour définir des solveurs plus expressifs et faciles à utiliser »

jeudi 30 novembre 2017 à 10h, sur le site de la FST.

Jury : Nadia Creignou (Aix-Marseille Université – rapporteure), Christian Schulte (KTH, Suède – rapporteur), Pascal Van Hentenryck (University of Michigan, USA – rapporteur), Gérard Assayag (IRCAM), Frédéric Benhamou (Université de Nantes), Eric Goubault (Ecole Polytechnique), Thomas Jensen (INRIA), Brigitte Vallée (CNRS).

Le manuscrit est disponible en ligne (lien pdf).

Soutenance d’HDR de Sophie SAKKA (équipe ReV)

Sophie Sakka soutiendra son Habilitation à Diriger des Recherches intitulée « Imitation des mouvements humains par un robot humanoïde sous contrainte d’équilibre« , mardi 5 décembre à 10h30, dans l’amphi du bât. S, à Centrale Nantes.

Jury : Philippe SOUERES (Directeur de Recherche CNRS, LAAS), Philippe FRAISSE (Professeur des Universités, LIRMM, Université de Montpellier 2), Olivier BRUNEAU (Professeur des Universités, LURPA, Université Paris-Sud), Franck MULTON (Professeur des Universités, MimeTIC, Université Rennes 2), Damien CHABLAT (Directeur de Recherche CNRS, LS2N).

Soutenance d’HDR de Sébastien GARNIER (équipe RoMaS)

Sébastien Garnier (équipe RoMaS) soutiendra son habilitation à diriger des recherches en « Génie mécanique, Productique et Transport » de la section CNU 60

mercredi 29 novembre à 10h30 à l’IUT.

Titre : Identification et modélisation pour le développement de la surveillance d’usinage et de la robotique de production

Jury : Olivier CAHUC (Professeur d’Université, Université de Bordeaux), Henri PARIS (Professeur d’Université, Université de Grenoble), Gabriel ABBA, Professeur d’Université, Ecole National d’ingénieur de Metz), Pascal RAY, Professeur d’Université (Ecole des Mines de Saint-Etienne), Laurent SABOURIN (Maître de conférences, HDR, SIGMA à Clermont-Ferrand), Stéphane CARO (Chargé de recherche CNRS, HDR, Ecole Centrale de Nantes), Benoît FURET (Professeur d’Université, Université de Nantes).

Résumé :
Ce manuscrit présente des travaux portant sur la fabrication. L’approche choisie est ascendante. On observe les grandeurs physiques liées à la fabrication, on les modélise, pour enfin optimiser l’exploitation du moyen.
Deux grands thèmes sont abordés dans le document. Le premier concerne le fraisage sur machine rigide, le second, le parachèvement sur machine souple.
Au cours du premier thème, la modélisation du fraisage est décrite et deux applications à la surveillance d’usinage sont proposées : la surveillance de l’usure et celle du bris d’outil. Dans les deux cas, la notion d’état de l’outil est exploitée. Deux autres applications sont détaillées : la première concerne le pilotage en puissance du fraisage(UGV), la seconde l’usinage du composite avec des outils à concrétions diamantées pour laquelle la modélisation est intégralement revue.
Le deuxième thème concerne l’utilisation de moyens robotisés pour le parachèvement de pièce, et plus particulièrement les robots anthropomorphes. Après une mise en évidence des lacunes de ces derniers, une modélisation est choisie, et différents protocoles d’identifications des paramètres sont détaillés. L’exploitation de ces modèles peut alors être utilisée. Pour mettre en évidence les couplages qui existent entre le moyen et le procédé. Différentes propositions sont faites et mises en œuvre afin de parvenir à assurer la juste qualité des productions à réaliser.

Mots-clés : Fraisage, surveillance d’usinage, composite, robotique, flexibilité articulaire

Abstract:
This document contains research work within a general manufacturing context. Our approach is based on the analysis of signals. We observe the physical parameters related to manufacturing, model them to finally optimize the parameters of the process.Two major themes are addressed in the manuscript. The first concerns the milling on a rigid machine. The second is the manufacture on a flexiblemachine.
In the first theme, milling modelling is described and two applications of the machining monitoring are proposed: wear monitoring and tool breakage monitoring. In both cases, the notion of tool state is exploited. Two other applications are also detailed: the first concerns the control of the high speed machining power, and the second one is the composites machining with concretion tools for which the modelling is fundamentally revised.
The second theme concerns the robotic manufacturing, and more particularly anthropomorphic robots. After highlighting the robot weaknesses, a model is chosen, and different identification parameters protocols are detailed. The exploitation of these models can be used to highlight the couplings that exist between the robot and the process. Different proposals are made and implemented to ensure the quality of the productions to be produced.

Keywords: Milling, monitoring manufactured, CFRP, robotic, join stiffness

 

Soutenance HDR de Hala SKAF-MOLLI

Hala Skaf (équipe GDD) présentera ses travaux de recherche en vue de l’obtention de l’Habilitation à Diriger des Recherches intitulée
« Gestion décentralisée de données du web sémantique »
vendredi 6 octobre à 14h dans l’amphithéâtre du bâtiment 34 (FST).

Jury :
– Bernd Amann, Professeur à l’Université de Pierre et Marie Curie (Paris 6), Rapporteur
– Fabien Gandon, Directeur de recherche INRIA Sophia-Antipolis Mediterranée, Rapporteur
– Philippe Lamarre, Professeur à l’INSA Lyon, Rapporteur
– Maria Esther-Vidal, Professeur à Université de Simon Bolivar Venezuela et Fraunhofer IAIS, Germany, Examinatrice
– Pascale Kuntz, Professeur à l’Université de Nantes, Examinatrice
– Abdelkader Hameurlain, Professor à l’Université de Paul Sabatier, Toulouse, Examinateur
– François Charoy, Professor à TELECOM Nancy – Université de Lorraine, Examinateur

Résumé :
Le web sémantique est une extension du web où l’information a une signification précise.
Aujourd’hui, des milliers de jeux de données sont accessibles simplement sur le web. Ces jeux de données respectent des standards du web sémantique permettant leur interrogations à travers le langage de requêtes SPARQL. Cependant, des problèmes importants liés à la production et la consommation des données liées restent ouverts : la qualité des données, l’accès au web profond et la disponibilité des données. Pour assurer la qualité de données, nous proposons de transformer le web de données vers un web de données en lecture/écriture. Ainsi, un consommateur de données est à même de corriger une erreur. Autoriser les écritures sur le web sémantique pose le problème de cohérence de données. Cette transformation nécessite la définition des algorithmes de synchronisation adaptés au modèle de données RDF et au langage SPARQL 1.1 Update.
Pour assurer l’accès au web profond, nous proposons une approche médiateur permettant de combiner données sémantique et données du web profond. Le problème est alors d’améliorer les performances des requêtes en présence de nombreuses sources de données. Enfin, pour assurer la disponibilité des données, nous proposons un modèle de réplication pour le web de données. Le problème est alors d’optimiser l’exécution des requêtes fédérées en présence de réplicas découverts au moment de l’exécution des requêtes.

Abstract:
The semantic web is an extension of the web where information has a precise meaning.
Today, thousands of datasets are available on the web. These datasets respect semantic web standards, therefore, they can queried allowing through the SPARQL query language. However, important problems related to the production and consumption of linked data remain open: data quality, deep web access, and data availability. To ensure the quality of data, we propose to transform the web of data into a read/write web of data. Consequently, a data consumer is able to correct an error. Allowing consumers to write the semantic data poses the problem of data consistency. This transformation requires the definition of synchronization algorithms adapted to the RDF data model and to SPARQL 1.1 Update language.To ensure access to the deep web, we propose a mediator approach allowing to combine semantic data and deep web data. The problem is then to improve the performance of queries in the presence of a large number of data sources. Finally, to ensure the availability of data, we propose a replication model for the web of data. The problem is to optimize the execution of federated SPARQL queries in the presence of replicas discovered at queries execution time.

Soutenance d’HDR de Naly RAKOTO

M. Naly RAKOTO (équipe PSI) soutiendra son Habilitation à Diriger des Recherches intitulée “Commande de Systèmes Hybrides et de Systèmes à Evénements Discrets
mercredi 6 septembre 2017 à 15h
à l’IMT Atlantique, Amphi Georges Besse

Jury :
– Didier Henrion, Directeur de Recherche, LAAS-CNRS Toulouse (rapporteur)
– Eric Niel, Professeur, INSA Lyon – Ampère (rapporteur)
– Alexandre Dolgui, Professeur, IMT Atlantique – LS2N
– Claude Jard, Professeur, Université de Nantes, Directeur du LS2N
– Stephane Lafortune, Professeur, University of Michigan, Ann Arbor, USA
– Jean-Jacques Loiseau, Directeur de Recherche, CNRS – LS2N

(NB. Daniel Liberzon, Professeur, University of Illinois at Urbana Champaign, USA, est “rapporteur » mais « non membre du jury »)

Résumé:
Cette Thèse d’Habilitation à Diriger des Recherches (HDR) est effectuée dans le cadre de l’Automatique en général. Elle comporte trois parties distinctes. La première partie concerne la commande des systèmes hybrides et systèmes à commutations (switched systems). La deuxième partie est consacrée à la commande supervisée (supervisory control) des systèmes à événements discrets (discrete-event systems). Enfin les perspectives de recherche sont données dans la troisième et dernière partie.

La commande des systèmes hybrides et à commutations traite de la modélisation MLD (Mixed Logical Dynamical Systems) introduite par A. Bemporad et M. Morari (1999).
Les systèmes à commutations étant décrits naturellement par un modèle PWA (piecewise affine, affine par morceaux), l’approche MLD est une modélisation alternative. Nous proposons des algorithmes de conversion de PWA vers MLD et vice-versa qui donnent des meilleurs résultats, notamment en temps de simulation.
La stabilité d’un système non linéaire à commutations est étudiée en utilisant une approche polynomiale, qui permet de reformuler le système initial en un système continu polynomial, permettant ainsi de prouver sa stabilité Enfin la commande optimale est appliquée aux deux types de systèmes commutés : le cas linéaire et celui non linéaire sont traités par reformulation du système en système polynomial continu, permettant d’utiliser la théorie des moments, qui rend les problèmes de commande optimale plus faciles à résoudre.

La deuxième partie concerne les systèmes à événements discrets. Elle a débuté avec la commande supervisée de la cellule flexible de l’EMN, composée d’un convoyeur central et de plusieurs stations robotisées (ISIC 2003, LSS 2004). Ensuite influencé par le thème de recherche des systèmes hybrides et systèmes à commutations (switched systems) venant de l’Automatique continue, nos travaux se sont orientés vers une tentative de définition formelle des SED à commutations (switched DES, MTNS 2006). Toujours dans cette voie, nous avons proposé une définition de systèmes “switched non blocking » (MSR 2013), pour arriver à des systèmes avec plusieurs langages pouvant commuter (switchable languages), suivant le modèle de (Kumar, Takai, Fabian et Ushio, 2005).

La troisième et dernière partie est consacrée aux perspectives de recherche. La première perspective concerne la commande optimale de “smart grids”, en exploitant la topologie de commutations (switched topology) dans de tels systèmes. La deuxième perspective traite de la simulation et l’optimisation de systèmes logistiques (le système de tri de bagages Air France à l’Aéroport de Paris-CDG) à l’aide de réseaux de Petri.

Copyright : LS2N 2017 - Mentions Légales - 
 -