Home » Évènement

Soutenance d’HDR de Vincent Ricordel (équipe IPI)

Vincent RICORDEL soutiendra son habilitation à diriger des recherches intitulée « Outils et méthodes pour le codage vidéo perceptuel« 
mercredi 22 janvier 2020 à 13h30, dans l’amphithéâtre A1 à Polytech.
Jury :
– Marc Antonini, DR. à l’Université de Nice (rapporteur)
– William Puech, Pr. à l’Université de Montpellier (rapporteur)
– Olivier Déforges, Pr. à l’INSA de Rennes (rapporteur)
– Marco Cagnazzo, Pr. à l’Institut Télécom-Paris (examinateur)
– Luce Morin, Pr. à l’INSA de Rennes (examinatrice)
– Bogdan Cramariuc, Directeur de l’ITCST à Bucarest (examinateur)
– Marc Gelgon, Pr. à l’Université de Nantes (examinateur)
La soutenance sera suivie d’un pot dans le même bâtiment Ireste.
Le mémoire (pas la version finale) est accessible ici : https://uncloud.univ-nantes.fr/index.php/s/RCdgg5XfkGEMjzK
Résumé :
On ne peut que constater combien la technologie vidéo est devenue omniprésente en un peu plus d’une décennie. Si les besoins des nouveaux services vidéo ont été en partie satisfaits par l’efficacité des réseaux et de leurs technologies de couche physique, en parallèle les codecs vidéo ont été primordiaux en offrant compression et nouvelles fonctionnalités. La recherche en codage vidéo se caractérise alors par un fort contexte normatif où le point de compatibilité se fait au niveau du décodage. Les performances de chaque nouveau standard sont remarquables, car typiquement chacun par rapport au précédent, code avec la même qualité objective un format vidéo donné mais en divisant par deux le débit nécessaire. Il est cependant frappant de constater que le paradigme de la couche de codage n’a pas changé depuis l’origine, avec un codec dissymétrique où les décisions sont prises à l’encodage via un schéma hybride intégrant les étapes de prédiction, transformation, quantification et codage entropique. Il est aussi surprenant de constater la persistance de l’implantation dans les codeurs pour la phase d’optimisation débit-distorsion, d’un calcul de distorsion de type erreur quadratique moyenne, alors que l’on sait la corrélation pauvre entre les résultats de cette métrique et le jugement humain.
C’est à ce niveau que se définit l’objectif du codage vidéo perceptuel qui est d’aller vers une représentation de l’information basée sur le contenu perçu et qui puisse servir de paradigme pour un codage basé qualité perceptuelle des contenus des vidéos 2D et 3D. Pour être en phase avec les approches standards, l’objectif devient de guider les choix de codage de façon à aller vers la fidélité perceptuelle sans perte des vidéos décodées. Mes travaux se positionnent donc dans cette recherche des outils et des méthodes où les choix pour améliorer la qualité perceptuelle guident le codage vidéo.
Ma présentation retracera mon itinéraire scientifique au sein des équipes IVC-IRCCyN puis IPI-LS2N qui, du fait des recherche qui y sont conduites sur la modélisation du système visuel humain, ont offert et offrent encore un cadre collaboratif particulièrement propice aux travaux liés au codage vidéo perceptuel.
Mes contributions au codage vidéo perceptuel se sont principalement organisées au sein de projets de recherche visant à contribuer aux efforts faits en normalisation, avec le projet ANR ArchiPEG qui avait pour objectif l’optimisation du codage vidéo HD en flux H.264/AVC, le projet ANR PERSEE qui s’intéressait au codage perceptuel des formats vidéo 2D et 3D via le codec H.264 et son extension MVC, et le projet européen ITN PROVISION qui visait le codage perceptuel via HEVC. Mes contributions ont été produites au travers l’encadrement de thèses (4 soutenues, 1 en cours), et nous verrons que nous avons agi à 2 niveaux de la boucle de codage vidéo hybride.
Une première possibilité est d’améliorer directement des unités de la boucle de codage.
C’est ainsi que nous avons mis en œuvre une transformation directionnelle tenant compte des orientations géométriques au sein de l’image. Nous avons exploité cette représentation de l’information afin de construire des classes de structures, puis adapté la quantification de leur contenu en se basant sur des critères perceptuels.
Nous avons aussi, après avoir défini la notion de textures spatio-temporelles visuelles, proposé un modèle mesurant la similarité entre ces textures visuelles. Ce modèle computationnel basé sur le traitement cortical du SVH, a ensuite été utilisé afin d’améliorer la boucle de codage de HEVC : en identifiant des classes de textures visuelles et en faisant correspondre à la distorsion objective standard calculée par le codeur sa valeur dans le domaine perceptuel.
Une autre approche consiste à mettre en place un schéma de pré-analyse avant encodage afin de piloter ensuite efficacement le codage des régions d’intérêt. La modélisation de l’attention visuelle est donc essentielle au niveau de cette analyse.
Nous avons conçu un schéma de pré-analyse basé sur des tubes spatio-temporels. Cet outil réalise la segmentation et le suivi des objets constitués de tubes connexes, et il leur associe une saillance visuelle. L’ensemble de ces informations est exploitée afin d’assurer un codage cohérent des objets en flux H.264/AVC. Exactement nous avons testé l’adaptation de la structure du GOP, et le guidage de la qualité visuelle.
Nous avons aussi développé le premier modèle computationnel de l’attention visuelle 3D s’appliquant à la visualisation d’images stéréoscopiques. Ce modèle combine deux cartes de saillance visuelle : celle 2D et celle de profondeur. Nous avons utilisé ce modèle afin d’améliorer la qualité d’expérience de visualisation de la TV3D, par ajout d’un flou de défocalisation sur la région ayant moins d’intérêt.
Dans la dernière partie de ma présentation, un bilan et des perspectives sont donnés. Nous nous intéressons en particulier au codage des formats vidéo immersifs représentés par des nuages de points 3D. Nos derniers travaux montrent l’intérêt d’une approche basée quantification vectorielle algébrique et arborescente, permettant de structurer graduellement la géométrie de la scène, et cela en fonction d’un critère débit-distorsion.
Index
ANR Agence Nationale  de la Recherche
AVC   Advanced video Coding
GOP Group of Pictures
HD   Haute Définition
HEVC   High Efficiency Video Coding
IPI Image Perception Interaction
IRCCyN Institut de Recherche en Communications et Cybernétique de Nantes, UMR 6597
ITN Initial Training Network
IVC   Image & Vidéo Communication
LS2N   Laboratoire des Sciences du Numérique de Nantes, UMR 6004
MVC   Multiview Video Coding
SVH   Système V

[REPORTE] Soutenance d’HDR de Sébastien Bourguignon (équipe SIMS)

Sébastien Bourguignon, Maître de Conférences Centrale Nantes au sein de l’équipe SIMS, soutiendra son Habilitation à Diriger des Recherches, intitulé « Modèles et algorithmes dédiés pour la résolution de problèmes inverses parcimonieux en traitement du signal et de l’image » / « Sparsity-enhancing inverse problems in signal and image processing : models and dedicated algorithms »

???, dans l’amphi E (bât. E) de l’ECN.

Jury :
– Laure Blanc-Féraud, Université Nice Sophia-Antipolis / I3S
– Stéphane Canu, INSA Rouen / LITIS
– Olivier Michel, INP Grenoble / GiPSA-Lab
– Pierre Chainais, Centrale Lille / CRIStAL
– Christine De Mol, Université Libre de Bruxelles
– Nicolas Gillis, Université de Mons
– Jérôme Idier, Centrale Nantes / LS2N

Lien vers le manuscrit : https://uncloud.univ-nantes.fr/index.php/s/xHm8af2D7dsfpRR

Soutenance d’HDR de Mathieu LAGRANGE (équipe SIMS)

Mathieu Lagrange, chercheur CNRS au sein de l’équipe SIMS, soutiendra son habilitation à diriger des recherches intitulée « Modélisation long terme de signaux sonores »
jeudi 14 novembre 2019 à 10h15, dans l’amphi du bâtiment S sur le site de Centrale Nantes.

Jury :
– Frédéric Bimbot, Directeur de Recherche CNRS, IRISA, Rennes
– Alain de Cheveigné, Directeur de Recherche CNRS, ENS Paris
– Béatrice Daille, Professeur, LS2N, Nantes
– Patrick Flandrin, Directeur de Recherche CNRS, ENS Lyon
– Stéphane Mallat, Professeur, Collège de France

Document pdf de 79 pages sur Google Drive.

Résumé :
La modélisation numérique du son a permis de transformer tous nos usages de la musique et plus récemment des environnements sonores. Du codage à la synthèse en passant par l’indexation, un large champ d’applications nécessite de pouvoir analyser le signal sonore, un contenu riche et complexe avec des propriétés d’organisation temporelle et fréquentielle spécifiques. En suivant le paradigme de l’analyse de scènes auditives computationnelles, j’ai proposé au début de ma carrière plusieurs méthodes de segmentation du signal sonore, par des approches de suivi de partiels, ou encore de segmentation de sources harmoniques par coupures normalisées de graphes.
L’avènement des approches par apprentissage a permis de relâcher un certain nombre de contraintes de spécification des modèles de traitement, mais demande un soin particulier dans la mise en place du protocole expérimental avec lequel ces modèles sont estimés et évalués. J’ai contribué à cette problématique en poursuivant deux axes : 1) la proposition, dans le cadre du challenge international dcase, de tâches de reconnaissances d’événements dans des scènes sonores environnementales artificielles dont les facteurs de complexité sont contrôlés et 2) l’implantation et la mise à disposition d’explanes, un environnement de développement d’expérimentations dédié à la facilitation de la reproductibilité des études en sciences des données.
Je montrerai le formalisme de ce dernier en présentant deux contributions récentes : l’une portant sur l’utilisation des réseaux convolutionnels profonds pour le sur-échantillonnage et l’autre portant sur la modélisation par diffusion d’ondelettes des modes de jeux étendus pour l’aide à l’orchestration musicale.
Ces nouvelles approches questionnent d’une nouvelle manière des problèmes fondamentaux en traitement du signal sonore et ouvrent un vaste champ d’expérimentation nécessaire à leur bonne maîtrise. Je discuterai en guise de conclusion le protocole d’exploration que je me propose de suivre pour contribuer à l’extension des connaissances sur ces sujets.

Soutenance d’HDR de Thomas LEDOUX

Thomas Ledoux, maître-assistant au sein de l’équipe STACK, soutiendra son Habilitation à Diriger des Recherches (HDR) intitulée « Reconfiguration dynamique d’architectures logicielles : des métaclasses aux « nuages verts »« 

mardi 17 juillet à 11h00,à IMT Atlantique campus de Nantes (amphi G. Besse).

Jury :
Mme Laurence DUCHIEN, Professeur, Université Lille – Sciences et Technologies (Rapporteur)
M. Michel RIVEILL, Professeur, Polytech’Nice Sophia (Rapporteur)
M. Jean-Bernard STEFANI, Directeur de recherche, INRIA Grenoble-Rhône-Alpes (Rapporteur)
M. Pierre COINTE, Professeur, IMT Atlantique (Examinateur)
M. Thierry COUPAYE, VP Recherche Internet des objets, Orange Labs (Examinateur)
M. Rachid GUERRAOUI, Professeur, École polytechnique fédérale de Lausanne (Examinateur)
M. Claude JARD, Professeur, Université de Nantes (Examinateur)

Résumé :

Cette habilitation à diriger des recherches présente une synthèse de mes travaux ayant trait à la reconfiguration dynamique d’architectures logicielles.

En première partie, je propose une analyse de l’adaptation dynamique du logiciel avec la volonté de poser les concepts de base et d’identifier les verrous à lever. Je motive l’intérêt de l’adaptation dynamique et modélise son processus de développement. Je présente un nombre de caractéristiques indispensables à l’adaptation dont la réification et la modularité. Je traite alors l’adaptation dynamique du logiciel comme un objet de première classe introduisant un découplage spatio-temporel entre code métier et logique d’adaptation. L’adaptation dynamique ne pouvant se faire au détriment de la qualité du logiciel et de son intégrité, j’énumère un nombre de propriétés indispensables à respecter, de pistes à étudier pour réaliser à l’exécution ce processus d’adaptation du logiciel.

En deuxième partie, je présente ma contribution à la mise en œuvre de l’adaptation dynamique pour les logiciels à base de composants. Dans un premier temps, je propose un patron d’auto-administration pour les architectures à composants, des langages dédiés pour la navigation et la reconfiguration dans les architectures logicielles Fractal, un framework pour faciliter la création d’applications sensibles au contexte. Dans un second temps, je développe une approche multi-étape pour des reconfigurations dynamiques fiables, qui contient à la fois une partie prévention de fautes basée sur une analyse statique et une partie tolérance aux fautes assurée par un moniteur transactionnel. Cette approche s’appuie sur une spécification des (re)configurations du modèle Fractal basée sur une logique du premier ordre.

En troisième partie, je montre que la reconfiguration dynamique dans les « architectures en nuages » (Cloud computing) peut apporter une réponse à un enjeu sociétal important, à savoir les transitions numérique et énergétique. Contrairement aux travaux actuels qui visent à améliorer l’efficacité énergétique des centres de données en proposant des solutions dans les couches basses du Cloud, je préconise une approche d’éco-élasticité logicielle sur ses couches hautes. En m’inspirant à la fois du concept d’innovation frugale (Jugaad) et du mécanisme d’effacement de la consommation électrique, un certain nombre d’artefacts originaux comme le Cloud SLA, l’effacement de la consommation du logiciel, la virtualisation de l’énergie ou encore le SaaS green energy-aware, sont suggérés pour diminuer l’empreinte carbone des architectures en nuages.

En conclusion, je dresse un bilan final de ma contribution et présente mes perspectives de recherche centrées d’abord sur une généralisation de l’approche précédente à l’aide de méta-modèles, puis sur la conception de micro-services « verts ».

Soutenance d’HDR de Mounira HARZALLAH (équipe DUKe)

Mounira Harzallah soutiendra son Habilitation à Diriger des Recherches, intitulée « Contributions à l’Ingénierie des Connaissances : Construction et validation d’ontologie et mesures sémantiques »
mercredi 13 décembre à 14h, dans l’amphithéâtre 2 du bâtiment IREST de Polytech.

Jury :
Mme Nathalie Aussenac-Gilles, Directrice de recherche, CNRS/IRIT, Univ. Paul Sabatier, Toulouse (Rapporteur)
M. Jean Charlet, Chargé de mission recherche à l’AP-HP & Inserm, Université Pierre et Marie Curie (Rapporteur)
M. Serge Garlatti, Professeur, Institut Mines Télécom (IMT) Atlantique (Rapporteur)
Mme Bénédicte Le Grand, Professeur, Université Paris 1 Panthéon – Sorbonne, Centre de Recherche en Informatique (CRI) (Examinateur)
Mme Pascale Kuntz, Professeur, École Polytechnique de l’Univ. de Nantes (Examinateur)

Résumé :
Les connaissances sont reconnues depuis quelques décennies comme le capital de l’économie immatérielle. Leur ingénierie (extraction, modélisation, capitalisation, exploitation…) est une problématique permanente et omniprésente dans les activités de chacun. Elle a connu plusieurs mutations en s’adaptant au cours du temps à l’évolution des connaissances. Elle a notamment dû prendre en compte une évolution dans le temps des ressources des connaissances (experts, livres, bases de données, réseaux sociaux, tweeters, web des données…), de leurs formes (implicite, explicite, structurée, semi ou non structurée), de leurs utilisateurs (organisation, apprenant, utilisateur du web…), des supports de leur utilisation (livres, bases de données, systèmes experts, systèmes à bases de connaissances, applications du web sémantique…), du volume et de la vitesse de multiplication de leurs ressources, des techniques de leur extraction, des langages de leur représentation…
Dans ces différentes évolutions, l’ontologie a été reconnue comme une représentation sémantique pertinente d’une conceptualisation explicite et formelle d’un domaine. Dans la communauté de l’ingénierie des connaissances, l’aspect formel des ontologies et la possibilité de raisonner avec elles et de les réutiliser, ont conduit de nombreux chercheurs à s’y intéresser et à les utiliser dans plusieurs applications. Au passage à l’échelle, le challenge de leur utilisation dans des projets réels s’est vu confronté à plusieurs obstacles, par exemple : (1) des méthodes de construction peu opérationnelles et non adaptées à la construction d’ontologies larges ; (2) des méthodes de validation plutôt adaptées à certains problèmes logiques ; (3) la difficulté de bien choisir une ontologie pour une application, parce que cette ontologie devrait bien couvrir le domaine de cette application et prendre en compte ses évolutions, et parce qu’il faut y appliquer une mesure sémantique adéquate dont les résultats devraient être et rester proches du jugement humain, même si cette ontologie évolue. Dans le web des données, on s’est focalisé sur les techniques de fouille de données, d’apprentissage automatique, etc., pour gérer les paramètres de volume des données, de la vitesse de leur changement, de leur véracité… tout en oubliant le paramètre de leur hétérogénéité sémantique.
Je me suis intéressée depuis plus de 15 ans, aux problématiques liées aux ontologies, à leur construction, à leur validation et à leur exploitation, en ingénierie des connaissances. Mes contributions à ce domaine sont principalement des modèles sémantiques, des cadres ou des méthodes dont certaines utilisent des techniques de raisonnement logique, de fouille de données ou de traitement automatique de langues. Elles s’organisent autour de 3 axes. Le premier axe porte sur l’ingénierie des compétences et son articulation à l’ingénierie des connaissances. Mes deux contributions majeures dans cet axe sont : (1) des modèles de connaissances (i.e. une ontologie noyau des compétences basée sur le modèle CRAI (Comptency Resource Aspect Individual) conçu dans mes travaux de thèse et le modèle CKIM (Competency and Knowledge Integrated Model) pour une représentation intégrée des compétences et connaissances) et (2) une architecture intégrante pour l’ingénierie des compétences. Cette architecture se base sur une
modélisation ontologique et fine des compétences permettant d’intégrer la réalisation des différents processus d’ingénierie des compétences. En plus, elle permet de répertorier des
techniques d’ingénierie des connaissances et les ressources associées pour l’extraction des compétences. Cette architecture pourrait s’étendre à une architecture intégrante pour l’ingénierie des connaissances et porter sur tout type de processus d’une organisation qui requière des connaissances. D’autres types de données (e.g. données structurées, traces) et de techniques pourraient être rajoutés à cette architecture. Cette architecture a orienté mes travaux de recherche vers les deux autres axes : l’axe 2 qui porte sur les méthodes et techniques d’ingénierie des connaissances pour la conceptualisation et la validation d’ontologie, l’ontologie et les méthodes et techniques d’ingénierie des connaissances étant deux composants principaux de cette architecture ; l’axe 3 porte sur les mesures sémantiques de comparaison d’objets, une mesure sémantique étant une technique de cette architecture, appliquée à une ontologie pour aider à accomplir certains processus d’une organisation. Plus précisément, dans l’axe 2, j’ai traité des approches et outils de conceptualisation semi-automatique d’ontologie et j’ai proposé un cadre pour les comparer. J’ai traité également l’étape de validation d’ontologie, considérée dans mes travaux comme un processus qui devrait se réaliser en parallèle avec la conceptualisation. En outre, à partir de mon expérience en construction d’ontologie dans différents projets, il m’a semblé évident le rôle clé qu’une ontologie noyau pourrait jouer dans ces deux processus (i.e. la conceptualisation et la validation). J’ai donc proposé deux approches de validation d’ontologie dans lesquelles j’ai cherché, d’une part, à coupler la validation à la conceptualisation, et d’autre part à leur intégrer des contraintes générées à partir d’une ontologie noyau formelle. La première approche est basée sur l’identification des problèmes pouvant nuire à la qualité d’une ontologie. J’ai proposé une nouvelle typologie évolutive de ces problèmes ; une liste de dépendances de vérification et correction des problèmes pour optimiser le processus de validation ; des anti-patrons partiels pour l’aide à l’identification des problèmes de « Contradiction sociale »; et une méthode, utilisant des règles inductives, pour l’aide à la correction du problème « Ontologie Plate ». La deuxième approche de validation est appliquée à une ontologie pour l’annotation. Elle utilise des règles générées du méta-modèle d’annotation et/ou d’une ontologie noyau pour guider l’annotation d’un objet avec cette ontologie, enrichir cette ontologie si nécessaire et valider ces deux tâches. Ces deux approches pourraient se fusionner et s’étendre vers une approche semi-automatique de construction et validation intégrées d’ontologie, basée sur une ontologie noyau formelle. Dans l’axe 3, j’ai proposé un cadre unifiant pour la définition de trois familles de mesures
sémantique de comparaison d’objets selon leur annotation par une ontologie. Chaque famille de mesure se distingue par le type d’annotation pris en compte dedans : un objet peut être annoté par un concept unique, un ensemble de concepts ou un graphe sémantique d’une ontologie. Ce cadre unifiant se caractérise par l’utilisation d’une approche similaire pour l’approximation du contenu informationnel apporté par chaque type d’annotation, le contenu informationnel étant un élément principal et commun à la définition de ces trois familles de mesures. Par ailleurs, ce cadre unifiant aide aussi à analyser les résultats des mesures et à choisir une mesure adéquate pour une ontologie et une application données.
Dans mon mémoire de HDR, je présente ces différentes contributions, en les positionnant par rapport à l’évolution des connaissances et par rapport à des travaux connexes de l’état de l’art. Je discute en conclusion la pertinence de mes travaux par rapport aux challenges du web des données et je présente mon projet de recherche et des perspectives liées à ce challenge.

Soutenance d’HDR de Sophie SAKKA (équipe ReV)

Sophie Sakka soutiendra son Habilitation à Diriger des Recherches intitulée « Imitation des mouvements humains par un robot humanoïde sous contrainte d’équilibre« , mardi 5 décembre à 10h30, dans l’amphi du bât. S, à Centrale Nantes.

Jury : Philippe SOUERES (Directeur de Recherche CNRS, LAAS), Philippe FRAISSE (Professeur des Universités, LIRMM, Université de Montpellier 2), Olivier BRUNEAU (Professeur des Universités, LURPA, Université Paris-Sud), Franck MULTON (Professeur des Universités, MimeTIC, Université Rennes 2), Damien CHABLAT (Directeur de Recherche CNRS, LS2N).

Soutenance d’HDR de Charlotte TRUCHET (équipe TASC)

Charlotte Truchet soutiendra son Habilitation à Diriger des Recherches, intitulée « Vers une programmation par contraintes moins contrainte, outils venant de l’Interprétation Abstraite et de l’Analyse en Moyenne pour définir des solveurs plus expressifs et faciles à utiliser »

jeudi 30 novembre 2017 à 10h, sur le site de la FST.

Jury : Nadia Creignou (Aix-Marseille Université – rapporteure), Christian Schulte (KTH, Suède – rapporteur), Pascal Van Hentenryck (University of Michigan, USA – rapporteur), Gérard Assayag (IRCAM), Frédéric Benhamou (Université de Nantes), Eric Goubault (Ecole Polytechnique), Thomas Jensen (INRIA), Brigitte Vallée (CNRS).

Le manuscrit est disponible en ligne (lien pdf).

Soutenance d’HDR de Sébastien GARNIER (équipe RoMaS)

Sébastien Garnier (équipe RoMaS) soutiendra son habilitation à diriger des recherches en « Génie mécanique, Productique et Transport » de la section CNU 60

mercredi 29 novembre à 10h30 à l’IUT.

Titre : Identification et modélisation pour le développement de la surveillance d’usinage et de la robotique de production

Jury : Olivier CAHUC (Professeur d’Université, Université de Bordeaux), Henri PARIS (Professeur d’Université, Université de Grenoble), Gabriel ABBA, Professeur d’Université, Ecole National d’ingénieur de Metz), Pascal RAY, Professeur d’Université (Ecole des Mines de Saint-Etienne), Laurent SABOURIN (Maître de conférences, HDR, SIGMA à Clermont-Ferrand), Stéphane CARO (Chargé de recherche CNRS, HDR, Ecole Centrale de Nantes), Benoît FURET (Professeur d’Université, Université de Nantes).

Résumé :
Ce manuscrit présente des travaux portant sur la fabrication. L’approche choisie est ascendante. On observe les grandeurs physiques liées à la fabrication, on les modélise, pour enfin optimiser l’exploitation du moyen.
Deux grands thèmes sont abordés dans le document. Le premier concerne le fraisage sur machine rigide, le second, le parachèvement sur machine souple.
Au cours du premier thème, la modélisation du fraisage est décrite et deux applications à la surveillance d’usinage sont proposées : la surveillance de l’usure et celle du bris d’outil. Dans les deux cas, la notion d’état de l’outil est exploitée. Deux autres applications sont détaillées : la première concerne le pilotage en puissance du fraisage(UGV), la seconde l’usinage du composite avec des outils à concrétions diamantées pour laquelle la modélisation est intégralement revue.
Le deuxième thème concerne l’utilisation de moyens robotisés pour le parachèvement de pièce, et plus particulièrement les robots anthropomorphes. Après une mise en évidence des lacunes de ces derniers, une modélisation est choisie, et différents protocoles d’identifications des paramètres sont détaillés. L’exploitation de ces modèles peut alors être utilisée. Pour mettre en évidence les couplages qui existent entre le moyen et le procédé. Différentes propositions sont faites et mises en œuvre afin de parvenir à assurer la juste qualité des productions à réaliser.

Mots-clés : Fraisage, surveillance d’usinage, composite, robotique, flexibilité articulaire

Abstract:
This document contains research work within a general manufacturing context. Our approach is based on the analysis of signals. We observe the physical parameters related to manufacturing, model them to finally optimize the parameters of the process.Two major themes are addressed in the manuscript. The first concerns the milling on a rigid machine. The second is the manufacture on a flexiblemachine.
In the first theme, milling modelling is described and two applications of the machining monitoring are proposed: wear monitoring and tool breakage monitoring. In both cases, the notion of tool state is exploited. Two other applications are also detailed: the first concerns the control of the high speed machining power, and the second one is the composites machining with concretion tools for which the modelling is fundamentally revised.
The second theme concerns the robotic manufacturing, and more particularly anthropomorphic robots. After highlighting the robot weaknesses, a model is chosen, and different identification parameters protocols are detailed. The exploitation of these models can be used to highlight the couplings that exist between the robot and the process. Different proposals are made and implemented to ensure the quality of the productions to be produced.

Keywords: Milling, monitoring manufactured, CFRP, robotic, join stiffness

 

Soutenance HDR de Hala SKAF-MOLLI

Hala Skaf (équipe GDD) présentera ses travaux de recherche en vue de l’obtention de l’Habilitation à Diriger des Recherches intitulée
« Gestion décentralisée de données du web sémantique »
vendredi 6 octobre à 14h dans l’amphithéâtre du bâtiment 34 (FST).

Jury :
– Bernd Amann, Professeur à l’Université de Pierre et Marie Curie (Paris 6), Rapporteur
– Fabien Gandon, Directeur de recherche INRIA Sophia-Antipolis Mediterranée, Rapporteur
– Philippe Lamarre, Professeur à l’INSA Lyon, Rapporteur
– Maria Esther-Vidal, Professeur à Université de Simon Bolivar Venezuela et Fraunhofer IAIS, Germany, Examinatrice
– Pascale Kuntz, Professeur à l’Université de Nantes, Examinatrice
– Abdelkader Hameurlain, Professor à l’Université de Paul Sabatier, Toulouse, Examinateur
– François Charoy, Professor à TELECOM Nancy – Université de Lorraine, Examinateur

Résumé :
Le web sémantique est une extension du web où l’information a une signification précise.
Aujourd’hui, des milliers de jeux de données sont accessibles simplement sur le web. Ces jeux de données respectent des standards du web sémantique permettant leur interrogations à travers le langage de requêtes SPARQL. Cependant, des problèmes importants liés à la production et la consommation des données liées restent ouverts : la qualité des données, l’accès au web profond et la disponibilité des données. Pour assurer la qualité de données, nous proposons de transformer le web de données vers un web de données en lecture/écriture. Ainsi, un consommateur de données est à même de corriger une erreur. Autoriser les écritures sur le web sémantique pose le problème de cohérence de données. Cette transformation nécessite la définition des algorithmes de synchronisation adaptés au modèle de données RDF et au langage SPARQL 1.1 Update.
Pour assurer l’accès au web profond, nous proposons une approche médiateur permettant de combiner données sémantique et données du web profond. Le problème est alors d’améliorer les performances des requêtes en présence de nombreuses sources de données. Enfin, pour assurer la disponibilité des données, nous proposons un modèle de réplication pour le web de données. Le problème est alors d’optimiser l’exécution des requêtes fédérées en présence de réplicas découverts au moment de l’exécution des requêtes.

Abstract:
The semantic web is an extension of the web where information has a precise meaning.
Today, thousands of datasets are available on the web. These datasets respect semantic web standards, therefore, they can queried allowing through the SPARQL query language. However, important problems related to the production and consumption of linked data remain open: data quality, deep web access, and data availability. To ensure the quality of data, we propose to transform the web of data into a read/write web of data. Consequently, a data consumer is able to correct an error. Allowing consumers to write the semantic data poses the problem of data consistency. This transformation requires the definition of synchronization algorithms adapted to the RDF data model and to SPARQL 1.1 Update language.To ensure access to the deep web, we propose a mediator approach allowing to combine semantic data and deep web data. The problem is then to improve the performance of queries in the presence of a large number of data sources. Finally, to ensure the availability of data, we propose a replication model for the web of data. The problem is to optimize the execution of federated SPARQL queries in the presence of replicas discovered at queries execution time.

Soutenance d’HDR de Naly RAKOTO

M. Naly RAKOTO (équipe PSI) soutiendra son Habilitation à Diriger des Recherches intitulée “Commande de Systèmes Hybrides et de Systèmes à Evénements Discrets
mercredi 6 septembre 2017 à 15h
à l’IMT Atlantique, Amphi Georges Besse

Jury :
– Didier Henrion, Directeur de Recherche, LAAS-CNRS Toulouse (rapporteur)
– Eric Niel, Professeur, INSA Lyon – Ampère (rapporteur)
– Alexandre Dolgui, Professeur, IMT Atlantique – LS2N
– Claude Jard, Professeur, Université de Nantes, Directeur du LS2N
– Stephane Lafortune, Professeur, University of Michigan, Ann Arbor, USA
– Jean-Jacques Loiseau, Directeur de Recherche, CNRS – LS2N

(NB. Daniel Liberzon, Professeur, University of Illinois at Urbana Champaign, USA, est “rapporteur » mais « non membre du jury »)

Résumé:
Cette Thèse d’Habilitation à Diriger des Recherches (HDR) est effectuée dans le cadre de l’Automatique en général. Elle comporte trois parties distinctes. La première partie concerne la commande des systèmes hybrides et systèmes à commutations (switched systems). La deuxième partie est consacrée à la commande supervisée (supervisory control) des systèmes à événements discrets (discrete-event systems). Enfin les perspectives de recherche sont données dans la troisième et dernière partie.

La commande des systèmes hybrides et à commutations traite de la modélisation MLD (Mixed Logical Dynamical Systems) introduite par A. Bemporad et M. Morari (1999).
Les systèmes à commutations étant décrits naturellement par un modèle PWA (piecewise affine, affine par morceaux), l’approche MLD est une modélisation alternative. Nous proposons des algorithmes de conversion de PWA vers MLD et vice-versa qui donnent des meilleurs résultats, notamment en temps de simulation.
La stabilité d’un système non linéaire à commutations est étudiée en utilisant une approche polynomiale, qui permet de reformuler le système initial en un système continu polynomial, permettant ainsi de prouver sa stabilité Enfin la commande optimale est appliquée aux deux types de systèmes commutés : le cas linéaire et celui non linéaire sont traités par reformulation du système en système polynomial continu, permettant d’utiliser la théorie des moments, qui rend les problèmes de commande optimale plus faciles à résoudre.

La deuxième partie concerne les systèmes à événements discrets. Elle a débuté avec la commande supervisée de la cellule flexible de l’EMN, composée d’un convoyeur central et de plusieurs stations robotisées (ISIC 2003, LSS 2004). Ensuite influencé par le thème de recherche des systèmes hybrides et systèmes à commutations (switched systems) venant de l’Automatique continue, nos travaux se sont orientés vers une tentative de définition formelle des SED à commutations (switched DES, MTNS 2006). Toujours dans cette voie, nous avons proposé une définition de systèmes “switched non blocking » (MSR 2013), pour arriver à des systèmes avec plusieurs langages pouvant commuter (switchable languages), suivant le modèle de (Kumar, Takai, Fabian et Ushio, 2005).

La troisième et dernière partie est consacrée aux perspectives de recherche. La première perspective concerne la commande optimale de “smart grids”, en exploitant la topologie de commutations (switched topology) dans de tels systèmes. La deuxième perspective traite de la simulation et l’optimisation de systèmes logistiques (le système de tri de bagages Air France à l’Aéroport de Paris-CDG) à l’aide de réseaux de Petri.

Copyright : LS2N 2017 - Mentions Légales - 
 -