Home » Évènement

Soutenance d’HDR de Patricia SERRANO ALVARADO (équipe GDD)

Patricia Serrano, maître de conférences au sein de l’équipe GDD, soutiendra son Habilitation à Diriger des Recherches (HDR) intitulée « Protecting user data in distributed systems » / « De la protection des données des utilisateurs dans les systèmes répartis »

vendredi 27 mars 2020 à 14h dans l’amphi du bâtiment 34, sur le site de la FST.

Jury :
Présidente : Mme Pascale KUNTZ COSPEREC, Professeure, Université de Nantes
Rapporteurs : – M. Luc BOUGANIM, Directeur de Recherches, Inria Saclay-Île de France
                           – M. Sébastien GAMBS, Professeur, Université du Québec
                           – M. Daniel LE METAYER, Directeur de Recherches, Inria Alpes
Examinateurs : – Mme Catherine FARON ZUCKER, Maître de Conférences HDR, Université de Nice Sophia Antipolis
                              – Mme Marie-Christine ROUSSET, Professeure, Université Joseph Fourier

Manuscrit (pdf).

Résumé : Protéger les données des utilisateurs dans les systèmes distribués est aujourd’hui très difficile.Dans cette thèse, nous nous concentrons sur diverses questions liées à la protection des données utilisateur sur des systèmes de gestion de données distribuées, dont les architectures vont des architectures client-serveur aux fédérations de serveurs ou aux énormes organisations pair-à-pair. Notre première contribution concerne la confiance dans unsystème. Nous proposons un métamodèle basé sur la logique du premier ordre, qui permet de modéliser un système en considérant des entités des mondes sociaux et numériques et leurs relations. Nous présentons ensuite deux approches permettant aux utilisateurs d’évaluer la confiance envers les systèmes. Dans le contexte des systèmes pair-à-pair, nous proposons un modèle de confidentialité de données et son implémentation basée sur DHT,ainsi qu’un canevas permettant de mesurer et d’améliorer la satisfaction des utilisateurs. Dans le contexte du Web sémantique, en particulier des données liées, nous présentons deux approches pour déduire des BGP de requêtes SPARQL. Enfin, nous présentons un modèle basé sur treillis qui permet de positionner des licences en termes de compatibilité et de conformité.

Mots-clés : Confidentialité des données, licences, confiance, systèmes pair-à-pair, Web des données, traitement des requêtes fédérées, contrôle d’usage

———-

Abstract: Protecting user data in distributed systems nowadays is very difficult. In this thesis, we focus on various issues related to the protection of user data on distributed data management systems, whose architectures range from client-server architectures to federations of servers or huge peer-to-peer organizations. Our first contributionis about trust in a system. We propose a metamodel based on first order logic, that allowsto model a system considering entities of the social and digital worlds and their relations. Then we present two approaches that allow users to evaluate trust in systems. In the context of peer-to-peer systems, we propose a data privacy model, and its DHT-based implementation, as well as a framework to measure and improve users’ satisfaction. In the context of the semantic web, in particular the Linked Data, we present two approaches for deducing BGPs of SPARQL queries. Finally, we present a lattice-based model that allows to position licenses in terms of compatibility and compliance.

Keywords: Data privacy, licenses, trust, peer-to-peer systems, Linked Data, federated query processing, usage control

Soutenance d’HDR de Sébastien Bourguignon (équipe SIMS)

Sébastien Bourguignon, Maître de Conférences Centrale Nantes au sein de l’équipe SIMS, soutiendra son Habilitation à Diriger des Recherches, intitulé « Modèles et algorithmes dédiés pour la résolution de problèmes inverses parcimonieux en traitement du signal et de l’image » / « Sparsity-enhancing inverse problems in signal and image processing : models and dedicated algorithms »

jeudi 06 février à 9h30, dans l’amphi du bâtiment S (LS2N) de l’ECN.

Jury :
– Laure Blanc-Féraud, Université Nice Sophia-Antipolis / I3S
– Stéphane Canu, INSA Rouen / LITIS
– Olivier Michel, INP Grenoble / GiPSA-Lab
– Pierre Chainais, Centrale Lille / CRIStAL
– Christine De Mol, Université Libre de Bruxelles
– Nicolas Gillis, Université de Mons
– Jérôme Idier, Centrale Nantes / LS2N

Résumé :

Dans de nombreux problèmes inverses rencontrés en traitement du signal et de l’image, le manque d’information contenue dans les données peut être compensé par la prise en compte d’une contrainte de parcimonie sur la solution recherchée. L’hypothèse de parcimonie suppose que l’objet d’intérêt peut s’exprimer, de manière exacte ou approchée, comme la combinaison linéaire d’un petit nombre d’éléments choisis dans un dictionnaire adapté.
Je présenterai différentes contributions apportées dans la construction de modèles parcimonieux. Dans plusieurs contextes applicatifs, nous cherchons à raffiner les représentations classiques reliant les données aux grandeurs d’intérêt à estimer, afin de les rendre plus fidèles à la réalité des processus observés. Cet enrichissement de modèle, s’il permet d’améliorer la qualité des solutions obtenues, s’opère au détriment d’une augmentation de la complexité calculatoire. Nous proposons donc des solutions algorithmiques dédiées, relevant essentiellement de l’optimisation mathématique.

Un premier volet envisage la restauration de données d’imagerie hyperspectrale en astronomie, où l’observation de champs profonds depuis le sol s’effectue dans des conditions très dégradées. Le débruitage et la déconvolution sont abordés sous une hypothèse de parcimonie des spectres recherchés dans un dictionnaire de formes élémentaires. Des algorithmes d’optimisation capables de gérer la grande dimension des données sont proposés, reposant essentiellement sur l’optimisation de critères pénalisés par la norme l_1, par une approche de type descente par coordonnée.

Une deuxième application concerne la déconvolution parcimonieuse pour le contrôle non destructif par ultrasons. Nous construisons, d’une part, un modèle « à haute résolution », permettant de suréchantillonner la séquence parcimonieuse recherchée par rapport aux données, pour lequel nous adaptons les algorithmes classiques de déconvolution. D’autre part, nous proposons de raffiner le modèle convolutif standard en intégrant des phénomènes de propagation acoustique, débouchant sur un modèle non invariant par translation. Ces travaux sont ensuite étendus à l’imagerie ultrasonore, par la construction de modèles de données adaptés et l’optimisation de critères favorisant la parcimonie.

Nous abordons enfin des travaux plus génériques menés sur l’optimisation globale de critères parcimonieux impliquant la « norme » l_0 (le nombre de coefficients non nuls dans la décomposition recherchée). Alors que l’essentiel des travaux en estimation parcimonieuse privilégie des formulations sous-optimales adaptées aux problèmes de grande taille, nous nous intéressons à la recherche de solutions exactes des problèmes l_0 au moyen d’algorithmes branch-and-bound. De tels modèles parcimonieux, s’ils s’avèrent plus coûteux en temps de calcul, peuvent fournir de meilleures solutions et restent de complexité abordable sur des problèmes de taille modérée. Des applications sont proposées pour la déconvolution de signaux monodimensionnels et pour le démélange spectral.

La présentation de quelques pistes de recherche à court et moyen terme conclura cet exposé.

Lien vers le manuscrit : https://uncloud.univ-nantes.fr/index.php/s/xHm8af2D7dsfpRR

Soutenance d’HDR de Vincent Ricordel (équipe IPI)

Vincent RICORDEL soutiendra son habilitation à diriger des recherches intitulée « Outils et méthodes pour le codage vidéo perceptuel« 
mercredi 22 janvier 2020 à 13h30, dans l’amphithéâtre A1 à Polytech.
Jury :
– Marc Antonini, DR. à l’Université de Nice (rapporteur)
– William Puech, Pr. à l’Université de Montpellier (rapporteur)
– Olivier Déforges, Pr. à l’INSA de Rennes (rapporteur)
– Marco Cagnazzo, Pr. à l’Institut Télécom-Paris (examinateur)
– Luce Morin, Pr. à l’INSA de Rennes (examinatrice)
– Bogdan Cramariuc, Directeur de l’ITCST à Bucarest (examinateur)
– Marc Gelgon, Pr. à l’Université de Nantes (examinateur)
La soutenance sera suivie d’un pot dans le même bâtiment Ireste.
Le mémoire (pas la version finale) est accessible ici : https://uncloud.univ-nantes.fr/index.php/s/RCdgg5XfkGEMjzK
Résumé :
On ne peut que constater combien la technologie vidéo est devenue omniprésente en un peu plus d’une décennie. Si les besoins des nouveaux services vidéo ont été en partie satisfaits par l’efficacité des réseaux et de leurs technologies de couche physique, en parallèle les codecs vidéo ont été primordiaux en offrant compression et nouvelles fonctionnalités. La recherche en codage vidéo se caractérise alors par un fort contexte normatif où le point de compatibilité se fait au niveau du décodage. Les performances de chaque nouveau standard sont remarquables, car typiquement chacun par rapport au précédent, code avec la même qualité objective un format vidéo donné mais en divisant par deux le débit nécessaire. Il est cependant frappant de constater que le paradigme de la couche de codage n’a pas changé depuis l’origine, avec un codec dissymétrique où les décisions sont prises à l’encodage via un schéma hybride intégrant les étapes de prédiction, transformation, quantification et codage entropique. Il est aussi surprenant de constater la persistance de l’implantation dans les codeurs pour la phase d’optimisation débit-distorsion, d’un calcul de distorsion de type erreur quadratique moyenne, alors que l’on sait la corrélation pauvre entre les résultats de cette métrique et le jugement humain.
C’est à ce niveau que se définit l’objectif du codage vidéo perceptuel qui est d’aller vers une représentation de l’information basée sur le contenu perçu et qui puisse servir de paradigme pour un codage basé qualité perceptuelle des contenus des vidéos 2D et 3D. Pour être en phase avec les approches standards, l’objectif devient de guider les choix de codage de façon à aller vers la fidélité perceptuelle sans perte des vidéos décodées. Mes travaux se positionnent donc dans cette recherche des outils et des méthodes où les choix pour améliorer la qualité perceptuelle guident le codage vidéo.
Ma présentation retracera mon itinéraire scientifique au sein des équipes IVC-IRCCyN puis IPI-LS2N qui, du fait des recherche qui y sont conduites sur la modélisation du système visuel humain, ont offert et offrent encore un cadre collaboratif particulièrement propice aux travaux liés au codage vidéo perceptuel.
Mes contributions au codage vidéo perceptuel se sont principalement organisées au sein de projets de recherche visant à contribuer aux efforts faits en normalisation, avec le projet ANR ArchiPEG qui avait pour objectif l’optimisation du codage vidéo HD en flux H.264/AVC, le projet ANR PERSEE qui s’intéressait au codage perceptuel des formats vidéo 2D et 3D via le codec H.264 et son extension MVC, et le projet européen ITN PROVISION qui visait le codage perceptuel via HEVC. Mes contributions ont été produites au travers l’encadrement de thèses (4 soutenues, 1 en cours), et nous verrons que nous avons agi à 2 niveaux de la boucle de codage vidéo hybride.
Une première possibilité est d’améliorer directement des unités de la boucle de codage.
C’est ainsi que nous avons mis en œuvre une transformation directionnelle tenant compte des orientations géométriques au sein de l’image. Nous avons exploité cette représentation de l’information afin de construire des classes de structures, puis adapté la quantification de leur contenu en se basant sur des critères perceptuels.
Nous avons aussi, après avoir défini la notion de textures spatio-temporelles visuelles, proposé un modèle mesurant la similarité entre ces textures visuelles. Ce modèle computationnel basé sur le traitement cortical du SVH, a ensuite été utilisé afin d’améliorer la boucle de codage de HEVC : en identifiant des classes de textures visuelles et en faisant correspondre à la distorsion objective standard calculée par le codeur sa valeur dans le domaine perceptuel.
Une autre approche consiste à mettre en place un schéma de pré-analyse avant encodage afin de piloter ensuite efficacement le codage des régions d’intérêt. La modélisation de l’attention visuelle est donc essentielle au niveau de cette analyse.
Nous avons conçu un schéma de pré-analyse basé sur des tubes spatio-temporels. Cet outil réalise la segmentation et le suivi des objets constitués de tubes connexes, et il leur associe une saillance visuelle. L’ensemble de ces informations est exploitée afin d’assurer un codage cohérent des objets en flux H.264/AVC. Exactement nous avons testé l’adaptation de la structure du GOP, et le guidage de la qualité visuelle.
Nous avons aussi développé le premier modèle computationnel de l’attention visuelle 3D s’appliquant à la visualisation d’images stéréoscopiques. Ce modèle combine deux cartes de saillance visuelle : celle 2D et celle de profondeur. Nous avons utilisé ce modèle afin d’améliorer la qualité d’expérience de visualisation de la TV3D, par ajout d’un flou de défocalisation sur la région ayant moins d’intérêt.
Dans la dernière partie de ma présentation, un bilan et des perspectives sont donnés. Nous nous intéressons en particulier au codage des formats vidéo immersifs représentés par des nuages de points 3D. Nos derniers travaux montrent l’intérêt d’une approche basée quantification vectorielle algébrique et arborescente, permettant de structurer graduellement la géométrie de la scène, et cela en fonction d’un critère débit-distorsion.
Index
ANR Agence Nationale  de la Recherche
AVC   Advanced video Coding
GOP Group of Pictures
HD   Haute Définition
HEVC   High Efficiency Video Coding
IPI Image Perception Interaction
IRCCyN Institut de Recherche en Communications et Cybernétique de Nantes, UMR 6597
ITN Initial Training Network
IVC   Image & Vidéo Communication
LS2N   Laboratoire des Sciences du Numérique de Nantes, UMR 6004
MVC   Multiview Video Coding
SVH   Système V

Soutenance d’HDR de Mathieu LAGRANGE (équipe SIMS)

Mathieu Lagrange, chercheur CNRS au sein de l’équipe SIMS, soutiendra son habilitation à diriger des recherches intitulée « Modélisation long terme de signaux sonores »
jeudi 14 novembre 2019 à 10h15, dans l’amphi du bâtiment S sur le site de Centrale Nantes.

Jury :
– Frédéric Bimbot, Directeur de Recherche CNRS, IRISA, Rennes
– Alain de Cheveigné, Directeur de Recherche CNRS, ENS Paris
– Béatrice Daille, Professeur, LS2N, Nantes
– Patrick Flandrin, Directeur de Recherche CNRS, ENS Lyon
– Stéphane Mallat, Professeur, Collège de France

Document pdf de 79 pages sur Google Drive.

Résumé :
La modélisation numérique du son a permis de transformer tous nos usages de la musique et plus récemment des environnements sonores. Du codage à la synthèse en passant par l’indexation, un large champ d’applications nécessite de pouvoir analyser le signal sonore, un contenu riche et complexe avec des propriétés d’organisation temporelle et fréquentielle spécifiques. En suivant le paradigme de l’analyse de scènes auditives computationnelles, j’ai proposé au début de ma carrière plusieurs méthodes de segmentation du signal sonore, par des approches de suivi de partiels, ou encore de segmentation de sources harmoniques par coupures normalisées de graphes.
L’avènement des approches par apprentissage a permis de relâcher un certain nombre de contraintes de spécification des modèles de traitement, mais demande un soin particulier dans la mise en place du protocole expérimental avec lequel ces modèles sont estimés et évalués. J’ai contribué à cette problématique en poursuivant deux axes : 1) la proposition, dans le cadre du challenge international dcase, de tâches de reconnaissances d’événements dans des scènes sonores environnementales artificielles dont les facteurs de complexité sont contrôlés et 2) l’implantation et la mise à disposition d’explanes, un environnement de développement d’expérimentations dédié à la facilitation de la reproductibilité des études en sciences des données.
Je montrerai le formalisme de ce dernier en présentant deux contributions récentes : l’une portant sur l’utilisation des réseaux convolutionnels profonds pour le sur-échantillonnage et l’autre portant sur la modélisation par diffusion d’ondelettes des modes de jeux étendus pour l’aide à l’orchestration musicale.
Ces nouvelles approches questionnent d’une nouvelle manière des problèmes fondamentaux en traitement du signal sonore et ouvrent un vaste champ d’expérimentation nécessaire à leur bonne maîtrise. Je discuterai en guise de conclusion le protocole d’exploration que je me propose de suivre pour contribuer à l’extension des connaissances sur ces sujets.

Soutenance d’HDR de Thomas LEDOUX

Thomas Ledoux, maître-assistant au sein de l’équipe STACK, soutiendra son Habilitation à Diriger des Recherches (HDR) intitulée « Reconfiguration dynamique d’architectures logicielles : des métaclasses aux « nuages verts »« 

mardi 17 juillet à 11h00,à IMT Atlantique campus de Nantes (amphi G. Besse).

Jury :
Mme Laurence DUCHIEN, Professeur, Université Lille – Sciences et Technologies (Rapporteur)
M. Michel RIVEILL, Professeur, Polytech’Nice Sophia (Rapporteur)
M. Jean-Bernard STEFANI, Directeur de recherche, INRIA Grenoble-Rhône-Alpes (Rapporteur)
M. Pierre COINTE, Professeur, IMT Atlantique (Examinateur)
M. Thierry COUPAYE, VP Recherche Internet des objets, Orange Labs (Examinateur)
M. Rachid GUERRAOUI, Professeur, École polytechnique fédérale de Lausanne (Examinateur)
M. Claude JARD, Professeur, Université de Nantes (Examinateur)

Résumé :

Cette habilitation à diriger des recherches présente une synthèse de mes travaux ayant trait à la reconfiguration dynamique d’architectures logicielles.

En première partie, je propose une analyse de l’adaptation dynamique du logiciel avec la volonté de poser les concepts de base et d’identifier les verrous à lever. Je motive l’intérêt de l’adaptation dynamique et modélise son processus de développement. Je présente un nombre de caractéristiques indispensables à l’adaptation dont la réification et la modularité. Je traite alors l’adaptation dynamique du logiciel comme un objet de première classe introduisant un découplage spatio-temporel entre code métier et logique d’adaptation. L’adaptation dynamique ne pouvant se faire au détriment de la qualité du logiciel et de son intégrité, j’énumère un nombre de propriétés indispensables à respecter, de pistes à étudier pour réaliser à l’exécution ce processus d’adaptation du logiciel.

En deuxième partie, je présente ma contribution à la mise en œuvre de l’adaptation dynamique pour les logiciels à base de composants. Dans un premier temps, je propose un patron d’auto-administration pour les architectures à composants, des langages dédiés pour la navigation et la reconfiguration dans les architectures logicielles Fractal, un framework pour faciliter la création d’applications sensibles au contexte. Dans un second temps, je développe une approche multi-étape pour des reconfigurations dynamiques fiables, qui contient à la fois une partie prévention de fautes basée sur une analyse statique et une partie tolérance aux fautes assurée par un moniteur transactionnel. Cette approche s’appuie sur une spécification des (re)configurations du modèle Fractal basée sur une logique du premier ordre.

En troisième partie, je montre que la reconfiguration dynamique dans les « architectures en nuages » (Cloud computing) peut apporter une réponse à un enjeu sociétal important, à savoir les transitions numérique et énergétique. Contrairement aux travaux actuels qui visent à améliorer l’efficacité énergétique des centres de données en proposant des solutions dans les couches basses du Cloud, je préconise une approche d’éco-élasticité logicielle sur ses couches hautes. En m’inspirant à la fois du concept d’innovation frugale (Jugaad) et du mécanisme d’effacement de la consommation électrique, un certain nombre d’artefacts originaux comme le Cloud SLA, l’effacement de la consommation du logiciel, la virtualisation de l’énergie ou encore le SaaS green energy-aware, sont suggérés pour diminuer l’empreinte carbone des architectures en nuages.

En conclusion, je dresse un bilan final de ma contribution et présente mes perspectives de recherche centrées d’abord sur une généralisation de l’approche précédente à l’aide de méta-modèles, puis sur la conception de micro-services « verts ».

Soutenance d’HDR de Mounira HARZALLAH (équipe DUKe)

Mounira Harzallah soutiendra son Habilitation à Diriger des Recherches, intitulée « Contributions à l’Ingénierie des Connaissances : Construction et validation d’ontologie et mesures sémantiques »
mercredi 13 décembre à 14h, dans l’amphithéâtre 2 du bâtiment IREST de Polytech.

Jury :
Mme Nathalie Aussenac-Gilles, Directrice de recherche, CNRS/IRIT, Univ. Paul Sabatier, Toulouse (Rapporteur)
M. Jean Charlet, Chargé de mission recherche à l’AP-HP & Inserm, Université Pierre et Marie Curie (Rapporteur)
M. Serge Garlatti, Professeur, Institut Mines Télécom (IMT) Atlantique (Rapporteur)
Mme Bénédicte Le Grand, Professeur, Université Paris 1 Panthéon – Sorbonne, Centre de Recherche en Informatique (CRI) (Examinateur)
Mme Pascale Kuntz, Professeur, École Polytechnique de l’Univ. de Nantes (Examinateur)

Résumé :
Les connaissances sont reconnues depuis quelques décennies comme le capital de l’économie immatérielle. Leur ingénierie (extraction, modélisation, capitalisation, exploitation…) est une problématique permanente et omniprésente dans les activités de chacun. Elle a connu plusieurs mutations en s’adaptant au cours du temps à l’évolution des connaissances. Elle a notamment dû prendre en compte une évolution dans le temps des ressources des connaissances (experts, livres, bases de données, réseaux sociaux, tweeters, web des données…), de leurs formes (implicite, explicite, structurée, semi ou non structurée), de leurs utilisateurs (organisation, apprenant, utilisateur du web…), des supports de leur utilisation (livres, bases de données, systèmes experts, systèmes à bases de connaissances, applications du web sémantique…), du volume et de la vitesse de multiplication de leurs ressources, des techniques de leur extraction, des langages de leur représentation…
Dans ces différentes évolutions, l’ontologie a été reconnue comme une représentation sémantique pertinente d’une conceptualisation explicite et formelle d’un domaine. Dans la communauté de l’ingénierie des connaissances, l’aspect formel des ontologies et la possibilité de raisonner avec elles et de les réutiliser, ont conduit de nombreux chercheurs à s’y intéresser et à les utiliser dans plusieurs applications. Au passage à l’échelle, le challenge de leur utilisation dans des projets réels s’est vu confronté à plusieurs obstacles, par exemple : (1) des méthodes de construction peu opérationnelles et non adaptées à la construction d’ontologies larges ; (2) des méthodes de validation plutôt adaptées à certains problèmes logiques ; (3) la difficulté de bien choisir une ontologie pour une application, parce que cette ontologie devrait bien couvrir le domaine de cette application et prendre en compte ses évolutions, et parce qu’il faut y appliquer une mesure sémantique adéquate dont les résultats devraient être et rester proches du jugement humain, même si cette ontologie évolue. Dans le web des données, on s’est focalisé sur les techniques de fouille de données, d’apprentissage automatique, etc., pour gérer les paramètres de volume des données, de la vitesse de leur changement, de leur véracité… tout en oubliant le paramètre de leur hétérogénéité sémantique.
Je me suis intéressée depuis plus de 15 ans, aux problématiques liées aux ontologies, à leur construction, à leur validation et à leur exploitation, en ingénierie des connaissances. Mes contributions à ce domaine sont principalement des modèles sémantiques, des cadres ou des méthodes dont certaines utilisent des techniques de raisonnement logique, de fouille de données ou de traitement automatique de langues. Elles s’organisent autour de 3 axes. Le premier axe porte sur l’ingénierie des compétences et son articulation à l’ingénierie des connaissances. Mes deux contributions majeures dans cet axe sont : (1) des modèles de connaissances (i.e. une ontologie noyau des compétences basée sur le modèle CRAI (Comptency Resource Aspect Individual) conçu dans mes travaux de thèse et le modèle CKIM (Competency and Knowledge Integrated Model) pour une représentation intégrée des compétences et connaissances) et (2) une architecture intégrante pour l’ingénierie des compétences. Cette architecture se base sur une
modélisation ontologique et fine des compétences permettant d’intégrer la réalisation des différents processus d’ingénierie des compétences. En plus, elle permet de répertorier des
techniques d’ingénierie des connaissances et les ressources associées pour l’extraction des compétences. Cette architecture pourrait s’étendre à une architecture intégrante pour l’ingénierie des connaissances et porter sur tout type de processus d’une organisation qui requière des connaissances. D’autres types de données (e.g. données structurées, traces) et de techniques pourraient être rajoutés à cette architecture. Cette architecture a orienté mes travaux de recherche vers les deux autres axes : l’axe 2 qui porte sur les méthodes et techniques d’ingénierie des connaissances pour la conceptualisation et la validation d’ontologie, l’ontologie et les méthodes et techniques d’ingénierie des connaissances étant deux composants principaux de cette architecture ; l’axe 3 porte sur les mesures sémantiques de comparaison d’objets, une mesure sémantique étant une technique de cette architecture, appliquée à une ontologie pour aider à accomplir certains processus d’une organisation. Plus précisément, dans l’axe 2, j’ai traité des approches et outils de conceptualisation semi-automatique d’ontologie et j’ai proposé un cadre pour les comparer. J’ai traité également l’étape de validation d’ontologie, considérée dans mes travaux comme un processus qui devrait se réaliser en parallèle avec la conceptualisation. En outre, à partir de mon expérience en construction d’ontologie dans différents projets, il m’a semblé évident le rôle clé qu’une ontologie noyau pourrait jouer dans ces deux processus (i.e. la conceptualisation et la validation). J’ai donc proposé deux approches de validation d’ontologie dans lesquelles j’ai cherché, d’une part, à coupler la validation à la conceptualisation, et d’autre part à leur intégrer des contraintes générées à partir d’une ontologie noyau formelle. La première approche est basée sur l’identification des problèmes pouvant nuire à la qualité d’une ontologie. J’ai proposé une nouvelle typologie évolutive de ces problèmes ; une liste de dépendances de vérification et correction des problèmes pour optimiser le processus de validation ; des anti-patrons partiels pour l’aide à l’identification des problèmes de « Contradiction sociale »; et une méthode, utilisant des règles inductives, pour l’aide à la correction du problème « Ontologie Plate ». La deuxième approche de validation est appliquée à une ontologie pour l’annotation. Elle utilise des règles générées du méta-modèle d’annotation et/ou d’une ontologie noyau pour guider l’annotation d’un objet avec cette ontologie, enrichir cette ontologie si nécessaire et valider ces deux tâches. Ces deux approches pourraient se fusionner et s’étendre vers une approche semi-automatique de construction et validation intégrées d’ontologie, basée sur une ontologie noyau formelle. Dans l’axe 3, j’ai proposé un cadre unifiant pour la définition de trois familles de mesures
sémantique de comparaison d’objets selon leur annotation par une ontologie. Chaque famille de mesure se distingue par le type d’annotation pris en compte dedans : un objet peut être annoté par un concept unique, un ensemble de concepts ou un graphe sémantique d’une ontologie. Ce cadre unifiant se caractérise par l’utilisation d’une approche similaire pour l’approximation du contenu informationnel apporté par chaque type d’annotation, le contenu informationnel étant un élément principal et commun à la définition de ces trois familles de mesures. Par ailleurs, ce cadre unifiant aide aussi à analyser les résultats des mesures et à choisir une mesure adéquate pour une ontologie et une application données.
Dans mon mémoire de HDR, je présente ces différentes contributions, en les positionnant par rapport à l’évolution des connaissances et par rapport à des travaux connexes de l’état de l’art. Je discute en conclusion la pertinence de mes travaux par rapport aux challenges du web des données et je présente mon projet de recherche et des perspectives liées à ce challenge.

Soutenance d’HDR de Sophie SAKKA (équipe ReV)

Sophie Sakka soutiendra son Habilitation à Diriger des Recherches intitulée « Imitation des mouvements humains par un robot humanoïde sous contrainte d’équilibre« , mardi 5 décembre à 10h30, dans l’amphi du bât. S, à Centrale Nantes.

Jury : Philippe SOUERES (Directeur de Recherche CNRS, LAAS), Philippe FRAISSE (Professeur des Universités, LIRMM, Université de Montpellier 2), Olivier BRUNEAU (Professeur des Universités, LURPA, Université Paris-Sud), Franck MULTON (Professeur des Universités, MimeTIC, Université Rennes 2), Damien CHABLAT (Directeur de Recherche CNRS, LS2N).

Soutenance d’HDR de Charlotte TRUCHET (équipe TASC)

Charlotte Truchet soutiendra son Habilitation à Diriger des Recherches, intitulée « Vers une programmation par contraintes moins contrainte, outils venant de l’Interprétation Abstraite et de l’Analyse en Moyenne pour définir des solveurs plus expressifs et faciles à utiliser »

jeudi 30 novembre 2017 à 10h, sur le site de la FST.

Jury : Nadia Creignou (Aix-Marseille Université – rapporteure), Christian Schulte (KTH, Suède – rapporteur), Pascal Van Hentenryck (University of Michigan, USA – rapporteur), Gérard Assayag (IRCAM), Frédéric Benhamou (Université de Nantes), Eric Goubault (Ecole Polytechnique), Thomas Jensen (INRIA), Brigitte Vallée (CNRS).

Le manuscrit est disponible en ligne (lien pdf).

Soutenance d’HDR de Sébastien GARNIER (équipe RoMaS)

Sébastien Garnier (équipe RoMaS) soutiendra son habilitation à diriger des recherches en « Génie mécanique, Productique et Transport » de la section CNU 60

mercredi 29 novembre à 10h30 à l’IUT.

Titre : Identification et modélisation pour le développement de la surveillance d’usinage et de la robotique de production

Jury : Olivier CAHUC (Professeur d’Université, Université de Bordeaux), Henri PARIS (Professeur d’Université, Université de Grenoble), Gabriel ABBA, Professeur d’Université, Ecole National d’ingénieur de Metz), Pascal RAY, Professeur d’Université (Ecole des Mines de Saint-Etienne), Laurent SABOURIN (Maître de conférences, HDR, SIGMA à Clermont-Ferrand), Stéphane CARO (Chargé de recherche CNRS, HDR, Ecole Centrale de Nantes), Benoît FURET (Professeur d’Université, Université de Nantes).

Résumé :
Ce manuscrit présente des travaux portant sur la fabrication. L’approche choisie est ascendante. On observe les grandeurs physiques liées à la fabrication, on les modélise, pour enfin optimiser l’exploitation du moyen.
Deux grands thèmes sont abordés dans le document. Le premier concerne le fraisage sur machine rigide, le second, le parachèvement sur machine souple.
Au cours du premier thème, la modélisation du fraisage est décrite et deux applications à la surveillance d’usinage sont proposées : la surveillance de l’usure et celle du bris d’outil. Dans les deux cas, la notion d’état de l’outil est exploitée. Deux autres applications sont détaillées : la première concerne le pilotage en puissance du fraisage(UGV), la seconde l’usinage du composite avec des outils à concrétions diamantées pour laquelle la modélisation est intégralement revue.
Le deuxième thème concerne l’utilisation de moyens robotisés pour le parachèvement de pièce, et plus particulièrement les robots anthropomorphes. Après une mise en évidence des lacunes de ces derniers, une modélisation est choisie, et différents protocoles d’identifications des paramètres sont détaillés. L’exploitation de ces modèles peut alors être utilisée. Pour mettre en évidence les couplages qui existent entre le moyen et le procédé. Différentes propositions sont faites et mises en œuvre afin de parvenir à assurer la juste qualité des productions à réaliser.

Mots-clés : Fraisage, surveillance d’usinage, composite, robotique, flexibilité articulaire

Abstract:
This document contains research work within a general manufacturing context. Our approach is based on the analysis of signals. We observe the physical parameters related to manufacturing, model them to finally optimize the parameters of the process.Two major themes are addressed in the manuscript. The first concerns the milling on a rigid machine. The second is the manufacture on a flexiblemachine.
In the first theme, milling modelling is described and two applications of the machining monitoring are proposed: wear monitoring and tool breakage monitoring. In both cases, the notion of tool state is exploited. Two other applications are also detailed: the first concerns the control of the high speed machining power, and the second one is the composites machining with concretion tools for which the modelling is fundamentally revised.
The second theme concerns the robotic manufacturing, and more particularly anthropomorphic robots. After highlighting the robot weaknesses, a model is chosen, and different identification parameters protocols are detailed. The exploitation of these models can be used to highlight the couplings that exist between the robot and the process. Different proposals are made and implemented to ensure the quality of the productions to be produced.

Keywords: Milling, monitoring manufactured, CFRP, robotic, join stiffness

 

Soutenance HDR de Hala SKAF-MOLLI

Hala Skaf (équipe GDD) présentera ses travaux de recherche en vue de l’obtention de l’Habilitation à Diriger des Recherches intitulée
« Gestion décentralisée de données du web sémantique »
vendredi 6 octobre à 14h dans l’amphithéâtre du bâtiment 34 (FST).

Jury :
– Bernd Amann, Professeur à l’Université de Pierre et Marie Curie (Paris 6), Rapporteur
– Fabien Gandon, Directeur de recherche INRIA Sophia-Antipolis Mediterranée, Rapporteur
– Philippe Lamarre, Professeur à l’INSA Lyon, Rapporteur
– Maria Esther-Vidal, Professeur à Université de Simon Bolivar Venezuela et Fraunhofer IAIS, Germany, Examinatrice
– Pascale Kuntz, Professeur à l’Université de Nantes, Examinatrice
– Abdelkader Hameurlain, Professor à l’Université de Paul Sabatier, Toulouse, Examinateur
– François Charoy, Professor à TELECOM Nancy – Université de Lorraine, Examinateur

Résumé :
Le web sémantique est une extension du web où l’information a une signification précise.
Aujourd’hui, des milliers de jeux de données sont accessibles simplement sur le web. Ces jeux de données respectent des standards du web sémantique permettant leur interrogations à travers le langage de requêtes SPARQL. Cependant, des problèmes importants liés à la production et la consommation des données liées restent ouverts : la qualité des données, l’accès au web profond et la disponibilité des données. Pour assurer la qualité de données, nous proposons de transformer le web de données vers un web de données en lecture/écriture. Ainsi, un consommateur de données est à même de corriger une erreur. Autoriser les écritures sur le web sémantique pose le problème de cohérence de données. Cette transformation nécessite la définition des algorithmes de synchronisation adaptés au modèle de données RDF et au langage SPARQL 1.1 Update.
Pour assurer l’accès au web profond, nous proposons une approche médiateur permettant de combiner données sémantique et données du web profond. Le problème est alors d’améliorer les performances des requêtes en présence de nombreuses sources de données. Enfin, pour assurer la disponibilité des données, nous proposons un modèle de réplication pour le web de données. Le problème est alors d’optimiser l’exécution des requêtes fédérées en présence de réplicas découverts au moment de l’exécution des requêtes.

Abstract:
The semantic web is an extension of the web where information has a precise meaning.
Today, thousands of datasets are available on the web. These datasets respect semantic web standards, therefore, they can queried allowing through the SPARQL query language. However, important problems related to the production and consumption of linked data remain open: data quality, deep web access, and data availability. To ensure the quality of data, we propose to transform the web of data into a read/write web of data. Consequently, a data consumer is able to correct an error. Allowing consumers to write the semantic data poses the problem of data consistency. This transformation requires the definition of synchronization algorithms adapted to the RDF data model and to SPARQL 1.1 Update language.To ensure access to the deep web, we propose a mediator approach allowing to combine semantic data and deep web data. The problem is then to improve the performance of queries in the presence of a large number of data sources. Finally, to ensure the availability of data, we propose a replication model for the web of data. The problem is to optimize the execution of federated SPARQL queries in the presence of replicas discovered at queries execution time.

Copyright : LS2N 2017 - Mentions Légales - 
 -