Home » HDRs

HDRs 2017



  Mounira Harzallah, Contributions à l’Ingénierie des Connaissances : Construction et Validation d’Ontologie et Mesures Sémantique
Contributions à l’Ingénierie des Connaissances : Construction et Validation d’Ontologie et Mesures Sémantique
Author : Mounira Harzallah
Document :


Keywords : ExploitationOntologyCapitalizationSemantic measuresModelingExtraction
Abstract

L’ingénierie des connaissances (extraction, modélisation, capitalisation, exploitation...) a connu plusieurs mutations en s’adaptant au cours du temps à l’évolution des connaissances. Elle a notamment dû prendre en compte une évolution dans le temps des ressources des connaissances (experts, livres, bases de données, réseaux sociaux, tweeters, web des données...), de leurs formes (implicite, explicite, structurée, semi ou non structurée), de leurs utilisateurs (organisation, apprenant, utilisateur du web...), des supports de leur utilisation (livres, bases de données, systèmes à bases de connaissances, applications du web sémantique...), du volume et de la vitesse de multiplication de leurs ressources, des techniques de leur extraction, des langages de leur représentation... Dans ces différentes évolutions, l’ontologie a été reconnue comme une représentation sémantique pertinente des connaissances. Je me suis intéressée depuis plus de 13 ans, aux problématiques liées aux ontologies, à leur construction, à leur validation et à leur exploitation, en ingénierie des connaissances. Mes contributions à ce domaine s’organisent autour de 3 axes. Le premier porte sur l’ingénierie des compétences et son articulation à l’ingénierie des connaissances, avec deux contributions majeures : (1) des modèles de connaissances (i.e. une ontologie noyau des compétences basée sur le modèle CRAI (Comptency Resource Aspect Individual) et le modèle CKIM (Competency and Knowledge Integrated Model) pour une représentation intégrée des compétences et connaissances) et (2) une architecture intégrante pour l’ingénierie des compétences. Cette architecture se base sur une modélisation ontologique et fine des compétences et permet de répertorier des techniques d’ingénierie des connaissances et les ressources associées pour l’extraction et la gestion des compétences. Elle a orienté mes travaux de recherche vers deux autres axes : l’axe 2 porte sur les méthodes et techniques d’ingénierie des connaissances pour la conceptualisation et la validation d’ontologie ; l’axe 3 porte sur les mesures sémantiques de comparaison d’objets, une mesure sémantique étant une technique de cette architecture, appliquée à une ontologie pour aider à accomplir certains processus d’une organisation. Dans l’axe 2, j’ai proposé un cadre pour comparer des approches et outils de conceptualisation semi-automatique d’ontologie. J’ai développé deux approches de validation d’ontologie dans lesquelles j’ai cherché, d’une part, à coupler la validation à la conceptualisation, et d’autre part à leur intégrer des contraintes générées à partir d’une ontologie noyau formelle. La première approche est basée sur l’identification des problèmes pouvant nuire à la qualité d’une ontologie. La deuxième approche utilise des règles générées du méta-modèle d’annotation et/ou d’une ontologie noyau pour guider l’annotation d’un objet avec cette ontologie, enrichir cette ontologie et valider ces deux tâches. Ces deux approches pourraient se fusionner et s’étendre vers une approche semi-automatique de construction et validation intégrées d’ontologie, basée sur une ontologie noyau formelle. Dans l’axe 3, j’ai proposé un cadre unifiant pour la définition de trois familles de mesures sémantiques de comparaison d’objets selon leur annotation par une ontologie : un objet peut être annoté par un concept unique, un ensemble de concepts ou un graphe sémantique d’une ontologie. En plus, ce cadre aide à analyser les résultats des mesures et à choisir une mesure adéquate pour une ontologie et une application données. Il se caractérise par l’utilisation d’une approche similaire pour l’approximation du contenu informationnel apporté par chaque type d’annotation, le contenu informationnel étant un élément principal et commun à la définition de ces trois familles de mesures.. Dans ce mémoire de HDR, je présente ces différentes contributions, en les positionnant par rapport à l’évolution des connaissances et par rapport à des travaux connexes de l’état de l’art. Je discute en conclusion la pertinence de mes travaux par rapport au challenge des masses de données et je présente mon projet de recherche et des perspectives liées à ce challenge.


Defense date : 13-12-2017
Jury president : Mme Bénédicte Le Grand, Professeur, Université Paris 1 Panthéon - Sorbonne, Centre de Recherche en Informatique (CRI) [Examinateur]
Jury :
  • Mme Nathalie Aussenac-Gilles, Directrice de recherche, CNRS/IRIT, Univ. Paul Sabatier, Toulouse [Rapporteur]
  • M. Jean Charlet, Chargé de mission recherche à l’AP-HP & Inserm, Université Pierre et Marie Curie [Rapporteur]
  • M. Serge Garlatti, Professeur, Institut Mines Télécom (IMT) Atlantique [Rapporteur]
  • Mme Bénédicte Le Grand, Professeur, Université Paris 1 Panthéon - Sorbonne, Centre de Recherche en Informatique (CRI) [Examinateur]
  • Mme Pascale Kuntz, Professeur, École Polytechnique de l’Univ. de Nantes [Examinateur]

  Florent Laroche, KLM for Heritage
KLM for Heritage
Towards a humanization of industry by Heritage Knowledge Or How to consider heritage as a pillar of knowledge to build a sustainable future.
Author : Florent Laroche
Document :


Keywords : HeritageKnowledgeMuseumMuseologyVirtual realityInterdisciplinaryDigital
Abstract

Why do we have to reinvent the wheel? The goal of our research is to translate the knowledge of the past into contemporary knowledge that are readable and understandable in today's sociotechnical system. The discipline of Advanced Industrial Archaeology is based on Knowledge Life Cycle Management by and for Heritage: "KLM for heritage". Tools of engineering sciences are used to the profit of the heritage and, by reciprocity, results will enrich industrial approaches thanks to old intangible knowledge. These scientific works contribute to Digital Humanities domain by establishing a global interdisciplinary process for heritage knowledge associated to anthropocentric tools. This scientific report done for the "Directing Research Habilitation" traces more than 17 years of this interdisciplinary scientific theme. To move forward, everything has to be invented: new approaches for disseminating knowledge, new learning pedagogies, new structuration of knowledge integrating context, time ... new tools for digitizing our know-how, new professions for transdisciplinary projects ... the project is vast.


Defense date : 08-12-2017
Jury president : Lionel ROUCOULES, Professeur des Universités, Arts et Métiers ParisTech (section CNU 61)
Jury :
  • Emmanuel CAILLAUD, Professeur des Universités, Université de Strasbourg (section CNU 60) [rapporteur]
  • Livio DE LUCA, Directeur de recherche, laboratoire MAP, CNRS Marseille (section CNU 27) [rapporteur]
  • Pierre LAMARD, Professeur des Universités, Université de technologie de Belfort-Montbéliard (section CNU 72) [rapporteur]
  • Nada MATTA, Professeur des universités, Université des Technologie de Troyes (section CNU 27) [examinateur]
  • Alain BERNARD, Professeur des Universités, Ecole Centrale de Nantes (section CNU 60) [examinateur]
  • Benoit FURET, Professeur des Universités, Université de Nantes (section CNU 60) [examinateur]
Annexes :
Video :

  Sophie Sakka, Imitation of human motion using a humanoid robot with balance constraints
Imitation of human motion using a humanoid robot with balance constraints
Author : Sophie Sakka
Document :


Keywords : BalanceHuman motionRealtimeDynamics modelsHumanoid robotsMotion imitation
Abstract

Domaines de recherche : 1. Dynamique des mouvements humains (biomécanique) / humanoïdes (robotique) 2. Imitation temps réel ou différé de mouvements humains par un robot humanoïde 3. Insertion des robots dans la société humaine (applications sociales et thérapeutiques)


Defense date : 05-12-2017
Jury president : Franck Multon
Jury :
  • M. Olivier BRUNEAU, Professeur Université Paris- Sud [rapporteur]
  • M. Philippe FRAISSE, Professeur Université Montpellier2 [rapporteur]
  • M. Philippe SOUERES, Directeur de Recherche CNRS [rapporteur]
  • M. Damien CHABLAT, Directeur de Recherche CNRS [examinateur]
  • M. Franck MULTON, Professeur Université Rennes 2 [examinateur]
  • Mme. Agnès ROBY-BRAMI, Directrice de Recherche INSERM [examinatrice]

  Sébastien Garnier, Identification et modélisation pour le développement de la surveillance d'usinage et de la robotique de production
Identification et modélisation pour le développement de la surveillance d'usinage et de la robotique de production
Author : Sébastien Garnier
Document :


Keywords : Join stiffnessCFRPMillingMonitoring manufacturedRobotic
Abstract

This document contains research work within a general manufacturing context. Our approach is based on the analysis of signals. We observe the physical parameters related to manufacturing, model them to finally optimize the parameters of the process.Two major themes are addressed in the manuscript. The first concerns the milling on a rigid machine. The second is the manufacture on a flexiblemachine. In the first theme, milling modelling is described and two applications of the machining monitoring are proposed: wear monitoring and tool breakage monitoring. In both cases, the notion of tool state is exploited. Two other applications are also detailed: the first concerns the control of the high speed machining power, and the second one is the composites machining with concretion tools for which the modelling is fundamentally revised. The second theme concerns the robotic manufacturing, and more particularly anthropomorphic robots. After highlighting the robot weaknesses, a model is chosen, and different identification parameters protocols are detailed. The exploitation of these models can be used to highlight the couplings that exist between the robot and the process. Different proposals are made and implemented to ensure the quality of the productions to be produced.


Defense date : 29-11-2017
Jury president : Benoît FURET , Professeur d‘Université, Université de Nantes [rapporteur]
Jury :
  • Olivier CAHUC, Professeur d‘Université, Université de bordeaux [rapporteur]
  • Henri PARIS, Professeur d‘Université, Université de Grenoble [rapporteur]
  • Gabriel ABBA, Professeur d‘Université, Ecole National d‘ingénieur de Metz [rapporteur]
  • Pascal RAY, Professeur d‘Université, Ecole des Mines de Saint Etienne [examinateur]
  • Laurent SABOURIN , Maître de conférences, HDR, SIGMA à Clermont - Ferrand [examinateur]
  • Stéphane CARO, Chargé de recherche CNRS, HDR, Ecole Centrale de Nantes [examinateur]

  Hala Skaf-Molli, Decentralized Data Management for the Semantic Web
Decentralized Data Management for the Semantic Web
Author : Hala Skaf-Molli
Document :


Keywords : Federated SPARQL queriesConsistencyLinked Data
Abstract

The semantic web is an extension of the web where information has a precise meaning. Thousands of linked datasets are available on the web. Important problems concerning quality, deep web access and availability still unsolved. For data quality, we propose to transform the web of data into a read/write web of data. A data consumer will able to correct an error. Allowing consumers to write the semantic web poses the problem of data consistency. We define synchronization algorithms for RDF data model. To access to the deep web, we propose a mediator approach allowing to combine semantic data and deep web data. The problem is to improve the performance of queries in the presence of a large number of data sources. Finally, to ensure the availability, we propose a replication model for the web of data. The problem is to optimize federated SPARQL queries in the presence of replicas selected at queries execution time.


Defense date : 06-10-2017
Jury president : Pascale Kuntz, Giuseppe Berio(pascale.kuntz@univ-nantes.fr)
Jury :
  • M. Bernd AMANN, Professor, University of Pierre et Marie Curie (Paris 6) [rapporteur]
  • M. Fabien Gandon, Director de recherche, INRIA Sophia-Antipolis Mediterranée [rapporteur]
  • M. Philippe LAMARRE, Professor, INSA Lyon [rapporteur]
  • M. Abdelkader HAMEURLAIN, Professor, University of Paul Sabatier, Toulouse [examinateur]
  • Mme Maria ESTHER -VIDAL, Professor, University of Simón Bolívar Venezuela and Fraunhofer IAIS, Germany [examinatrice]
  • M. François CHAROY, Professor, TELECOM Nancy-Université de Lorraine [examinateur]

  Naly Rakoto-Ravalontsalama, Control of Hybrid Systems and Discrete-Event Systems
Control of Hybrid Systems and Discrete-Event Systems
Author : Naly Rakoto-Ravalontsalama
Document :


Keywords : Switched systemsSupervisory control
Abstract

Cette Thèse d’Habilitation à Diriger des Recherches (HDR) est effectuée dans le cadre de l’Automatique en général. Elle comporte trois parties distinctes. La première partie concerne la commande des systèmes hybrides et systèmes à commutations (switched systems). La deuxième partie est consacrée à la commande supervisée (supervisory control) des systèmes à événements discrets (discrete-event systems). Enfin les perspectives de recherche sont données dans la troisième et dernière partie. La commande des systèmes hybrides et à commutations traite de la modélisation MLD (Mixed Logical Dynamical Systems) introduite par A. Bemporad et M. Morari (1999). Les systèmes à commutations étant décrits naturellement par un modèle PWA (piecewise affine, affine par morceaux), l’approche MLD est une modélisation alternative. Nous proposons des algorithmes de conversion de PWA vers MLD et vice-versa qui donnent des meilleurs résultats, notamment en temps de simulation. La stabilité d’un système non linéaire à commutations est étudiée en utilisant une approche polynomiale, qui permet de reformuler le système initial en un système continu polynomial, permettant ainsi de prouver sa stabilité Enfin la commande optimale est appliquée aux deux types de systèmes commutés : le cas linéaire et celui non linéaire sont traités par reformulation du système en système polynomial continu, permettant d’utiliser la théorie des moments, qui rend les problèmes de commande optimale plus faciles à résoudre. La deuxième partie concerne les systèmes à événements discrets. Elle a débuté avec la commande supervisée de la cellule flexible de l’EMN, composée d’un convoyeur central et de plusieurs stations robotisées (ISIC 2003, LSS 2004). Ensuite influencé par le thème de recherche des systèmes hybrides et systèmes à commutations (switched systems) venant de l’Automatique continue, nos travaux se sont orientés vers une tentative de définition formelle des SED à commutations (switched DES, MTNS 2006). Toujours dans cette voie, nous avons proposé une définition de systèmes “switched non blocking » (MSR 2013), pour arriver à des systèmes avec plusieurs langages pouvant commuter (switchable languages), suivant le modèle de (Kumar, Takai, Fabian et Ushio, 2005). La troisième et dernière partie est consacrée aux perspectives de recherche. La première perspective concerne la commande optimale de “smart grids”, en exploitant la topologie de commutations (switched topology) dans de tels systèmes. La deuxième perspective traite de la simulation et l’optimisation de systèmes logistiques (le système de tri de bagages Air France à l’Aéroport de Paris-CDG) à l’aide de réseaux de Petri.


Defense date : 06-09-2017
Jury president : Claude Jard, Professor, University of Nantes - LS2N [examinateur]
Jury :
  • Didier Henrion, Research Director, LAAS-CNRS Toulouse [Rapporteur]
  • Daniel Liberzon, Professor, University of Illinois at Urbana-Champaign, USA [Rapporteur]
  • Eric Niel, Professor, INSA Lyon - Ampère [Rapporteur]
  • Alexandre Dolgui [examinateur]
  • Claude Jard, Professor, University of Nantes - LS2N [examinateur]
  • Stephane Lafortune, Professor, University of Michigan, Ann Arbor, USA [examinateur]
  • Jean-Jacques Loiseau, Research Director, CNRS - LS2N [examinateur]

  Adrien Lebre, Contributions to Large-scale Distributed Systems The infrastructure Viewpoint - Toward Fog and Edge Computing as The Next Utility Computing Paradigm?
Contributions to Large-scale Distributed Systems The infrastructure Viewpoint - Toward Fog and Edge Computing as The Next Utility Computing Paradigm?
Author : Adrien Lebre
Document :


Keywords : Virtual Machines Placement ChallengesVirtualizationFog/Edge Computing
Abstract

Afin de satisfaire la demande croissante de calcul et de stockage, les systèmes informatiques n’ont cessé d’évoluer. Des super-ordinateurs (« mainframes ») à l’avènement des infrastructures actuelles dites d’informatique en nuage, les évolutions ont été rythmées par les avancées technologiques réalisées depuis les années 1960 dans le domaine de la conception des ordinateurs bien évidemment mais également dans celui des communications. En effet, parce qu’ils permettent de fournir des capacités au delà de celles pouvant être délivrées par une unique machine, les systèmes informatiques ont évolué dès les années 1990 vers un modèle d’infrastructure distribuée reposant sur une interconnexion de plusieurs machines distinctes. Cependant, de part leur complexité d’administration et d’utilisation, il a fallut attendre près de vingt ans d’activités de recherche et de transferts technologiques pour démocratiser ces infrastructures aussi bien dans les domaines scientifiques qu’industriels. Parmi les technologies qui ont permis cette adoption massive des infrastructures distribuées, les technologies de virtualisation système ont joué un rôle clé. La virtualisation système peut être vue comme une couche d’abstraction entre le matériel et les logiciels applicatifs. Cette abstraction permet une division des ressources physiques proposées par une machine en plusieurs éléments « virtuels ». Chacun de ces éléments peut être affecté à la volée à chacune des applications en fonction de leurs besoins, offrant ainsi une plus grande flexibilité dans la gestion des ressources disponibles. Parmi les abstractions disponibles, la machine virtuelle est probablement la plus connue. Une machine virtuelle fournit une vision abstraite d’une machine physique avec sa propre pile logicielle ( i.e., un système d’exploitation, des bibliothèques et les applicatifs à exécuter). Cette vision plus ou moins réduite des ressources disponibles est rendue possible grâce à un hyperviseur déployé sur la machine physique. Un hyper- viseur peut être vue comme un système d’exploitation traditionnel qui exécute des machines virtuelles en place des processus usuels. En d’autres termes, il est en charge de superviser et d’exécuter l’ensemble des machines virtuelles qui sont présentes sur la machine physique. L’utilisation des machines virtuelles offre plusieurs avantages du point de vue des utilisateurs. Tout d’abord, elle permet de configurer la totalité de la pile logicielle présente dans la machine virtuelle et de sauvegarder cette pile logicielle de manière pérenne. Ce mécanisme permet de redémarrer cet environnement « virtualisé » à chaque fois que nécessaire sans se préoccuper de l’endroit où la ma- chine virtuelle sera démarrée. De plus, en s’appuyant sur la granularité offerte par la machine virtuelle pour développer les applications (en particulier des applications n tiers), il est possible d’adapter le nombre de machines virtuelles de manière à satisfaire la qualité de service attendue. Le terme d’élasticité est souvent employé pour décrire ce phénomène d’adaptation. Enfin, l’utilisation des machines virtuelles offre une isolation plus forte entre les différents services qui sont exécutés simultanément sur une même machine physique. En effet, l’hyperviseur doit assurer qu’une machine virtuelle ne puisse en aucun cas accéder aux ressources affectées aux autres machines virtuelles co-localisées sur la même machine physique. Bien que les technologies de virtualisation aient joué un rôle important dans l’adoption quasi-unanime aujourd’hui du modèle d’informatique en nuage, notamment sur les solutions « Infrastructure-as-a-Service » (IaaS), elles ont également conduit à de nouveau défis scientifiques et techniques, notamment sur les aspects qui ont trait à la gestion des ressources offertes par l’infrastructure (c.-à-d. l’ensemble des serveurs de calcul, de stockage et des liens réseau) ou encore à la gestion du cycle de vie des machines virtuelles (création, mise en pause, redémarrage et migration) au travers cette même infrastructure. Dans ce manuscrit je présente une synthèse des principaux travaux que j’ai réalisés autour ces problématiques depuis mon arrivée en 2008 dans l’équipe ASCOLA. Plus précisément, je me concentre sur trois axes dans lesquels j’ai réalisés diverses contributions. Le premier axe aborde la problématique du placement dynamique des machines virtuelles. Le second traite de la mise en place d’abstractions et de modèles exactes permettant l’étude via simulation des défis relatifs à la gestion et l’utilisation de machines virtuelles dans une infrastructure distribuée à large-échelle. Enfin, le troisième et dernier axe décrit une nouvelle génération d’infrastructure visant à corriger les problèmes intrinsèques au modèle d’informatique en nuage reposant sur un nombre limité de centres de données à large échelle. Cet autour de cet axe et des perspectives que je souhaite y donner pour les prochaines années que je conclus ce document.


Defense date : 01-09-2017
Jury president : M. Claude Jard, Professor in Computer Science at University of Nantes ; Head of Nantes Digital Science Laboratory (LS2N)
Jury :
  • M. Erik Elmroth, Professor in Computing Science at Umea University, Sweden ; Head of Umea University research on distributed systems. [rapporteur]
  • M. Manish Parashar, Distinguished Professor of Computer Science at Rutgers University, USA ; Director of the Rutgers Discovery Informatics Institute (RDI2) [rapporteur]
  • M. Pierre Sens, Professor at the University of Pierre et Marie Curie (Paris 6), France ; Head of the REGAL Resarch Group [rapporteur]
  • M. Frédéric Desprez, Senior Researcher at Inria Deputy ; Scientific Director at Inria [examinateur]

  Isabelle Milleville-Pennel, Apports et limites de la Réalité Virtuelle pour la mise en contexte de l’humain : Évaluation, Collaboration et Apprentissage
Apports et limites de la Réalité Virtuelle pour la mise en contexte de l’humain : Évaluation, Collaboration et Apprentissage
Author : Isabelle Milleville-Pennel
Document :


Keywords : Virtual reality
Abstract

Au cours des dernières décennies la Réalité Virtuelle (RV) est devenue un outil prisé et parfois incontournable tant pour le grand public que pour de nombreux secteurs professionnels (recherche académique, construction automobile ou naval, etc.). Avec l’utilisation accrue de cette technologie émerge de multiples questionnements d’ordre technique, sociétal et éthique. A travers la synthèse des activités de recherche que j’ai pu mener jusqu’à présent, mon objectif est d’apporter des éclairages à ces différents questionnements en montrant ce qui est faisable à l’heure actuelle en essayant de sortir du fantasme pour montrer la réalité de cette technologie. Ce document de synthèse comprend 5 parties. Dans la première partie, la question de la validité écologique et des limites de la réalité virtuelle est abordée à travers un exemple précis ; les environnements virtuels de conduite automobile. Je m’attacherai tout d’abord à définir ce qu’est la validité d’un EV et de quelles façons l’évaluer. Puis nous verrons en quoi la notion de présence dans les EV est cruciale pour en mesurer l’impact sur l’utilisateur. Et enfin nous aborderons la question des limites de cette technologie notamment au travers du mal des simulateurs. La seconde partie de ce document vise à montrer en quoi la réalité virtuelle (RV) peut- être utilisée comme un moyen de mise en contexte de l’individu permettant de mettre en évidence l’implication de divers processus cognitifs dans des activités ciblées. Je m’appuierai pour cela sur les travaux que j’ai réalisés sur simulateur de conduite. Nous verrons notamment que la RV peut s’avérer un complément essentiel dans la mise en place d’un protocole d’évaluation des fonctions cognitives visant à estimer les aptitudes à la conduite de personnes cérébrolésées. Les troisième et quatrième parties concernent l'étude des activités collaboratives à distance en RV. Dans un premier temps, il s’agira de définir comment un référentiel commun (RC) peut s’instaurer entre les opérateurs et plus particulièrement comment une représentation de l’espace peut être partagée et intégrée à ce référentiel commun (Référentiel Spatial Commun : RSC). En second lieu je montrerai en quoi mes travaux ont contribué à : 1- Utiliser les connaissances précédemment acquises sur l’individu afin de créer des situations propices à l’apprentissage et/ou à la simulation de procédures via un environnement virtuel. 2- Créer un environnement adapté aux représentations spatiales d’opérateurs distants et dans lequel ils peuvent interagir et collaborer. Enfin ce document se terminera par une cinquième partie dédiée à la synthèse de mes activités de recherche. J’y conclurai, notamment, sur les atouts et les limites de la RV ainsi que sur le cadrage nécessaire des développements et usages futurs qui seront faits de cette technologie. Pour clore cette partie, j’y présenterai en quoi les recherches que j’ai menées jusqu’à présent ont guidé mes orientations de recherche futures.


Defense date : 23-01-2017
Jury president : Jean-Marie Burkhardt, Directeur de Recherche, IFSTTAR
Jury :
  • Jean-Marie Burkhardt, Directeur de Recherche, IFSTTAR ( Rapporteur )
  • Michel Denis, Directeur de Recherche, CNRS ( Rapporteur )
  • Daniel Mestre, Directeur de Recherche, CNRS ( Rapporteur )
  • Claude Marin-Lamellet, Directeur de Recherche, IFSTTAR ( Examinateur )
  • Franck Ganier, Professeur, Université Bretagne Occidentale ( Examinateur )
  • Evelyne Klinger, Directeur de Recherche, ESIEA ( Examinateur )

Copyright : LS2N 2017 - Legal notices - 
 -