Home » Évènement

Soutenance d’HDR de Mathieu RITOU (équipe RoMaS)

Mathieu Ritou, maître de conférences de l’Université de Nantes et enseignant-chercheur au sein de l’équipe RoMaS du LS2N, soutiendra son habilitation à diriger des recherches intitulée « Contribution au Smart Manufacturing : application en usinage »

mardi 28 septembre 2021 à 14h, depuis l’amphi A-1/10 de l’IUT la Fleuriaye, à Carquefou.

La soutenance sera retransmise à l’adresse suivante : https://univ-nantes-fr.zoom.us/j/98472137577

Composition du jury :
– Benoit Iung, Rapporteur, Professeur des Universités, Université de Lorraine – CRAN
– Henri Paris, Rapporteur, Professeur des Universités, Université Grenoble Alpes – GSCOP
– Christophe Tournier, Rapporteur, Professeur des Universités, ENS Paris Saclay – LURPA
– Alain Bernard, Examinateur, Professeur des Universités, Centrale Nantes – LS2N
– Hélène Chanal, Examinatrice, Maître de conférences HDR, SIGMA Clermont – Institut Pascal
– René Mayer, Examinateur, Professeur, École Polytechnique de Montréal – LRFV, Canada
– Benoit Furet, Dir. de recherche, Professeur des Universités, Universités de Nantes – LS2N
– Virginie Charbonnier, Invitée, Responsable projets R&T usinage, Airbus Operations

Résumé :
Dans les usines modernes, d’importants volumes de données sont générés durant la production, mais ils restent souvent inexploités. La fabrication intelligente, ou Smart Manufacturing, vise ainsi à exploiter ces données captées pendant le processus de fabrication. Il s’agit là d’un levier majeur de l’Usine du Futur, pour améliorer la performance des entreprises.
Nous avons été parmi les précurseurs du développement du monitoring en usinage et de la collecte de données en temps réel lors de productions dans l’industrie. Les données étant complexes, il a été nécessaire de développer des méthodes de fouilles de données adaptées aux spécificités des procédés de fabrication. Par rapport aux approches classiques d’extraction de connaissances à partir des données, une originalité développée a été d’intégrer également des connaissances métier dans ce processus d’analyse des données afin de l’améliorer. La combinaison d’Intelligence Artificielle et de connaissances en fabrication est une solution innovante et prometteuse. L’approche proposée associe ainsi l’intégration de connaissances en fabrication (par des critères de monitoring basés sur des modèles mécaniques et des règles métier) et des apprentissages non-supervisés (par modèles de mélange gaussien).
Il en résulte un système d’aide à la décision, permettant de fouiller automatiquement les données complexes et massives qui sont collectées lors d’usinages industriels, et de transmettre des KPI répondant spécifiquement aux besoins des différents services de l’entreprise (méthodes, qualité, maintenance…).
Par ailleurs, en usinage à grande vitesse, de nombreux défauts sur les pièces résultent de problèmes vibratoires. Aussi, une approche complémentaire par simulations numériques a été développée pour une meilleure maîtrise du comportement vibratoire en usinage. Afin d’expliquer l’évolution complexe des modes à hautes vitesses de rotation, un modèle vibratoire de broche a été proposé suivant une approche phénoménologique fine. Il repose notamment sur des modèles analytiques de montages de roulements préchargés, ainsi que sur le développement d’un excitateur électromagnétique de broche qui a permis d’observer l’évolution du comportement vibratoire en fonction des conditions opératoires, telles que la vitesse de rotation ou l’usure de la broche.
Ces travaux interdisciplinaires sur le Smart Manufacturing contribuent ainsi au développement des technologies de l’Usine du Futur. L’exploitation des données collectées en cours de fabrication et les apprentissages automatiques sont des éléments clé de jumeaux numériques. Ils permettront une meilleure maîtrise de la qualité et une amélioration du processus de fabrication, grâce à des machines intelligentes et connectées.

Soutenance d’HDR d’Audrey QUEUDET (équipe STR)

Audrey Queudet, Maître de conférences au sein de l’équipe STR, soutiendra son Habilitation à Diriger des Recherches (HDR) intitulée « Synchronisation et autonomie énergétique des systèmes temps réel embarqués » / « Synchronization and energy autonomy of embedded real-time systems »

lundi 7 juin 2021 à 10h (CET) en hybride depuis l’amphi du bâtiment 34 sur le site FST.
Elle sera retransmise en direct à l’adresse suivante : https://live.lifesizecloud.com/extension/5627660

Jury :
Maryline Chetto, Professeur des Universités LS2N / Université de Nantes — Présidente
Daniel Chillet, Professeur des Universités IRISA Rennes / ENSSAT — Rapporteur
Alfons Crespo, Professeur des Universités, Escuela Técnica Superior de Ingeniera Informatica de Valencia — Examinateur
Laurent George, Professeur des Universités LIGM / ESIEE Paris — Rapporteur
Pascal Richard, Professeur des Universités LIAS / IUT de Poitiers — Rapporteur
Liliana Cucu-Grosjean, Chargée de Recherche INRIA Paris — Examinatrice

Lien vers le manuscrit : https://uncloud.univ-nantes.fr/index.php/s/kZrFCXRfPCoZbWN

Résumé (du manuscrit) :

Les travaux présentés dans ce document s’articulent selon deux axes de recherche principaux : (i) la synchronisation d’applications temps réel multicœur, et (ii) l’autonomie énergétique des systèmes temps réel embarqués. Ces problématiques sont abordées du point de vue de l’ordonnancement en prenant en compte plusieurs types de contraintes : des contraintes temporelles, des contraintes de partage de ressources, des contraintes de qualité de service (QoS), et des contraintes d’énergie.

Gérer efficacement les accès concurrents à la mémoire dans un contexte temps réel multicœur se révèle complexe. Le verrouillage systématique peut réduire le parallélisme de la plate-forme d’exécution et engendrer par là-même une baisse significative des performances. Forts de ce constat, nous avons donc étudié l’adaptation des mémoires transactionnelles (mécanismes de synchronisation non-bloquant) aux systèmes temps réel multicœur. Au travers d’une étude expérimentale, nous avons comparé les performances de plusieurs mémoires transactionnelles afin de déterminer les facteurs clés (ex : système d’exploitation, politique d’ordonnancement, allocateur mémoire) influant sur la gigue d’exécution des transactions, gigue pouvant impacter directement le respect des contraintes temporelles des tâches dans un système temps réel. Nous avons ensuite proposé une mémoire transactionnelle logicielle temps réel hard, la STM-HRT, permettant de garantir la progression de toutes les transactions du système. Une analyse fonctionnelle et temporelle de la STM-HRT nous a permis de valider le mécanisme de synchronisation non bloquant proposé.

Les systèmes embarqués de nouvelle génération tels que les nœuds de capteurs sans fil se sont multipliés ces dernières années. Pour nombre de ces systèmes, l’autonomie énergétique est une problématique capitale. La technologie du energy harvesting consistant à capter l’énergie dans l’environnement pour alimenter un système, permet en particulier de doter ces systèmes embarqués aux ressources contraintes, d’une capacité d’autosuffisance énergétique. L’informatique “intelligente” embarquée au sein de ces systèmes possède très souvent des exigences temps réel au niveau des traitements logiciels. Il convient alors de garantir le fonctionnement perpétuel du système en gérant conjointement deux types de contraintes : le temps et l’énergie. C’est précisément l’objet de nos contributions sur cette thématique, en considérant le problème du point de vue de l’ordonnancement des tâches applicatives sur le processeur. Nous avons tout d’abord mis en évidence l’inefficacité des ordonnanceurs temps réel “classiques” tels que EDF, incapable à s’accommoder des fluctuations de l’énergie d’alimentation. Nous avons cependant montré qu’il reste le meilleur ordonnanceur non-oisif dans le contexte du energy harvesting et qu’il constitue le meilleur choix d’intégration pour un système ne pouvant disposer d’une estimation prédictive de l’énergie exploitable. Nos travaux ont ensuite consisté en l’identification de quelques-unes propriétés clés d’un ordonnanceur dans le contexte du energy harvesting. Puis, nous avons contribué au problème de la faisabilité d’un ensemble de tâches temps réel à contraintes strictes dans ce même contexte, par la proposition d’un nouveau test, robuste vis-à-vis de la puissance de la source d’énergie. Les contributions présentées par la suite visent à apporter des solutions adaptées aux situations de surcharge temporaire de traitement et/ou de consommation énergétique dont un système peut souffrir. Sur la base d’un nouveau modèle de tâches intégrant des contraintes de QoS, nous avons proposé de nouveaux ordonnanceurs contrôlant notamment le nombre et l’identité des jobs de tâches abandonnés en cas de surcharge. Nous avons enfin proposé un test de faisabilité nécessaire intégrant conjointement les contraintes de QoS et d’énergie.

—————————————————————————————————————————————————————————————————————————————————————-

Abstract (of the manuscript):

The work presented in this document addresses two main research concerns: (i) the synchronization of multicore real-time applications, and (ii) the energy autonomy of embedded real-time systems. These problems are approached from a scheduling point of view by taking into account several types of constraints: temporal constraints, resource sharing constraints, quality of service (QoS) constraints, and energy constraints.

Efficiently managing concurrent memory access in a multicore real-time context is complex. Systematic locking can reduce the parallelism of the execution platform and thus lead to a significant performance loss. Based on this observation, we have studied the adaptation of transactional memories (non-blocking synchronization mechanisms) to multicore real-time systems. Through an experimental study, we compared the performance of several transactional memories in order to determine the key factors (e.g. operating system, scheduling policy, memory allocator) impacting the execution jitter of transactions, jitter that can directly impact the respect of the temporal constraints of tasks in a real-time system. We then proposed a hard real-time software transactional memory, called STM-HRT, which guarantees the progress of all transactions in the system. A functional and temporal analysis of the STM-HRT allowed us to validate the proposed non-blocking synchronization mechanism.

New generation embedded systems such as wireless sensor nodes have been proliferating in recent years. For many of these systems, energy autonomy is a key issue. The technology of energy harvesting, which consists of capturing energy from the environment to power a system, makes it possible in particular to provide these resource-constrained embedded systems with the capacity for energy self-sufficiency. The intelligence embedded in these systems has very often real-time requirements in terms of software processing. It is then necessary to guarantee the perpetual operation of the system by jointly managing two types of constraints: time and energy. This is precisely the purpose of our contributions on this topic, by considering the problem from the point of view of the scheduling of tasks on the processor. We first highlighted the inefficiency of “classical” real-time schedulers such as EDF, which are unable to cope with fluctuations in the supply energy. However, we have shown that it remains the best non-idling scheduler in the context of energy harvesting and that it is the best choice of integration for a system that cannot have a predictive estimate of the exploitable energy. Our work then consisted in identifying some key properties of a scheduler in the energy harvesting context. Then, we contributed to the problem of the feasibility of a set hard real-time tasks in this same context, by proposing a new test which is robust with respect to the power of the energy source. The contributions presented right after aim at providing solutions adapted to situations of transient processing and/or energy consumption overload that a system may suffer from. Based on a new task model integrating QoS constraints, we have proposed new schedulers controlling in particular the number and identity of task jobs skipped in case of overload. Finally, we proposed a necessary feasibility test integrating both QoS and energy constraints.

Soutenance d’HDR d’Assia MAHBOUBI (équipe Gallinette)

Assia Mahboubi, chercheuse Inria au sein de l’équipe Gallinette, soutiendra son habilitation à diriger des recherches intitulée « Machine-checked computer-aided mathematics »

mardi 5 janvier 2021 à 14h dans l’amphithéâtre du bâtiment 34 sur le site FST.
L’accès à l’amphithéâtre étant soumis aux contraintes sanitaires en vigueur, la soutenance sera retransmise en direct à l’adresse suivante :
https://stream.lifesizecloud.com/extension/4452281/cfe3f6b0-d21f-4212-9bbf-61dd75f8a6bc

Composition du jury:
– Sylvie Boldo, DR Inria — Inria Saclay Île de France, Université Paris – Saclay, rapporteuse
– Thierry Coquand, Professeur — University of Gothenburg, rapporteur
– Larry Paulson, Professeur — Cambridge University, rapporteur
– Yves Bertot, DR Inria — Inria Sophia Antipolis Méditerranée, président
– Florent Hivert, Professeur — Université Paris – Saclay, examinateur
– Sébastien Gouëzel, DR CNRS — Université de Rennes 1, examinateur
– Nicolas Tabareau, DR Inria — Inria Rennes Bretagne Atlantique, Université de Nantes, IMT, examinateur

Le manuscrit est disponible à l’adresse : http://people.rennes.inria.fr/Assia.Mahboubi/assia_hdr_thesis.pdf

Soutenance d’HDR de Benoît DELAHAYE (équipe AeLoS)

Benoît Delahaye, maitre de conférences au sein de l’équipe AeLoS, soutiendra sa soutenance son Habilitation à Diriger des Recherches (HDR) intitulée « Modélisation et Vérification de Systèmes Incertains » / « Modeling and Verification of Systems with Uncertainties »

le jeudi 10 décembre à 14h (CET) en visioconférence.
La soutenance sera retransmise en direct à l’adresse suivante :
https://stream.lifesizecloud.com/extension/4452281/cfe3f6b0-d21f-4212-9bbf-61dd75f8a6bc

Jury :
Colin De La Higuera, Professeur LS2N / Université de Nantes – Président
Christel Baier, Professeure Technische Universität Dresden – Examinatrice
Béatrice Bérard, Professeure émérite LIP6 / Université Pierre et Marie Curie – Rapporteur
Patricia Bouyer-Decitre, Directrice de Recherche LSV / ENS Paris Saclay – Examinatrice
Pedro R. D’Argenio, Professeur FaMAF / Universidad Nacional de Córdoba (Argentina) – Rapporteur
Holger Hermanns, Professeur Saarland University – Rapporteur

Résumé (du manuscrit) :
Le but des sciences en général est d’étudier le fonctionnement de systèmes complexes afin de mieux les comprendre et, éventuellement, de pouvoir prédire leur comportement futur. Une part importante de cette étude est la réalisation d’un modèle, objet abstrait qui représente fidèlement les connaissances existantes à propos du système, et qui pourra alors être étudié et simulé à la place du système lui-même. Malheureusement, il est fréquent que les connaissances existantes à propos des systèmes soient incomplètes ou sujettes à incertitudes. Il est alors important d’inclure ces incertitudes à l’intérieur des modèles et de développer des techniques afin d’automatiser l’analyse de ces modèles. Ce document présente quatre contributions au domaine de la modélisation et de l’analyse de tels systèmes. Deux de ces contributions sont à vocation plutôt théorique et proposent des langages de modélisation permettant d’inclure les incertitudes à l’intérieur des modèles ainsi que des techniques de vérification associées. Les deux autres contributions sont plus pratiques, l’une proposant une technique de vérification statistique et prouvant son efficacité sur un cas d’étude industriel, et l’autre proposant une technique de construction automatique de modèle à partir d’un ensemble de données ainsi qu’une analyse de son niveau de sécurité.

——————————————————————————————————————————————————–
Abstract (of the manuscript):
The goal of science in general is to study the functioning of complex systems in order to better understand them and potentially to be able to predict their future behaviour. An important part of this study is the realization of a model, an abstract object that faithfully represents existing knowledge about the system, and which can then be studied and simulated instead of the system itself. Unfortunately, existing knowledge about systems is often incomplete or subject to uncertainties. It is then important to include these uncertainties in the models and to develop techniques to automate the analysis of these models. This document presents four contributions to the field of modeling and analysis of such systems. Two of these contributions are somewhat theoreticaly-oriented, proposing modeling languages to include uncertainties in models and associated verification techniques. The other two contributions are more practical, one proposing a statistical verification technique and proving its efficiency on an industrial case study, and the other proposing a technique for automated model construction from a data set and an analysis of its security level.

Soutenance d’HDR de Damien ÉVEILLARD (équipe COMBI)

Damien Éveillard, maître de conférences au sein de l’équipe COMBI, soutiendra son Habilitation à Diriger des Recherches (HDR) intitulée « From systems biology to systems ecology: a computational journey » / « De la biologie systémique à l’écologie systémique : un voyage informatique à travers les échelles biologiques »

mardi 13 octobre 2020 à 13h30 dans l’amphi du bâtiment 34 du LS2N sur le site FST.

Accès au manuscrit complet (pdf, 231 pages) sur l’UNCloud.

Jury :

Alexander BOCKMAYR, Professeur, Freie Universität Berlin (Allemagne) – examinateur
Jérémie BOURDON, Professeur, Université de Nantes, UMR 6004 LS2N – examinateur
Karoline FAUST, Assistante Professor, KU Leuven (Belgique)/Laboratory of Molecular Bacteriology – examinatrice
Christopher QUINCE, Associate Professeur, University of Warwick Coventry (Grande-Bretagne)/Warwick Medical School – rapporteur
Claudine MEDIGUE, Directrice de recherches, Génopole d’Evry/UMR 8030 Genoscope – rapportrice
Eric RIVALS, Directeur de recherches, Université de Montpellier/UMR 5506 LIRMM – rapporteur
Philippe VANDENKOORNHUYSE, Professeur, Université de Rennes 1/UMR 6553 ECOBIO – examinateur

Résumé :
Les progrès récents de la métagénomique ont favorisé un changement de paradigme dans l’étude des écosystèmes microbiens. Ces écosystèmes sont aujourd’hui analysés par leur contenu génétique qui permet notamment de mettre en évidence la composition microbienne en terme de taxonomie ou plus récemment leurs fonctions putatives. Cependant, comprendre suffisamment bien les interactions entre les communautés microbiennes et l’environnement pour prédire la diversité à partir de paramètres physico-chimiques est une quête fondamentale de l’écologie microbienne qui nous échappe encore. Cette tâche nécessite de déchiffrer les règles mécanistes qui prévalent au niveau moléculaire. Une telle tâche doit être accomplie par des approches ou des modélisations informatiques dédiées, inspirées de la Biologie Systémique. Néanmoins, l’application directe des approches standard de la biologie des systèmes cellulaires est une tâche complexe. En effet, la description métagénomique des écosystèmes montre un grand nombre de variables à étudier. De plus, les communautés sont (i) complexes, (ii) le plus souvent décrites qualitativement, et (iii) la compréhension quantitative de la façon dont les communautés interagissent avec leur environnement reste incomplète. Dans ce résumé de recherche, nous illustrerons comment les approches de la biologie systémique doivent être adaptées pour surmonter ces points de différentes manières. Dans un premier temps, nous présenterons l’application du protocole bioinformatique aux données de métagénomique, avec un accent particulier sur l’analyse des réseaux. Deuxièmement, nous décrirons comment intégrer les connaissances hétérogènes en omique par programmation logique. Cette intégration mettra l’accent sur les unités fonctionnelles présumées au niveau communautaire.Troisièmement, nous illustrerons la conception et l’utilisation de la modélisation quantitative à partir de ce réseau. En particulier, la modélisation basée sur les contraintes sera utilisée pour prédire la structure de la communauté microbienne et ses comportementsà partir des connaissances à l’échelle du génome.

Mots-clés : modélisation biologique, graphe, contraintes, écologie microbienne, bioinformatique, biologie des systèmes

____________________

Abstract:
Recent progress in metagenomics has promoted a change of paradigm to investigate microbial ecosystems. These ecosystems are today analyzed by their gene content that, in particular, allows to emphasize the microbial composition in terms of taxonomy (i.e. « who is there and who is not ») or, more recently, their putative functions. However, understanding the interactions between microbial communities and their environment well enough to be able to predict diversity based on physicochemical parameters is a fundamental pursuit of microbial ecology that still eludes us. This task requires deciphering the mechanistic rules that prevail at the molecular level. Such a task must be achieved by dedicated computational approaches or modelings, as inspired by Systems Biology.
Nevertheless, the direct application of standard cellular systems biology approaches is a complicated task. Indeed, the metagenomic description of ecosystems shows a large number of variables to investigate. Furthermore, communities are (i) complex, (ii) mostly described qualitatively, and (iii) the quantitative understanding of the way communities interact with their surroundings remains incomplete.
Within this research summary, we will illustrate how systems biology approaches must be adapted to overcome these points in different manners. First, we will present the application of bioinformatics protocol on metagenomics data, with a particular emphasis on network analysis. In particular, we will use environmental and metagenomic data gathered during the Tara Oceans expedition to improve understanding of a biological process such as the carbon export. Second, we will describe how to integrate heterogeneous omics knowledge via logic programming. Such integration will emphasize putative functional units at the community level. Third, we will illustrate the design and the use of quantitative modeling from this network. In particular, constraint-Based modeling will predict the microbial community structure and its behaviors based on genome-scale knowledge.

Keywords: biological modeling; graph; constraints; microbial ecology; bioinformatics; systems biology

Soutenance d’HDR de Dalila TAMZALIT (équipe NaoMod)

Dalila Tamzalit, maître de conférences au sein de l’équipe NaoMod, soutiendra son Habilitation à diriger des recherches intitulée « Vers une Ingénierie de l’Évolution Logicielle : une approche architecturale – Verrous, contributions et perspectives » / « Towards Engineering of Software Evolution : an architectural approach – issues, contributions and perspectives »

vendredi 26 juin 2020 à 14h en visio.

Le manuscrit est consultable sur le cloud.

Jury :
   – Président du jury : Claude Jard
   – Rapporteurs : Yamine Aït-Ameur (Professeur, IRIT / INPT-ENSEEIHT Toulouse), Marianne Huchard (Professeure, LIRMM / Université Montpellier), Houari Sahraoui (Professeur, Dpt d’informatique et recherche opérationnelle / Université de Montréal)
   – Membres : Mireille Blay-Fornarino (Professeure, I3S / Université de Nice), Xavier Blanc (Professeur, LaBRI / Université de Bordeaux),  Mourad Oussalah (Professeur, LS2N / Université de Nantes), Yves Caseau (Group chief information officer / Michelein Clermont-Ferrand)

Résumé :
Les travaux de recherche, présentés dans le cadre de mon projet d’Habilitation à diriger des Recherches, s’inscrivent dans la problématique générale de l’évolution des Architectures Logicielles. Il est à souligner que le terme évolution s’entend au sens large : migration, adaptation, refactoring, rétro-conception, réingénierie, restructuration, maintenance, traçabilité… Chacun de ces travaux est présenté selon son contexte, les verrous scientifiques qu’il traite, les principales contributions ainsi que sa validation et sa valorisation au travers de publications. Il est à noter qu’ils suivent un même fil conducteur, celui de prôner une Ingénierie de l’évolution des architectures logicielles, en termes de fondements, modèles et méthodologies. Ainsi, mes travaux de recherche s’articulent autour de la spécification et la formalisation : (i) des architectures logicielles évolutives et (ii) des architectures de l’évolution logicielle. La principale ligne directrice est d’identifier et de cerner les caractéristiques intrinsèques de systèmes logiciels afin de spécifier et gérer leur évolution indépendamment de leur fonctionnement. Pour y arriver, le principe clé adopté est celui de la séparation stricte des préoccupations de l’évolution des autres préoccupations. Il est couplé à une approche par abstraction (métamodèles et méthodologies). En couplant ce principe et cette approche, il a été ainsi possible de réifier différentes préoccupations liées à l’évolution sous forme de concepts statiques (modèles) et dynamiques (processus) à un haut niveau d’abstraction, permettant une représentativité aux niveaux stratégiques de décision, tout en offrant une assistance aux architectes. Ces travaux ont concerné différents paradigmes d’architectures logicielles : depuis l’objet durant ma thèse, aux composants en passant par la SOA et en considérant les styles architecturaux SaaS mutualisé et micro-services. Ces travaux ont été menés au travers d’encadrement et de co-encadrement doctoral de 9 thèses et 11 Master2, ainsi que des collaborations avec des confrères français, européens, internationaux et avec des entreprises.
Les travaux présentés ne sont qu’une partie de mes travaux de recherche, ceux portant sur et pour les problématiques d’évolution des architectures logicielles à base de composants et autour de la notion de service (SOA), notamment les styles architecturaux SaaS mutualisé et micro-services. La raison est double : ces travaux constituent l’essentiel de mes activités de recherche et mes projets futurs s’inscrivent dans leur continuité. De 2002 à 2010, ils ont porté sur les architectures logicielles à base de composants au travers de leurs langages de description, les ADLs (Architecture Description Languages). Les principales contributions ont été de proposer (1) un modèle générique pour l’évolution structurelle d’architectures logicielles, (2) un modèle de capitalisation de savoir-faire d’évolutions architecturales, (3) une approche d’extraction d’architectures logicielles à partir de systèmes objets patrimoniaux ainsi que (4) des patrons d’évolution architecturale. De 2010 à aujourd’hui, mes travaux ont porté sur les architectures logicielles autour de la notion de service (SOA, SaaS, micro-services). Les principales contributions ont été de proposer (5) un modèle d’externalisation de la gestion de la variabilité d’applications SaaS mutualisées, (6) une approche SOA de restructuration et d’adaptation de workflows d’entreprise ainsi que (7) la migration de systèmes monolithes vers des architectures micro-services.
Enfin, différentes perspectives explicitent mon projet scientifique intitulé « vers une industrialisation de l’évolution logicielle » afin de prendre en compte le contexte des nouvelles générations d’architectures logicielles. L’objectif est de tendre vers des systèmes logiciels durables dans le temps, en augmentant leur espérance de vie, idéalement de manière continue. J’attache également à ce projet des pistes qui me paraissent d’importance : la formation universitaire et les collaborations avec le monde socio-économique.

Mots-clés : Architectures Logicielles, Évolution Logicielle, Migration, Adaptation, Réification et Réutilisation des connaissances d’évolution, Styles et Patrons d’Évolution, Architectures Orientées Services (SOA), SaaS mutualisé, Variabilité, Externalisation, Micro-Services.


Abstract:
The research work, presented in the context of my Habilitation à diriger des Recherches (HdR), is part of the general field of Software Architectures evolution. The term evolution is considered in a broad sense: migration, adaptation, refactoring, reverse engineering, reengineering, restructuring, maintenance, traceability… Each of these research works is presented according to its context, the addressed scientific issues, the main contributions as well as its validation and valorisation through publications. They follow the same common idea: advocating an Engineering of software architecture evolution, in terms of foundations, models and methodologies. Thus, my research work is based on the specification and formalisation of: (i) evolving software architectures and (ii) software architectures for evolution. The main guideline is to identify and define the intrinsic features of software systems in order to specify and manage their evolution independently of their operation. To achieve this, the key principle adopted is the strict separation of evolution concerns from other concerns. It is coupled with an abstraction approach (metamodels and methodologies). By coupling this principle and this approach, it has thus been possible to reify different concerns related to evolution in the form of static (models) and dynamic (processes) concepts at a high level of abstraction, allowing representativeness at strategic levels of decision making, while offering assistance to architects. This work has concerned different paradigms of software architectures: from the object during my PhD, to components, then through SOA and considering the SaaS multitenant and micro-services architectural styles. These research works were made possible and have been carried out through the supervision and co-supervision of 9 PhD and 11 Master2 students, as well as collaborations with French, European and international colleagues and also with companies.
The presented works are only a part of my research work, those dealing with and for the evolution of component-based software architectures and around the notion of service (SOA), in particular the SaaS multitenant and micro-services architectural styles. The reason is twofold: these works represent the main part of my research activities and my future projects are in line with them. From 2002 to 2010, they focused on component-based software architectures through their description languages, the ADLs (Architecture Description Languages). The main contributions have been to propose (1) a generic model for the structural evolution of software architectures, (2) a model for capitalising know-how of architectural evolutions, (3) an approach for extracting software architectures from legacy object systems and (4) architectural evolution patterns. From 2010 to today, my work has focused on software architectures around the notion of service (SOA, SaaS, micro-services). The main contributions have been to propose (5) an outsourcing model for managing the variability of SaaS multitenant applications, (6) an SOA approach for restructuring and adapting business workflows and (7) the migration of monolithic systems to micro-services architectures.
Finally, different perspectives outline my scientific project entitled « Towards an industrialization of software evolution » in order to take into account the context of new generations of software architectures. The objective is to move towards software systems that are sustainable over time, by increasing their life expectancy, ideally in a continuous manner. I also attach importance to this project in terms of university training and collaboration with the socio-economic world.

Keywords: Software Architectures, Software Evolution, Migration, Adaptation, Reification and Reuse of Evolution Knowledge, Evolution Styles and Patterns, Service Oriented Architectures (SOA), Shared SaaS, Variability, Outsourcing, Micro-Services.

Soutenance d’HDR de Patricia SERRANO ALVARADO (équipe GDD)

Patricia Serrano, maître de conférences au sein de l’équipe GDD, soutiendra son Habilitation à Diriger des Recherches (HDR) intitulée « Protecting user data in distributed systems » / « De la protection des données des utilisateurs dans les systèmes répartis »

mardi 16 juin 2020 à 14h en visio.

Jury :
Présidente : Mme Pascale KUNTZ COSPEREC, Professeure, Université de Nantes
Rapporteurs : – M. Luc BOUGANIM, Directeur de Recherches, Inria Saclay-Île de France
                           – M. Sébastien GAMBS, Professeur, Université du Québec
                           – M. Daniel LE METAYER, Directeur de Recherches, Inria Alpes
Examinateurs : – Mme Catherine FARON ZUCKER, Maître de Conférences HDR, Université de Nice Sophia Antipolis
                              – Mme Marie-Christine ROUSSET, Professeure, Université Joseph Fourier

Manuscrit (pdf).

Résumé : Protéger les données des utilisateurs dans les systèmes distribués est aujourd’hui très difficile.Dans cette thèse, nous nous concentrons sur diverses questions liées à la protection des données utilisateur sur des systèmes de gestion de données distribuées, dont les architectures vont des architectures client-serveur aux fédérations de serveurs ou aux énormes organisations pair-à-pair. Notre première contribution concerne la confiance dans unsystème. Nous proposons un métamodèle basé sur la logique du premier ordre, qui permet de modéliser un système en considérant des entités des mondes sociaux et numériques et leurs relations. Nous présentons ensuite deux approches permettant aux utilisateurs d’évaluer la confiance envers les systèmes. Dans le contexte des systèmes pair-à-pair, nous proposons un modèle de confidentialité de données et son implémentation basée sur DHT,ainsi qu’un canevas permettant de mesurer et d’améliorer la satisfaction des utilisateurs. Dans le contexte du Web sémantique, en particulier des données liées, nous présentons deux approches pour déduire des BGP de requêtes SPARQL. Enfin, nous présentons un modèle basé sur treillis qui permet de positionner des licences en termes de compatibilité et de conformité.

Mots-clés : Confidentialité des données, licences, confiance, systèmes pair-à-pair, Web des données, traitement des requêtes fédérées, contrôle d’usage

———-

Abstract: Protecting user data in distributed systems nowadays is very difficult. In this thesis, we focus on various issues related to the protection of user data on distributed data management systems, whose architectures range from client-server architectures to federations of servers or huge peer-to-peer organizations. Our first contributionis about trust in a system. We propose a metamodel based on first order logic, that allowsto model a system considering entities of the social and digital worlds and their relations. Then we present two approaches that allow users to evaluate trust in systems. In the context of peer-to-peer systems, we propose a data privacy model, and its DHT-based implementation, as well as a framework to measure and improve users’ satisfaction. In the context of the semantic web, in particular the Linked Data, we present two approaches for deducing BGPs of SPARQL queries. Finally, we present a lattice-based model that allows to position licenses in terms of compatibility and compliance.

Keywords: Data privacy, licenses, trust, peer-to-peer systems, Linked Data, federated query processing, usage control

Soutenance d’HDR de Vincent Ricordel (équipe IPI)

Vincent RICORDEL soutiendra son habilitation à diriger des recherches intitulée « Outils et méthodes pour le codage vidéo perceptuel« 
mercredi 22 janvier 2020 à 13h30, dans l’amphithéâtre A1 à Polytech.
Jury :
– Marc Antonini, DR. à l’Université de Nice (rapporteur)
– William Puech, Pr. à l’Université de Montpellier (rapporteur)
– Olivier Déforges, Pr. à l’INSA de Rennes (rapporteur)
– Marco Cagnazzo, Pr. à l’Institut Télécom-Paris (examinateur)
– Luce Morin, Pr. à l’INSA de Rennes (examinatrice)
– Bogdan Cramariuc, Directeur de l’ITCST à Bucarest (examinateur)
– Marc Gelgon, Pr. à l’Université de Nantes (examinateur)
La soutenance sera suivie d’un pot dans le même bâtiment Ireste.
Le mémoire (pas la version finale) est accessible ici : https://uncloud.univ-nantes.fr/index.php/s/RCdgg5XfkGEMjzK
Résumé :
On ne peut que constater combien la technologie vidéo est devenue omniprésente en un peu plus d’une décennie. Si les besoins des nouveaux services vidéo ont été en partie satisfaits par l’efficacité des réseaux et de leurs technologies de couche physique, en parallèle les codecs vidéo ont été primordiaux en offrant compression et nouvelles fonctionnalités. La recherche en codage vidéo se caractérise alors par un fort contexte normatif où le point de compatibilité se fait au niveau du décodage. Les performances de chaque nouveau standard sont remarquables, car typiquement chacun par rapport au précédent, code avec la même qualité objective un format vidéo donné mais en divisant par deux le débit nécessaire. Il est cependant frappant de constater que le paradigme de la couche de codage n’a pas changé depuis l’origine, avec un codec dissymétrique où les décisions sont prises à l’encodage via un schéma hybride intégrant les étapes de prédiction, transformation, quantification et codage entropique. Il est aussi surprenant de constater la persistance de l’implantation dans les codeurs pour la phase d’optimisation débit-distorsion, d’un calcul de distorsion de type erreur quadratique moyenne, alors que l’on sait la corrélation pauvre entre les résultats de cette métrique et le jugement humain.
C’est à ce niveau que se définit l’objectif du codage vidéo perceptuel qui est d’aller vers une représentation de l’information basée sur le contenu perçu et qui puisse servir de paradigme pour un codage basé qualité perceptuelle des contenus des vidéos 2D et 3D. Pour être en phase avec les approches standards, l’objectif devient de guider les choix de codage de façon à aller vers la fidélité perceptuelle sans perte des vidéos décodées. Mes travaux se positionnent donc dans cette recherche des outils et des méthodes où les choix pour améliorer la qualité perceptuelle guident le codage vidéo.
Ma présentation retracera mon itinéraire scientifique au sein des équipes IVC-IRCCyN puis IPI-LS2N qui, du fait des recherche qui y sont conduites sur la modélisation du système visuel humain, ont offert et offrent encore un cadre collaboratif particulièrement propice aux travaux liés au codage vidéo perceptuel.
Mes contributions au codage vidéo perceptuel se sont principalement organisées au sein de projets de recherche visant à contribuer aux efforts faits en normalisation, avec le projet ANR ArchiPEG qui avait pour objectif l’optimisation du codage vidéo HD en flux H.264/AVC, le projet ANR PERSEE qui s’intéressait au codage perceptuel des formats vidéo 2D et 3D via le codec H.264 et son extension MVC, et le projet européen ITN PROVISION qui visait le codage perceptuel via HEVC. Mes contributions ont été produites au travers l’encadrement de thèses (4 soutenues, 1 en cours), et nous verrons que nous avons agi à 2 niveaux de la boucle de codage vidéo hybride.
Une première possibilité est d’améliorer directement des unités de la boucle de codage.
C’est ainsi que nous avons mis en œuvre une transformation directionnelle tenant compte des orientations géométriques au sein de l’image. Nous avons exploité cette représentation de l’information afin de construire des classes de structures, puis adapté la quantification de leur contenu en se basant sur des critères perceptuels.
Nous avons aussi, après avoir défini la notion de textures spatio-temporelles visuelles, proposé un modèle mesurant la similarité entre ces textures visuelles. Ce modèle computationnel basé sur le traitement cortical du SVH, a ensuite été utilisé afin d’améliorer la boucle de codage de HEVC : en identifiant des classes de textures visuelles et en faisant correspondre à la distorsion objective standard calculée par le codeur sa valeur dans le domaine perceptuel.
Une autre approche consiste à mettre en place un schéma de pré-analyse avant encodage afin de piloter ensuite efficacement le codage des régions d’intérêt. La modélisation de l’attention visuelle est donc essentielle au niveau de cette analyse.
Nous avons conçu un schéma de pré-analyse basé sur des tubes spatio-temporels. Cet outil réalise la segmentation et le suivi des objets constitués de tubes connexes, et il leur associe une saillance visuelle. L’ensemble de ces informations est exploitée afin d’assurer un codage cohérent des objets en flux H.264/AVC. Exactement nous avons testé l’adaptation de la structure du GOP, et le guidage de la qualité visuelle.
Nous avons aussi développé le premier modèle computationnel de l’attention visuelle 3D s’appliquant à la visualisation d’images stéréoscopiques. Ce modèle combine deux cartes de saillance visuelle : celle 2D et celle de profondeur. Nous avons utilisé ce modèle afin d’améliorer la qualité d’expérience de visualisation de la TV3D, par ajout d’un flou de défocalisation sur la région ayant moins d’intérêt.
Dans la dernière partie de ma présentation, un bilan et des perspectives sont donnés. Nous nous intéressons en particulier au codage des formats vidéo immersifs représentés par des nuages de points 3D. Nos derniers travaux montrent l’intérêt d’une approche basée quantification vectorielle algébrique et arborescente, permettant de structurer graduellement la géométrie de la scène, et cela en fonction d’un critère débit-distorsion.
Index
ANR Agence Nationale  de la Recherche
AVC   Advanced video Coding
GOP Group of Pictures
HD   Haute Définition
HEVC   High Efficiency Video Coding
IPI Image Perception Interaction
IRCCyN Institut de Recherche en Communications et Cybernétique de Nantes, UMR 6597
ITN Initial Training Network
IVC   Image & Vidéo Communication
LS2N   Laboratoire des Sciences du Numérique de Nantes, UMR 6004
MVC   Multiview Video Coding
SVH   Système V

Soutenance d’HDR de Sébastien Bourguignon (équipe SIMS)

Sébastien Bourguignon, Maître de Conférences Centrale Nantes au sein de l’équipe SIMS, soutiendra son Habilitation à Diriger des Recherches, intitulé « Modèles et algorithmes dédiés pour la résolution de problèmes inverses parcimonieux en traitement du signal et de l’image » / « Sparsity-enhancing inverse problems in signal and image processing : models and dedicated algorithms »

jeudi 06 février à 9h30, dans l’amphi du bâtiment S (LS2N) de l’ECN.

Jury :
– Laure Blanc-Féraud, Université Nice Sophia-Antipolis / I3S
– Stéphane Canu, INSA Rouen / LITIS
– Olivier Michel, INP Grenoble / GiPSA-Lab
– Pierre Chainais, Centrale Lille / CRIStAL
– Christine De Mol, Université Libre de Bruxelles
– Nicolas Gillis, Université de Mons
– Jérôme Idier, Centrale Nantes / LS2N

Résumé :

Dans de nombreux problèmes inverses rencontrés en traitement du signal et de l’image, le manque d’information contenue dans les données peut être compensé par la prise en compte d’une contrainte de parcimonie sur la solution recherchée. L’hypothèse de parcimonie suppose que l’objet d’intérêt peut s’exprimer, de manière exacte ou approchée, comme la combinaison linéaire d’un petit nombre d’éléments choisis dans un dictionnaire adapté.
Je présenterai différentes contributions apportées dans la construction de modèles parcimonieux. Dans plusieurs contextes applicatifs, nous cherchons à raffiner les représentations classiques reliant les données aux grandeurs d’intérêt à estimer, afin de les rendre plus fidèles à la réalité des processus observés. Cet enrichissement de modèle, s’il permet d’améliorer la qualité des solutions obtenues, s’opère au détriment d’une augmentation de la complexité calculatoire. Nous proposons donc des solutions algorithmiques dédiées, relevant essentiellement de l’optimisation mathématique.

Un premier volet envisage la restauration de données d’imagerie hyperspectrale en astronomie, où l’observation de champs profonds depuis le sol s’effectue dans des conditions très dégradées. Le débruitage et la déconvolution sont abordés sous une hypothèse de parcimonie des spectres recherchés dans un dictionnaire de formes élémentaires. Des algorithmes d’optimisation capables de gérer la grande dimension des données sont proposés, reposant essentiellement sur l’optimisation de critères pénalisés par la norme l_1, par une approche de type descente par coordonnée.

Une deuxième application concerne la déconvolution parcimonieuse pour le contrôle non destructif par ultrasons. Nous construisons, d’une part, un modèle « à haute résolution », permettant de suréchantillonner la séquence parcimonieuse recherchée par rapport aux données, pour lequel nous adaptons les algorithmes classiques de déconvolution. D’autre part, nous proposons de raffiner le modèle convolutif standard en intégrant des phénomènes de propagation acoustique, débouchant sur un modèle non invariant par translation. Ces travaux sont ensuite étendus à l’imagerie ultrasonore, par la construction de modèles de données adaptés et l’optimisation de critères favorisant la parcimonie.

Nous abordons enfin des travaux plus génériques menés sur l’optimisation globale de critères parcimonieux impliquant la « norme » l_0 (le nombre de coefficients non nuls dans la décomposition recherchée). Alors que l’essentiel des travaux en estimation parcimonieuse privilégie des formulations sous-optimales adaptées aux problèmes de grande taille, nous nous intéressons à la recherche de solutions exactes des problèmes l_0 au moyen d’algorithmes branch-and-bound. De tels modèles parcimonieux, s’ils s’avèrent plus coûteux en temps de calcul, peuvent fournir de meilleures solutions et restent de complexité abordable sur des problèmes de taille modérée. Des applications sont proposées pour la déconvolution de signaux monodimensionnels et pour le démélange spectral.

La présentation de quelques pistes de recherche à court et moyen terme conclura cet exposé.

Lien vers le manuscrit : https://uncloud.univ-nantes.fr/index.php/s/xHm8af2D7dsfpRR

Soutenance d’HDR de Mathieu LAGRANGE (équipe SIMS)

Mathieu Lagrange, chercheur CNRS au sein de l’équipe SIMS, soutiendra son habilitation à diriger des recherches intitulée « Modélisation long terme de signaux sonores »
jeudi 14 novembre 2019 à 10h15, dans l’amphi du bâtiment S sur le site de Centrale Nantes.

Jury :
– Frédéric Bimbot, Directeur de Recherche CNRS, IRISA, Rennes
– Alain de Cheveigné, Directeur de Recherche CNRS, ENS Paris
– Béatrice Daille, Professeur, LS2N, Nantes
– Patrick Flandrin, Directeur de Recherche CNRS, ENS Lyon
– Stéphane Mallat, Professeur, Collège de France

Document pdf de 79 pages sur Google Drive.

Résumé :
La modélisation numérique du son a permis de transformer tous nos usages de la musique et plus récemment des environnements sonores. Du codage à la synthèse en passant par l’indexation, un large champ d’applications nécessite de pouvoir analyser le signal sonore, un contenu riche et complexe avec des propriétés d’organisation temporelle et fréquentielle spécifiques. En suivant le paradigme de l’analyse de scènes auditives computationnelles, j’ai proposé au début de ma carrière plusieurs méthodes de segmentation du signal sonore, par des approches de suivi de partiels, ou encore de segmentation de sources harmoniques par coupures normalisées de graphes.
L’avènement des approches par apprentissage a permis de relâcher un certain nombre de contraintes de spécification des modèles de traitement, mais demande un soin particulier dans la mise en place du protocole expérimental avec lequel ces modèles sont estimés et évalués. J’ai contribué à cette problématique en poursuivant deux axes : 1) la proposition, dans le cadre du challenge international dcase, de tâches de reconnaissances d’événements dans des scènes sonores environnementales artificielles dont les facteurs de complexité sont contrôlés et 2) l’implantation et la mise à disposition d’explanes, un environnement de développement d’expérimentations dédié à la facilitation de la reproductibilité des études en sciences des données.
Je montrerai le formalisme de ce dernier en présentant deux contributions récentes : l’une portant sur l’utilisation des réseaux convolutionnels profonds pour le sur-échantillonnage et l’autre portant sur la modélisation par diffusion d’ondelettes des modes de jeux étendus pour l’aide à l’orchestration musicale.
Ces nouvelles approches questionnent d’une nouvelle manière des problèmes fondamentaux en traitement du signal sonore et ouvrent un vaste champ d’expérimentation nécessaire à leur bonne maîtrise. Je discuterai en guise de conclusion le protocole d’exploration que je me propose de suivre pour contribuer à l’extension des connaissances sur ces sujets.

Copyright : LS2N 2017 - Mentions Légales - 
 -