Home » Évènement

Soutenance de thèse Samuel BUCHET (équipe MéForBio)

Samuel BUCHET, doctorant au sein de l’équipe MéForBio, soutiendra sa thèse intitulée « Vérification formelle et apprentissage logique pour la modélisation qualitative à partir de données single-cell » / « Formal verification and automatic learning of logic programs for qualitative modeling with single-cell data« 

Le 14 mars 2022, à 10h, dans l’amphithéâtre du bâtiment S sur le campus de Centrale Nantes.

Elle sera également retransmis via Zoom.

Jury :

Directeur de thèse : Morgan Magnin

Co-directeur : Olivier Roux

Rapporteurs : Madalena Chaves (directrice de recherche, INRIA Sophia Antipolis-Mediterranée) ; Jean-Paul Comet (professeur, I3S, Université Côte d’Azur)

Autres membres : Philippe Dague (professeur émérite, LRI, Université Paris Saclay) ; Sabine Peres (professeur, LBBE, Université de Lyon 1)

Résumé :

La compréhension des mécanismes cellulaires à l’œuvre au sein des organismes vivants repose généralement sur l’étude de leur expression génétique. Cependant, les gènes sont impliqués dans des processus de régulation complexes et leur mesure est difficile à réaliser. Dans ce contexte, la modélisation qualitative des réseaux de régulation génétique vise à établir la fonction de chaque gène à partir de la modélisation discrète d’un réseau d’interaction dynamique.
Dans cette thèse, nous avons pour objectif de mettre en place cette approche de modélisation à partir des données de séquençage single-cell. Ces données se révèlent en effet intéressantes pour la modélisation qualitative, car elles apportent une grande précision et peuvent être interprétées de manière dynamique. Nous développons ainsi une méthode d’inférence de modèles qualitatifs basée sur l’apprentissage automatique de programmes logiques. Cette méthode est mise en œuvre sur des données single-cell et nous proposons plusieurs approches pour interpréter les modèles résultants en les confrontant avec des connaissances préétablies.

Mots-clés : biologie des systèmes, réseaux de régulation génétique, séquençage single-cell, modèles qualitatifs, méthodes formelles, apprentissage automatique

Abstract:

The understanding of cellular mechanisms occurring inside human beings usually depends on the study of its gene expression. However, genes are implied in complex regulatory processes and their measurement is difficult to perform. In this context, the qualitative modeling of gene regulatory networks intends to establish the function of each gene from the discrete modeling of a dynamical interaction network. In this thesis, our goal is to implement this modeling approach from single-cell sequencing data. These data prove to be interesting for qualitative modeling since they bring high precision, and they can be interpreted in a dynamical way. Thus, we develop a method for the inference of qualitative models based on the automatic learning of logic programs. This method is applied on a single-cell dataset, and we propose several approaches to interpret the resulting models by comparing them with existing knowledge.

Keywords: systems biology, genetic regulatory networks, single-cell sequencing, qualitative models, formal methods, machine learning

Soutenance de thèse de Ygor GALLINA (équipe TALN)

Ygor GALLINA, doctorant au sein de l’équipe TALN, soutiendra sa thèse, intitulée « Indexation de bout-en-bout dans les bibliothèques scientifiques numériques » / « End-to-end indexation in digital scientific libraries »

Le 28 mars 2022 à 9h30, dans l’amphithéâtre du bâtiment 34.

Jury :

Rapporteurs :  Josiane MOTHE, Professeure, Université de Toulouse ; Patrick PAROUBEK Professeur, Université de Paris-Saclay
Examinateurs : Lorraine GOEURIOT, Maître de conférence, Université Grenoble Alpes ; Richard DUFOUR Professeur, Nantes Université
Directrice : Béatrice DAILLE, Professeure, Nantes Université
Encadrant : Florian BOUDIN, Maître de conférence, Nantes Université
Résumé : Le nombre de documents scientifiques dans les bibliothèques numériques ne cesse d’augmenter. Les mots-clés, permettant d’enrichir l’indexation de ces documents ne peuvent être annotés manuellement étant donné le volume de document à traiter. La production automatique de mots-clés est donc un enjeu important. Le cadre évaluatif le plus utilisé pour cette tâche souffre de nombreuses faiblesses qui rendent l’évaluation des nouvelles méthodes neuronales peu fiables. Notre objectif est d’identifier précisément ces faiblesses et d’y apporter des solutions selon trois axes. Dans un premier temps, nous introduisons KPTimes, un jeu de données du domaine journalistique. Il nous permet d’analyser la capacité de généralisation des méthodes neuronales. De manière surprenante, nos expériences montrent que le modèle le moins performant est celui qui généralise le mieux. Dans un deuxième temps, nous effectuons une comparaison systématique des méthodes états de l’art grâce à un cadre expérimental strict. Cette comparaison indique que les méthodes de référence comme TF×IDF sont toujours compétitives et que la qualité des mots-clés de référence a un impact fort sur la fiabilité de l’évaluation. Enfin, nous présentons un nouveau protocole d’évaluation extrinsèque basé sur la recherche d’information. Il nous permet d’évaluer l’utilité des mots-clés, une question peu abordée jusqu’à présent. Cette évaluation nous permet de mieux identifier les mots-clés importants pour la tâche de production automatique de mots-clés et d’orienter les futurs travaux.
Mot clés : indexation automatique, mots-clés, évaluation extrinsèque, recherche d’information, génération de mots-clés, méthodes de bout en bout

Abstract: More and more scientific documents are being avaible in digital libraries. Efficient indexing is of the utmost importance for ease of access to scientific knowledge. Keywords, that supplements this indexation, can’t be annotated manually given the volume of document to process. Automatic keyword production is then an important issue. The commonly used evaluation protocol has many weaknesses which make the evaluation of the recent neural models less reliable. Our goal is to precisely identify these weaknesses and to provide solutions given three axis. First, we introduce KPTimes, a dataset from the news domain. It will allow us to analyse the generalisation ability of neural models. Suprisingly, the least performant model is the most generalisable one. Then, we perform a systematic comparison of state-of-the-art methods using a strict experimental setup. This comparison shows that baselines such as TF×IDF are still competitive and that reference keywords quality have a strong impact on evaluation reliability. Finally, we introduce a new extrinsic evaluation protocol based on information retrieval. It allow us to evaluate keyphrase usefulness, an issue that has been given very little attention until now. This evaluation will help us better identify important keywords for automatic keyword production and to guide future works.
Keywords: automatic indexing, keywords, extrinsic evaluation, information retrieval, keyword generation, end-to-end method

Soutenance de thèse de Mourad HARRAT (équipes IS3P, CPS3)

Mourad Harrat, doctorant au sein des équipes IS3P et CPS3, soutiendra sa thèse le vendredi 04 février à 14h00. Lien visio

Jury :

  • Directeur de thèse : Alain BERNARD
  • Co-encadrant : Farouk BELKADI
  • Rapporteurs : Julie LE CARDINAL (Professeur, Laboratoire Génie Industriel (LGI), CentraleSupéléc) ; Laurent GENESTE (Professeur, Laboratoire Génie de Production (LGP), Ecole Nationale d’Ingénieurs de Tarbes)
  • Examinateurs : Marie-Anne LE DAIN (Maître de Conférences HDR, Laboratoire G-SCOP, Grenoble INP), Khaled MEDINI (Maître de Conférences HDR, Laboratoire d’Informatique de Modélisation et d’Optimisation des Systèmes (LIMOS), Mines Saint-Etienne) ; Didier GOURC (Professeur, Centre Génie Industriel, IMT Mines Albi), Guy CAVEROT (Inter’Nov)

Résumé : Le processus de développement des Systèmes Produit-Services (PSS) exige de la part des entreprises l’acquisition de nouvelles compétences provenant le plus souvent d’entreprises externes afin de prendre en charge le développement des composants hétérogènes d’un PSS.
Cette collaboration dans ce contexte présente cependant plusieurs caractéristiques particulières qui diffèrent du contexte de Développement de Produits Nouveaux (DPN), notamment une complexité plus élevée pouvant imposer plus de défis de collaboration et conduire à l’échec du projet de développement.
Le but de cette thèse est de supporter les collaborations inter-entreprises dans le contexte PSS à travers la construction d’un Framework de pilotage et d’évaluation de la performance de la collaboration.
Dans le Framework proposé, cette performance est mesurée par des facteurs qui sont basés sur le Capital Social. Une mesure objective de ces facteurs est effectuée grâce à des indicateurs de performance (KPIs) dont certains sont liés au contexte organisationnel des PSS. Par ailleurs, les techniques de la logique floue sont utilisées pour construire le modèle d’évaluation. Enfin, ce Framework est testé et validé quantitativement et qualitativement à travers trois études de cas industriels.

Mots-clés : Collaboration inter-entreprises, Systèmes Produit-Services (PSS), Évaluation

Abstract: The Product-Service Systems (PSS) development process requires companies to acquire new skills, most often from external companies, in order to support the development of the heterogeneous components of a PSS. However, this collaboration in this context has several unique characteristics that differ from the New Product Development (NPD) context, including higher complexity that can impose more collaborative challenges and lead to development project failure.
The aim of this thesis is to support inter-company collaborations in the PSS context through the construction of a Framework for managing and evaluating the performance of the collaboration.
In the proposed Framework, this performance is measured by factors that are based on Social Capital. An objective measurement of these factors is carried out through performance indicators (KPIs), some of which are linked to the organizational context of the PSS. In addition, fuzzy logic techniques are used to build the evaluation model. Finally, this Framework is tested and validated quantitatively and qualitatively through three industrial case studies.

Keywords: Interfirm collaboration, Product-Service Systems (PSS), Assessment

 

Soutenance de thèse de Abdelkrim Ramzi YELLES-CHAOUCHE (équipe SLP)

Ramzi Yelles-Chaouche, doctorant au sein de l’équipe SLP soutiendra sa thèse intitulée « Outils d’aide à la décision pour la mise en place et la reconfiguration dynamique des systèmes de production reconfigurables » / « Decision support tools for the design and dynamic reconfiguration of reconfigurable manufacturing systems »

mardi 14 décembre 2021 à h, à salle /IMT-Atlantique

Jury :
– Directeur de thèse : Alexandre DOLGUI – Professeur, IMT Atlantique, Nantes
– Co-encadrant : Nadjib BRAHIMI – Associate Professor, Rennes School of Business ; Evgeny GUREVSKY – Maître de Conférences, Université de Nantes
– Rapporteurs : Xavier DELORME – Professeur, École des Mines de Saint-Étienne ; Nathalie SAUER -Professeure, Université de Lorraine, Metz
– Autres membres : Jean-Charles BILLAUT – Professeur, Université de Tours ; Mireille JACOMINO -Professeure, Institut Polytechnique de Grenoble ; André ROSSI – Professeur, Université Paris-Dauphine
– Invités : Pierre CASTAGNA – Professeur Émérite, Université de Nantes ; Francisco GAMBOA – Ingénieur de Recherche, IRT Jules Verne, Bouguenais ; Sébastien RUBRECHT – Ingénieur de Recherche, IRT Jules Verne, Bouguenais

Résumé : Les travaux de recherche effectués dans cette thèse traitent de l’optimisation dans la conception de lignes de production reconfigurables multi-produits. Ce type de lignes est caractérisé par leur capacité à traiter différents produits, où chacun d’entre eux nécessite une configuration adéquate de la ligne. Le passage d’une configuration de produit vers une autre implique que la ligne doit être reconfigurée en réaffectant certains tâches/modules entre les stations/machines disponibles. Ainsi, étant donné un ensemble de produits, les deux problèmes d’optimisation suivants sont étudiés. Le premier consiste à concevoir une configuration de ligne admissible pour chaque produit de telle sorte que le nombre de réaffectations de tâches soit minimisé. Le deuxième problème, quant à lui, vise à identifier le nombre minimal de modules nécessaire pour fabriquer tous les produits. Pour ces deux problèmes, nous avons initialement proposé une formulation PLNE. Ensuite, nous avons développé une approche heuristique, nommée Halt-and-Fix, pour le premier problème, et une méthode de décomposition pour le second. Ces deux problèmes ouvrent la voie à des perspectives de recherche intéressantes.

Mots-clés : Production, reconfigurabilité, modularité, multi-produit, équilibrage de ligne, optimisation

————————————————————————————————————————————————————————————————————————————————–
Abstract: The research work conducted in this thesis deals with the optimization in the design of multi-product reconfigurable lines. Such lines are characterized by their ability to handle different products, where each of them requires an appropriate line configuration.Moving from one product configuration to another means that the line have to be reconfigured by reassigning some tasks/modules between the available stations/machines. Thus,given a set of products, the following two optimization problems are studied. The first one consists in designing an admissible line con-
figuration for each product so that the number of task reassignments is minimized when switching between configurations. The second problem aims at identifying the minimum number of modules needed to manufacture all the products. For these two problems, we have proposed, at first, a MILP formulation.Subsequently, we have developed a heuristic approach, called Halt-and-Fix, for the first problem, and a decomposition method for the second. These two problems open the way to interesting research perspectives.

Keywords: Manufacturing, reconfigurability, modularity, multi-product, line balancing, optimization

 

Soutenance de thèse de Ali AK (équipe IPI)

Ali Ak, doctorant au sein de l’équipe IPI, soutiendra sa thèse intitulée « Évaluation de la qualité perceptuelle de contenus multimédias immersifs : HDR, champs lumineux et vidéos volumétriques » / « Perceptual quality evaluation of immersive multimedia content: HDR, Light Field and Volumetric Video »

lundi 24 janvier 2022 à

Jury :
– Directeur de thèse : Patrick LE CALLET – Professeur, Université de Nantes
– Rapporteurs : Maria MARTINI – Professeure, Kingston University ; Aladine CHETOUANI – Maître de conférence, HDR, Université d’Orléans
– Autres membres : Søren FORCHAMMER – Professeur, Technical University of Denmark; Frédéric DUFAUX -Directeur de Recherche CNRS, Paris Saclay ; Federica BATTISTI -Ass. Professeure, University of Padova

Résumé : Des formats multimédias immersifs ont émergé comme un puissant canevas dans de nombreuses disciplines pour offrir une expérience utilisateur hyperréaliste. Ils peuvent prendre de nombreuses formes, telles que des images HDR, des champs lumineux, des nuages de points et des vidéos volumétriques. L’objectif de cette thèse est de proposer de nouvelles méthodologies pour l’évaluation de la qualité de tels contenus. La première partie de la thèse porte sur l’évaluation subjective de la qualité d’image. Plus précisément, nous proposons une stratégie de sélection de contenu et d’observateurs, ainsi qu’une analyse approfondie de la fiabilité des plate-formes de crowdsourcing pour collecter des données subjectives à grande échelle. Nos résultats montrent une amélioration de la fiabilité des annotations subjectives collectées et répondent aux exigences liées en crowdsourcing à la reproduction d’expériences menés en laboratoire. La deuxième partie contribue à l’évaluation objective de la qualité avec une métrique de qualité d’image basée sur l’apprentissage automatique utilisant les informations de seuil de discrimination, et une métrique de qualité d’image pour les champs lumineux sans référence basée sur des représentations d’images planes épipolaires. Enfin, nous étudions l’impact des méthodologies d’agrégation temporel sur les performances des métriques de qualité objective pour les vidéos volumétriques. Dans l’ensemble, nous démontrons comment nos résultats peuvent être utilisés pour améliorer l’optimisation des outils de traitement pour les contenus multi-médias immersifs.

Mots-clés : Évaluation de la qualité, médias immersifs, mappage ton local, champs lumineux, vidéo volumétrique

—————————————————————————————————————————————————————————————————————————————————————-
Abstract: Immersive multimedia formats emerged as a powerful canvas in numerous disciplines for delivering hyper-realistic user experience. They can take many forms, such as HDR images, Light Fields, Point Clouds,and Volumetric Videos. The goal of this thesis is to propose novel methodologies for the quality assessment of such multimedia content. The first part of the thesis focuses on subjective image quality assessment. More specifically, we propose a content selection strategy, observer screening tools, and an extensive analysis on the reliability of crowdsourcing platforms to produce a large-scale dataset. Our findings improve the reliability
of the collected subjective annotations and address issues to transfer laboratory experiments into crowdsourcing. The second part contributes to the objective quality evaluation with a learning-based image quality metric utilizing the just noticeable difference information and a no-reference light field image qualitymetric based on epipolar plane image representations. Finally, we investigate the impact of temporal pooling methodologies in objective quality metric performances for volumetric videos. Overall, we demonstrate how our findings can be used to improve the optimization of processing tools for immersive multimedia content.

Keywords: Quality evaluation, immersive media, tone mapped images, light fields, volumetric video

 

 

Soutenance de thèse de Seyyed Ehsan HASHEMI PETROODI (équipe SLP)

Seyyed Ehsan Hashemi Petroodi, doctorant au sein de l’équipe SLP, soutiendra sa thèse intitulée « Optimisation combinatoire pour l’affectation des opérateurs et la configuration des équipements dans les lignes d’assemblage reconfigurables » / « Combinatorial optimization for the configuration of workforce and equipment in reconfigurable assembly lines »

jeudi 9 décembre 2021 à  10h, dans l’amphi Besse de l’IMT-A.

Jury :
– Directeur de thèse : Alexandre Dolgui, Professeur à IMT Atlantique, Nantes, France
– Co-encadrants. de thèse : Simon Thevenin, Maitre assistant à IMT Atlantique, Nantes, France ; Sergey Kovalev, Professeur associé à INSEEC U. Research Center, Lyon, France
– Rapporteurs : Olga Battaïa, Professeur à KEDGE Business School, Bordeaux, France ; Lyes Benyoucef Professeur à Aix-Marseille Université, Marseille, France
– Autres membres : Alena Otto, Professeur à l’Université de Passau, Allemagne ; Reza Tavakkoli-Moghaddam, Professeur à l’Université de Téhéran, Iran ; Farouk Yalaoui, Professeur à l’Université de Technologie de Troyes, France
– Invité(s) : Mikhail Y. Kovalyov, Professeur, Membre-correspondant de National Academy of Sciences of Belarus, Minsk, Bélarus ; Ali Siadat, Professeur à École Nationale Supérieure d’Arts et Métiers, Metz, France

Résumé : Une forte personnalisation de produits et des fréquentes fluctuations du marché poussent les entreprises industrielles à utiliser des lignes d’assemblage à modèles multiples/mixtes, flexibles et reconfigurables plutôt que des lignes dédiées. Cette thèse de doctorat est consacrée à cette problématique.Elle est portée principalement sur la conception et l’équilibrage de lignes d’assemblage à
modèles mixtes. Les questions de l’efficacité de telles lignes, l’importance d’affectation optimale de tâches et d’utilisation des opérateurs mobiles sont posées et étudiées. Pour augmenter la flexibilité de la ligne, nous prenons en compte différents types d’affectation des tâches : fixe, dépendant du modèle et dynamique. Nous cherchons à concevoir une ligne qui peut gérer la variété possible de produits entrants. Nous utilisons des techniques d’optimisation combinatoire, et, en particulier, des approches d’optimisation robuste. Nous présentons une revue extensive de la littérature sur l’équilibrage des lignes, la planification des opérateurs et les stratégies de reconfiguration de lignes via la réaffectation des opérateurs. Le premier problème de la thèse porte sur la sélection de configuration entre une ligne unique à multi-modèles et plusieurs lignes dédiées. Le second problème consiste à concevoir et à équilibrer une modèle pour une gamme donnée de produits entrants sur la ligne. L’objectif est de minimiser le coût total de la ligne composé des coûts d’opérateurs et d’équipement dans le pire des cas. Le troisième problème est une extension du deuxième, où les tâches peuvent être affectées de manière dynamique. Enfin, dans le dernier, quatrième problème, nous étendons le troisième problème au cas où la séquence de produits est découverte takt par takt. Dans ce contexte, nous minimisons à la fois l’espérance mathématique de coût total et le coût dans le pire des cas. Afin de résoudre ces problèmes, nous développons plusieurs méthodes exactes et des heuristiques : des modèles de programmation linéaire en variables mixtes, un algorithme glouton, une recherche locale, une matheuristique et une heuristique de type  » fixer et optimiser », entre autres. Nous appliquons également un processus de décision markovien au dernier problème, ce qui représente la première étude qui utilise cette approche pour l’équilibrage de lignes dans la littérature. Des expériences numériques évaluent la performance des modèles proposés en termes de la qualité de solution et du temps de calcul. Nous tirons des conclusions managériales dans chaque chapitre. Nos résultats montrent la supériorité de l’affectation dynamique des tâches par rapport aux affectations fixes et dépendantes de modèle dans différentes situations de production.

Mots-clés : Optimisation combinatoire, Équilibrage de lignes d’assemblage, Opérateurs mobiles, Reconfigurabilité, Optimisation robuste, Optimisation stochastique

—————————————————————————————————————————————————————————————-
Abstract: Mass customization and frequent market fluctuations push industrial companies to employ flexible and reconfigurable multi/mixed-model assembly lines instead of dedicated ones. This thesis focuses on this problem. It concentrates mainly on mixedmodel assembly line design and balancing problems. The questions concerning the efficiency of such lines, the importance of optimal task assignment and use of walking workers are asked and studied. To increase the flexibility of the line, we account for different types of task assignments: fixed, model-dependent, and dynamic. We aim to design a line that can handle various entering product models. We use combinatorial optimization methods, and, in particular, robust optimization approaches. We present an extensive literature review on line balancing, workforce planning, and workforce reconfiguration strategies in different production systems. The first problem addresses a configuration selection problem between a single multi-model line and multiple dedicated lines. The second problem consists in designing and balancing a mixed-model assembly line with walking workers. We propose fixed and model-dependent task assignments for a given set of product mixes. The goal is to minimize the total cost of workers and equipment for the worst case. The third problem extends the second one. It considers the dynamic task assignment. In the last problem, we extend the third problem for the case where the sequence of products unfolds takt by takt. In this context, we minimize both the expected total cost and the worst-case cost. In order to solve the considered problems, we develop several exact methods and heuristics: mixed-integer linear programming models, greedy algorithm, local search, mat-heuristic and fixed-and-optimize heuristics among others. We also apply a Markov Decision Process to the proposed line balancing problem in the last chapter. It is the first study applying this method to a line balancing problem. Computational experiments evaluate the performance of the proposed approaches in terms of solution quality and time consumption. We draw managerial insights in each chapter. Our results show the superiority of the dynamic task assignment compared to model-dependent and fixed ones in different production situations.

Keywords: Combinatorial optimization, Assembly line balancing, Walking workers, Reconfigurability, Robust optimization, Stochastic optimization.

Soutenance de thèse de Dimitri SAINGRE (équipe STACK)

Dimitri Saingre, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Comprendre la consommation énergétique des blockchains : un regard sur les contrats intelligents » / « Understanding the energy consumption of blockchains: a focus on smart contracts »

lundi 13 décembre 2021 à 10h, à l’IMT Atlantique – campus de Nantes.

Jury :
– Directeur de thèse : Jean-Marc MENAUD, Professeur (HDR), IMT Atlantique
– Co-dir. de thèse : Thomas LEDOUX, Professeur (HDR), IMT Atlantique
– Rapporteurs : Maria POTOP-BUTUCARU, Professeur (HDR), Sorbonne Université ; Romain ROUVOY, Professeur (HDR), Université de Lille
– Autres membres : Jean-Marc PIERSON, Professeur (HDR), Université de Toulouse ; Anthony SIMONET-BOULOGNE, Responsable des projets Scientifique, IExec

Résumé : Les systèmes de chaînes de blocs sont des registres répliqués dans un réseau pair à pair. Elles ont connu un développement rapide depuis quelques années en s’illustrant dans de nombreux domaines d’activités. En permettant le traitement et la sauvegarde de données dans un contexte distribué et Byzantin, ces technologies ont le potentiel de modifier de nombreux secteurs. Par exemple, dans le cadre de la finance décentralisée, les cryptomonnaies se développement comme une alternative aux monnaies fiduciaires en proposant un système de paiement dépourvu de tiers de confiance. Cependant, une certaine inquiétude vis-à-vis de l’impact environnemental des chaînes de blocs a émergé en parallèle de leur développement. En particulier, de nombreuses recherches ont démontré le coût énergétique important des chaînes basées sur les preuves de travail.
Dans cette thèse, nous proposons de contribuer à l’étude expérimentale du coût énergétique des solutions logicielles basées sur les chaînes de blocs. Face à l’enrichissement progressif de l’écosystème lié aux chaînes de blocs, nous proposons BCTMark, un nouvel outil de déploiement et d’évaluation des performances des chaînes de blocs. Partant de cet outil, nous concentrons notre étude sur l’impact des contrats intelligents sur la chaîne de blocs Ethereum. D’une part, nous proposons un modèle pour l’estimation du coût énergétique des contrats intelligents développé pour Ethereum. D’autre part, nous proposons un nouveau protocole pour l’identification et l’élimination des contrats non utilisés dans le but de proposer des chaînes de blocs plus frugales en calculs et espaces de stockages.

Mots-clés : Chaînes de blocs, contrats intelligents, consommation énergétique, système distribués, systèmes pairs à pairs

—————————————————————————————————————————————————————————————————————————————————————-
Abstract: Blockchain systems are ledgers distributed in a peer-to-peer network. They have been developing rapidly over the past few years and have been used in many domains. By enabling the processing and storage of data in a distributed and Byzantine context, these technologies have the potential to change many sectors. For instance, in the context of decentralized finance, cryptocurrencies are developing as an alternative to fiat currencies by offering a payment system without relying on a trusted third party. However, some concerns about the environmental impacts of blockchains have emerged in parallel with their development. In particular, many studies have demonstrated the high energy cost of proof-of-work based blockchains.
In this thesis, we propose to contribute to the experimental study of the energy cost of blockchain-based software solutions. Facing the progressive enrichment of the blockchain ecosystem, we propose BCTMark, a new tool for deploying and evaluating the performance of blockchains. Based on this tool, we focus our study on the impact of smart contracts on the blockchain Ethereum. On the one hand, we propose a model for estimating the energy cost of smart contracts developed for Ethereum. On the other hand, we propose a new protocol for the identification and elimination of unused contracts in order to propose blockchains that are more frugal in computation and storage space.

Keywords: blockchain, smart contracts, energy consumption, distributed systems, peer to peer systems

Soutenance de thèse de Maxime BÉLAIR (équipe STACK)

Maxime Bélair, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Défense contre les attaques à l’aune des nouvelles formes de virtualisation des infrastructures » / « Defense against attacks with regard to new virtualisation technics »

mercredi 8 décembre à 14h, dans l’Amphi BESSE, à l’IMT Atlantique campus de Nantes.

Jury :
– Directeur de thèse : Jean-Marc MENAUD, Professeur, IMT Atlantique
– Co-dir. de thèse : Sylvie LANIEPCE, Ingénieure de recherche, Orange Labs
– Rapporteurs : Alain TCHANA, Professeur, ENS Lyon ; Marie-Laure POTET, Professeure, ENSIMAG
– Président : Gaël THOMAS, Professeur, Télécom SudParis
– Autres membres : Jerémy BRIFFAUT, Maître de conférences, INSA CVL ; Aurélien FRANCILLON, Professeur associé, EURECOM

Résumé : La conteneurisation est une forme de virtualisation de niveau système d’exploitation présentant de bonnes propriétés de performances et de simplicité de déploiement ; elle facilite la réutilisation du code. Les conteneurs sont donc massivement utilisés aujourd’hui. Toutefois, de par leur grande surface d’attaque et les vulnérabilités qu’ils peuvent souvent contenir, les conteneurs posent de nouveaux enjeux de sécurité. Les nombreuses approches défensives existantes ne suffisent pas à répondre à toutes leurs problématiques de sécurité.
Dans cette thèse, nous montrons que la programmabilité du noyau permet de déployer des services de sécurité innovants pour améliorer la sécurité des conteneurs. Après avoir montré les spécificités des environnements conteneurs et leur problématiques et opportunités de sécurité, nous présentons le design et l’implémentation de SNAPPY, une nouvelle infrastructure logicielle permettant de mettre en place des politiques de sécurité programmables à grain fin de niveau noyau, particulièrement adaptée à la protection des conteneurs. Nous présentons également SecuHub, une nouvelle infrastructure logicielle de distribution unifiée de politiques de mitigation pour CVE (Common Vulnerabilities and Exposures), permettant donc aux conteneurs de se protéger simplement contre les vulnérabilités connues. Nous montrons finalement que le surcoût en performance de SecuHub et SNAPPY est minimal.

Mots-clés : Sécurité, Conteneurs, SNAPPY, SecuHub, Noyau, Programmable

—————————————————————————————————————————————————————————————————————————————————————-

Abstract: Containerization is an OS-level virtualisation technique providing good performances, ease of deployment and code reusability properties. Containers are therefore massively used nowadays. However, due to their big attack surface and to the vulnerability they may contain, containers bring new security challenges. The numerous existing defensive approaches are not sufficent to respond to all their security issues.
In this thesis, we show that kernel programmability allows to deploy innovative security services to improve the security of containers. After showing the specificities of containers environments and associated security challenges and opportunities, we present the design and implementation of SNAPPY, a new framework allowing to setup fine-grained programmable kernel security policies notably suitable to protect containers.We also present SecuHub, a new framework enabling to distribute CVE mitigation policies, allowing containers to protect themselves against known vulnerabilities. We finally show that SNAPPY and SecuHub can be used with a very low performance overhead.

Keywords: Security, Containers, SNAPPY, Secuhub, Kernel, Programmable

Soutenance de thèse de Julian ERSKINE (équipe ARMEN)

Julian Erskine, doctorant au sein de l’équipe ARMEN, soutiendra sa thèse intitulée « Commande Dynamique et Singularités des Flottes de Quadrirotors Basé sur des Bearings » / « Dynamic Control and Singularities of Rigid Bearing-Based Formations of Quadrotors »

vendredi 3 décembre 2021 à 10h, dans l’amphi du bâtiment S, sur le campus de Centrale Nantes.

Jury :
– Directeur de thèse : Isabelle FANTONI
– Co-encadrant : Abdelhamid CHRIETTE
– Rapporteurs : Antonio FRANCHI (maître de conférence, Université de Twente, NL) ; Guillaume ALLIBERT (maître de conférence, Université de Nice Sophia Antipolis)
– Autres membres : Ouiddad LABBANI-IGBIDA (Professeur, Université de Limoges) ; Paolo ROBUFFO GIORDANO (Directeur de Recherche CNRS, INRIA/IRISA Rennes), Sébastien BRIOT (Chargé de Recherche CNRS, LS2N)

Résumé : Le contrôle des formations basées sur les bearings (direction relative à l’observateur) permettent aux flottes de quadrirotors de se déplacer vers une géométrie désirée, en utilisant des mesures visuelles, extraites de caméras monoculaires embarquées. Des travaux antérieurs ont traité les quadrirotors comme des intégrateurs simples ou doubles et doivent ainsi être ajustés et filtrés de manière à compenser les non-linéarités non modélisées. Cette thèse a pour objectif d’atteindre des formations basées sur les bearings plus rapides grâce à des contrôleurs d’ordre supérieur, en tenant compte des dynamiques non-linéaires du quadrirotor et des caractéristiques visuelles. Deux contrôleurs dynamiques sont développés, à savoir un contrôleur basé sur un asservissement visuel du second ordre et une commande prédictive montrant des performances améliorées et complétées par des contraintes telles que l’évitement d’obstacles. Toutes les formations basées sur des bearings dépendent d’un degré suffisant de rigidité. Bien que celui-ci puisse être évalué numériquement, la rigidité est une fonction de la position de tous les robots dans la flotte. Ceci étant, les travaux précédents ne pouvaient pas garantir la rigidité pour des formations plus larges que quelques robots. La deuxième contribution de cette thèse est l’évaluation des géométries singulières où une certaine formation rigide devient flexible. Ceci mène à un système de classification basé sur des contractions d’ensembles de contraintes, qui permet d’identifier les géométries singulières pour des grandes formations afin de garantir la rigidité.

Mots-clés : Quadrirotor, Formations multi-robots, Commande prédictive, Singularités, Rigidité

—————————————————————————————————————————————————————————————————————————————————————-

Abstract: Bearing formation control allows groups of quadrotors to manoeuver in a desired geometry, using only visual measurements extractable from embedded monocular cameras. Prior works have treated quadrotors as single or double integrators, and as a result must operate slowly to compensate for unmodelled non-linearities. This thesis allows for faster bearing formations by developping higher-order controllers, considering the non-linear quadrotor and visual feature dynamics. A dynamic feedback controller based on second-order visual servoing and a model predictive controller are developped and tested in simulation and experiments, showing improved dynamic manoeuvering performance. The later is augmented with constraints such as field of view limitations and obstacle avoidance. All bearing formation algorithms depend on a sufficient degree of bearing rigidity to guarantee performance. This may be evaluated numerically, but as the rigidity is a function of the formation embedding, previous work could not guarantee rigidity in formations larger than a few robots. The second main contribution of this thesis is the evaluation of bearing rigidity singularities (i.e. formation graph embeddings where an otherwise rigid formation becomes flexible) by applying existing geometric analysis methods on an kinematic mechanism which is analoguous to the kinematic constraints imposed by the formation controller and robot models. This is extended to a novel classification system based on a contraction of constraint sets that can determine singular geometries for large formations, allowing for a formulation of a set of guaranteed rigid configurations without an ad-hoc kinematic analysis of individual formations.

Keywords: Quadrotors, Bearing formations, Predictive control, Singularities, Rigidity

Soutenance de thèse de Ludivine MORVAN (équipe SIMS)

Ludivine Morvan, doctorante au sein de l’équipe SIMS, soutiendra sa thèse intitulée « Prédiction de la progression du myélome multiple par imagerie TEP : adaptation des forêts de survie aléatoires et de réseaux de neurones convolutionnels » / « Prediction of multiple myeloma progression by PET imaging: adaptation of random survival forests and convolutional neural networks »

mardi 7 décembre 2021 à 16h30, dans l’amphithéâtre du bâtiment S sur le site de Centrale de Nantes. La thèse sera retransmise en direct sur Zoom : https://ec-nantes.zoom.us/j/99490307550 .

Jury :
– Directeur de thèse : Pr. Diana Mateus
– Co-encadrant : Thomas Carlier (Physicien médical, CRCINA – INSERM)
– Rapporteurs : Pr. Su Ruan (Professeure des universités, LITIS) ; Mathieu Hatt (Chercheur, LaTIM)
– Autres membres : Carole Lartizien (Directrice de recherches, CREATIS) ; (Enseignant-chercheur, Imagerie et Cerveau – INSERM)
– Invité : Pr. Françoise Kraeber-Bodéré (Cheffe du service de médecine nucléaire du CHU de Nantes, CRCINA – INSERM)

Résumé : L’objectif de ces travaux est de fournir un modèle permettant la prédiction de la survie et l’identification de biomarqueurs dans le contexte du myélome multiple (MM) à l’aide de l’imagerie TEP (Tomographie à émission de positons) et de données cliniques. Cette thèse fut divisée en deux parties : La première permet d’obtenir un modèle basé sur les forêts de survie aléatoires (RSF). La seconde est basée sur l’adaptation de l’apprentissage profond à la survie et à nos données. Les contributions principales sont les suivantes : 1) Production d’un modèle basé sur les RSF et les images TEP permettant la prédiction d’un groupe de risque pour les patients atteints de MM. 2) Détermination de biomarqueurs grâce à ce modèle 3) Démonstration de l’intérêt des radiomiques TEP 4) Extension de l’état de l’art des méthodes d’adaptation de l’apprentissage profond à une petite base de données et à de petites images 5) Étude des fonctions de coût utilisées en survie. De plus, nous sommes, à notre connaissance, les premiers à investiguer l’utilisation des RSF dans le contexte du MM et des images TEP, à utiliser du pré-entraînement auto-supervisé avec des images TEP et, avec une tâche de survie, à adapter la fonction de coût triplet à la survie et à adapter un réseau de neurones convolutionnels à la survie du MM à partir de lésions TEP.

Mots-clés : Myélome multiple, Réseaux de neurones convolutionnels, Analyse de survie, Forêts de survie aléatoires, Tomographie à Emission de Positons

—————————————————————————————————————————————————————————————————————————————————————-

Abstract: The aim of this work is to provide a model for survival prediction and biomarker identification in the context of multiple myeloma (MM) using PET (Positron Emission Tomography) imaging and clinical data. This PhD is divided into two parts: The first part provides a model based on Random Survival Forests (RSF). The second part is based on the adaptation of deep learning to survival and to our data. The main contributions are the following: 1) Production of a model based on RSF and PET images allowing the prediction of a risk group for multiple myeloma patients. 2) Determination of biomarkers using this model. 3) Demonstration of the interest of PET radiomics. 4) Extension of the state of the art of methods for the adaptation of deep learning to a small database and small images. 5) Study of the cost functions used in survival. In addition, we are, to our knowledge, the first to investigate the use of RSFs in the context of MM and PET images, to use self-supervised pre-training with PET images, and, with a survival task, to fit the triplet cost function to survival and to fit a convolutional neural network to MM survival from PET lesions.

Keywords: Multiple myeloma, Convolutional Neural Network, Survival analysis, Random Survival Forest, Positron Emission Tomography

Copyright : LS2N 2017 - Mentions Légales - 
 -