Home » Évènement

Soutenance de thèse Maël Millardet (équipe SIMS)

Maël Millardet, doctorant au sein de l’équipe SIMS, soutiendra sa thèse, intitulée « Amélioration de la quantification des images TEP à l’yttrium 90″ / « Improvement of the quantification of yttrium-90 PET images« 

lien streaming : https://ec-nantes.zoom.us/j/96497900284 (Code secret : 0im&7X8^)

Le 11 avril à 9h00, dans l’amphithéâtre S à l’École Centrale.

Jury :

  • Directeur de thèse : Saïd MOUSSAOUI (Professeur des universités, LS2N, ECN)
  •  Co-directeur de thèse : Thomas CARLIER ( physicien médical, CRCINA, CHU Nantes)
  • Co-encadrant : Diana MATEUS (Professeur des universités, LS2N, ECN)
  • Rapporteurs : Claude COMTAT (Ingénieur de recherche CEA, HDR, SHFJ, Université Paris-Saclay) ; Nicolas DOBIGEON (Professeur des universités, IRIT, Université de Toulouse)
  • Examinateurs : Emilie CHOUZENOUX (Chargée de recherche Inria, CVN, CentraleSupélec) ; Mai NGUYEN-VERGER (Professeur des universités, ETIS, CY Cergy Paris Université) ; Voichita MAXIM (Maîtresse de conférences, CREATIS, INSA Lyon)
  • Invités : Françoise KRAEBER-BODÉRÉ (Professeur des universités praticienne hospitalière, CRCINA, CHU de Nantes) ; Jérôme IDIER (Directeur de recherche CNRS, LS2N UMR CNRS 6004)

Résumé : La popularité de l’imagerie TEP à l’yttrium 90 va grandissante. Cependant, la probabilité qu’une désintégration d’un noyau d’yttrium 90 mène à l’émission d’un positon n’est que de 3,2 × 10-5, et les images reconstruites sont par conséquent caractérisées par un niveau de bruit élevé, ainsi que par un biais positif dans les régions de faible activité. Pour corriger ces problèmes, les méthodes classiques consistent à utiliser des algorithmes pénalisés, ou autorisant des valeurs négatives dans l’image. Cependant, une étude comparant et combinant ces différentes méthodes dans le contexte spécifique de l’yttrium 90 manquait encore à l’appel au début de cette thèse. Cette dernière vise donc à combler ce manque. Malheureusement, les méthodes autorisant les valeurs négatives ne peuvent pas être utilisées directement dans le cadre d’une étude dosimétrique, et cette thèse commence donc par proposer une nouvelle méthode de post-traitement des images, visant à en supprimer les valeurs négatives en en conservant les valeurs moyennes le plus localement possible. Une analyse complète multi-objectifs de ces différentes méthodes est ensuite proposée. Cette thèse se termine en posant les prémices de ce qui pourra devenir un algorithme permettant de proposer un jeu d’hyper-paramètres de reconstruction adéquats, à partir des seuls sinogrammes.

Mots-clés : TEP, algorithmes de reconstruction tomographique, yttrium 90, optimisation linéaire, analyse multi-objectifs


Abstract: Yttrium-90 PET imaging is becoming increasingly popular. However, the probability that decay of a yttrium-90 nucleus will lead to the emission of a positron is only 3.2 × 10-5, and the reconstructed images are therefore characterised by a high level of noise, as well as a positive bias in low activity regions. To correct these problems, classical methods use penalised algorithms or allow negative values in the image. However, a study comparing and combining these different methods in the specific context of yttrium-90 was still missing at the beginning of this thesis. This thesis, therefore, aims to fill this gap. Unfortunately, the methods allowing negative values cannot be used directly in a dosimetric study. Therefore, this thesis starts by proposing a new method of post-processing the images, aiming to remove the negative values while keeping the average values as locally as possible. A complete multi-objective analysis of these different methods is then proposed. This thesis ends by laying the foundations of what could become an algorithm providing a set of adequate reconstruction hyper-parameters from sinograms alone.

Keywords: PET, tomographic reconstruction algorithms, yttrium-90, linear programmation, multi-objective analysis

Soutenance de thèse de Pierre-Clément BLAUD (équipe CODEx)

Pierre-Clément BLAUD, doctorant au sein de l’équipe CODEx, soutiendra sa thèse intitulée « Pilotage distribué de systèmes multi-énergies en réseau »

Le 21 mars 2022 à 10h dans l’amphi George Besse de l’IMT Atlantique.

Jury :

M. Mazen ALAMIR – Directeur de recherche – GIPSA-lab
M. Hervé GUEGUEN – Professeur – CENTRALE SUPELEC Rennes
M. Eric BIDEAUX- Professeur- INSA Lyon
Mme Pauline KERGUS- Chargé de recherche- INP ENSEEIHT
M. Yacine GAOUA- ingénieur-chercheur- CEA CEA-Liten
M. Fabien CLAVEAU- Maître de conférences- IMT Atlantique
M. Philippe CHEVREL- Professeur- IMT Atlantique
M. Pierrick HAURANT- Maître de conférences- IMT Atlantique

Résumé : Un système multi-énergie se définit comme un ensemble de convertisseurs énergétiques
permettant le couplage de différents vecteurs énergétiques (gaz, électricité, chaud, froid, etc.) pour répondre
aux demandes d’unités de production, industrielles ou agricoles, voire d’immeubles abritant les activités
humaines (logement, travail, loisirs) par exemple. La littérature actuelle foisonne de cas d’étude démontrant
leur potentiel significatif pour des gains de flexibilité et d’efficacité énergétiques, moyennant la valorisation des
synergies entre vecteurs et donc une commande optimale.

Soutenance de thèse Samuel BUCHET (équipe MéForBio)

Samuel BUCHET, doctorant au sein de l’équipe MéForBio, soutiendra sa thèse intitulée « Vérification formelle et apprentissage logique pour la modélisation qualitative à partir de données single-cell » / « Formal verification and automatic learning of logic programs for qualitative modeling with single-cell data« 

Le 14 mars 2022, à 10h, dans l’amphithéâtre du bâtiment S sur le campus de Centrale Nantes.

Elle sera également retransmis via Zoom.

Jury :

Directeur de thèse : Morgan Magnin

Co-directeur : Olivier Roux

Rapporteurs : Madalena Chaves (directrice de recherche, INRIA Sophia Antipolis-Mediterranée) ; Jean-Paul Comet (professeur, I3S, Université Côte d’Azur)

Autres membres : Philippe Dague (professeur émérite, LRI, Université Paris Saclay) ; Sabine Peres (professeur, LBBE, Université de Lyon 1)

Résumé :

La compréhension des mécanismes cellulaires à l’œuvre au sein des organismes vivants repose généralement sur l’étude de leur expression génétique. Cependant, les gènes sont impliqués dans des processus de régulation complexes et leur mesure est difficile à réaliser. Dans ce contexte, la modélisation qualitative des réseaux de régulation génétique vise à établir la fonction de chaque gène à partir de la modélisation discrète d’un réseau d’interaction dynamique.
Dans cette thèse, nous avons pour objectif de mettre en place cette approche de modélisation à partir des données de séquençage single-cell. Ces données se révèlent en effet intéressantes pour la modélisation qualitative, car elles apportent une grande précision et peuvent être interprétées de manière dynamique. Nous développons ainsi une méthode d’inférence de modèles qualitatifs basée sur l’apprentissage automatique de programmes logiques. Cette méthode est mise en œuvre sur des données single-cell et nous proposons plusieurs approches pour interpréter les modèles résultants en les confrontant avec des connaissances préétablies.

Mots-clés : biologie des systèmes, réseaux de régulation génétique, séquençage single-cell, modèles qualitatifs, méthodes formelles, apprentissage automatique

Abstract:

The understanding of cellular mechanisms occurring inside human beings usually depends on the study of its gene expression. However, genes are implied in complex regulatory processes and their measurement is difficult to perform. In this context, the qualitative modeling of gene regulatory networks intends to establish the function of each gene from the discrete modeling of a dynamical interaction network. In this thesis, our goal is to implement this modeling approach from single-cell sequencing data. These data prove to be interesting for qualitative modeling since they bring high precision, and they can be interpreted in a dynamical way. Thus, we develop a method for the inference of qualitative models based on the automatic learning of logic programs. This method is applied on a single-cell dataset, and we propose several approaches to interpret the resulting models by comparing them with existing knowledge.

Keywords: systems biology, genetic regulatory networks, single-cell sequencing, qualitative models, formal methods, machine learning

Soutenance de thèse de Ygor GALLINA (équipe TALN)

Ygor GALLINA, doctorant au sein de l’équipe TALN, soutiendra sa thèse, intitulée « Indexation de bout-en-bout dans les bibliothèques scientifiques numériques » / « End-to-end indexation in digital scientific libraries »

Le 28 mars 2022 à 9h30, dans l’amphithéâtre du bâtiment 34.

Jury :

Rapporteurs :  Josiane MOTHE, Professeure, Université de Toulouse ; Patrick PAROUBEK Professeur, Université de Paris-Saclay
Examinateurs : Lorraine GOEURIOT, Maître de conférence, Université Grenoble Alpes ; Richard DUFOUR Professeur, Nantes Université
Directrice : Béatrice DAILLE, Professeure, Nantes Université
Encadrant : Florian BOUDIN, Maître de conférence, Nantes Université
Résumé : Le nombre de documents scientifiques dans les bibliothèques numériques ne cesse d’augmenter. Les mots-clés, permettant d’enrichir l’indexation de ces documents ne peuvent être annotés manuellement étant donné le volume de document à traiter. La production automatique de mots-clés est donc un enjeu important. Le cadre évaluatif le plus utilisé pour cette tâche souffre de nombreuses faiblesses qui rendent l’évaluation des nouvelles méthodes neuronales peu fiables. Notre objectif est d’identifier précisément ces faiblesses et d’y apporter des solutions selon trois axes. Dans un premier temps, nous introduisons KPTimes, un jeu de données du domaine journalistique. Il nous permet d’analyser la capacité de généralisation des méthodes neuronales. De manière surprenante, nos expériences montrent que le modèle le moins performant est celui qui généralise le mieux. Dans un deuxième temps, nous effectuons une comparaison systématique des méthodes états de l’art grâce à un cadre expérimental strict. Cette comparaison indique que les méthodes de référence comme TF×IDF sont toujours compétitives et que la qualité des mots-clés de référence a un impact fort sur la fiabilité de l’évaluation. Enfin, nous présentons un nouveau protocole d’évaluation extrinsèque basé sur la recherche d’information. Il nous permet d’évaluer l’utilité des mots-clés, une question peu abordée jusqu’à présent. Cette évaluation nous permet de mieux identifier les mots-clés importants pour la tâche de production automatique de mots-clés et d’orienter les futurs travaux.
Mot clés : indexation automatique, mots-clés, évaluation extrinsèque, recherche d’information, génération de mots-clés, méthodes de bout en bout

Abstract: More and more scientific documents are being avaible in digital libraries. Efficient indexing is of the utmost importance for ease of access to scientific knowledge. Keywords, that supplements this indexation, can’t be annotated manually given the volume of document to process. Automatic keyword production is then an important issue. The commonly used evaluation protocol has many weaknesses which make the evaluation of the recent neural models less reliable. Our goal is to precisely identify these weaknesses and to provide solutions given three axis. First, we introduce KPTimes, a dataset from the news domain. It will allow us to analyse the generalisation ability of neural models. Suprisingly, the least performant model is the most generalisable one. Then, we perform a systematic comparison of state-of-the-art methods using a strict experimental setup. This comparison shows that baselines such as TF×IDF are still competitive and that reference keywords quality have a strong impact on evaluation reliability. Finally, we introduce a new extrinsic evaluation protocol based on information retrieval. It allow us to evaluate keyphrase usefulness, an issue that has been given very little attention until now. This evaluation will help us better identify important keywords for automatic keyword production and to guide future works.
Keywords: automatic indexing, keywords, extrinsic evaluation, information retrieval, keyword generation, end-to-end method

Soutenance de thèse de Mourad HARRAT (équipes IS3P, CPS3)

Mourad Harrat, doctorant au sein des équipes IS3P et CPS3, soutiendra sa thèse le vendredi 04 février à 14h00. Lien visio

Jury :

  • Directeur de thèse : Alain BERNARD
  • Co-encadrant : Farouk BELKADI
  • Rapporteurs : Julie LE CARDINAL (Professeur, Laboratoire Génie Industriel (LGI), CentraleSupéléc) ; Laurent GENESTE (Professeur, Laboratoire Génie de Production (LGP), Ecole Nationale d’Ingénieurs de Tarbes)
  • Examinateurs : Marie-Anne LE DAIN (Maître de Conférences HDR, Laboratoire G-SCOP, Grenoble INP), Khaled MEDINI (Maître de Conférences HDR, Laboratoire d’Informatique de Modélisation et d’Optimisation des Systèmes (LIMOS), Mines Saint-Etienne) ; Didier GOURC (Professeur, Centre Génie Industriel, IMT Mines Albi), Guy CAVEROT (Inter’Nov)

Résumé : Le processus de développement des Systèmes Produit-Services (PSS) exige de la part des entreprises l’acquisition de nouvelles compétences provenant le plus souvent d’entreprises externes afin de prendre en charge le développement des composants hétérogènes d’un PSS.
Cette collaboration dans ce contexte présente cependant plusieurs caractéristiques particulières qui diffèrent du contexte de Développement de Produits Nouveaux (DPN), notamment une complexité plus élevée pouvant imposer plus de défis de collaboration et conduire à l’échec du projet de développement.
Le but de cette thèse est de supporter les collaborations inter-entreprises dans le contexte PSS à travers la construction d’un Framework de pilotage et d’évaluation de la performance de la collaboration.
Dans le Framework proposé, cette performance est mesurée par des facteurs qui sont basés sur le Capital Social. Une mesure objective de ces facteurs est effectuée grâce à des indicateurs de performance (KPIs) dont certains sont liés au contexte organisationnel des PSS. Par ailleurs, les techniques de la logique floue sont utilisées pour construire le modèle d’évaluation. Enfin, ce Framework est testé et validé quantitativement et qualitativement à travers trois études de cas industriels.

Mots-clés : Collaboration inter-entreprises, Systèmes Produit-Services (PSS), Évaluation

Abstract: The Product-Service Systems (PSS) development process requires companies to acquire new skills, most often from external companies, in order to support the development of the heterogeneous components of a PSS. However, this collaboration in this context has several unique characteristics that differ from the New Product Development (NPD) context, including higher complexity that can impose more collaborative challenges and lead to development project failure.
The aim of this thesis is to support inter-company collaborations in the PSS context through the construction of a Framework for managing and evaluating the performance of the collaboration.
In the proposed Framework, this performance is measured by factors that are based on Social Capital. An objective measurement of these factors is carried out through performance indicators (KPIs), some of which are linked to the organizational context of the PSS. In addition, fuzzy logic techniques are used to build the evaluation model. Finally, this Framework is tested and validated quantitatively and qualitatively through three industrial case studies.

Keywords: Interfirm collaboration, Product-Service Systems (PSS), Assessment

 

Soutenance de thèse de Abdelkrim Ramzi YELLES-CHAOUCHE (équipe SLP)

Ramzi Yelles-Chaouche, doctorant au sein de l’équipe SLP soutiendra sa thèse intitulée « Outils d’aide à la décision pour la mise en place et la reconfiguration dynamique des systèmes de production reconfigurables » / « Decision support tools for the design and dynamic reconfiguration of reconfigurable manufacturing systems »

mardi 14 décembre 2021 à h, à salle /IMT-Atlantique

Jury :
– Directeur de thèse : Alexandre DOLGUI – Professeur, IMT Atlantique, Nantes
– Co-encadrant : Nadjib BRAHIMI – Associate Professor, Rennes School of Business ; Evgeny GUREVSKY – Maître de Conférences, Université de Nantes
– Rapporteurs : Xavier DELORME – Professeur, École des Mines de Saint-Étienne ; Nathalie SAUER -Professeure, Université de Lorraine, Metz
– Autres membres : Jean-Charles BILLAUT – Professeur, Université de Tours ; Mireille JACOMINO -Professeure, Institut Polytechnique de Grenoble ; André ROSSI – Professeur, Université Paris-Dauphine
– Invités : Pierre CASTAGNA – Professeur Émérite, Université de Nantes ; Francisco GAMBOA – Ingénieur de Recherche, IRT Jules Verne, Bouguenais ; Sébastien RUBRECHT – Ingénieur de Recherche, IRT Jules Verne, Bouguenais

Résumé : Les travaux de recherche effectués dans cette thèse traitent de l’optimisation dans la conception de lignes de production reconfigurables multi-produits. Ce type de lignes est caractérisé par leur capacité à traiter différents produits, où chacun d’entre eux nécessite une configuration adéquate de la ligne. Le passage d’une configuration de produit vers une autre implique que la ligne doit être reconfigurée en réaffectant certains tâches/modules entre les stations/machines disponibles. Ainsi, étant donné un ensemble de produits, les deux problèmes d’optimisation suivants sont étudiés. Le premier consiste à concevoir une configuration de ligne admissible pour chaque produit de telle sorte que le nombre de réaffectations de tâches soit minimisé. Le deuxième problème, quant à lui, vise à identifier le nombre minimal de modules nécessaire pour fabriquer tous les produits. Pour ces deux problèmes, nous avons initialement proposé une formulation PLNE. Ensuite, nous avons développé une approche heuristique, nommée Halt-and-Fix, pour le premier problème, et une méthode de décomposition pour le second. Ces deux problèmes ouvrent la voie à des perspectives de recherche intéressantes.

Mots-clés : Production, reconfigurabilité, modularité, multi-produit, équilibrage de ligne, optimisation

————————————————————————————————————————————————————————————————————————————————–
Abstract: The research work conducted in this thesis deals with the optimization in the design of multi-product reconfigurable lines. Such lines are characterized by their ability to handle different products, where each of them requires an appropriate line configuration.Moving from one product configuration to another means that the line have to be reconfigured by reassigning some tasks/modules between the available stations/machines. Thus,given a set of products, the following two optimization problems are studied. The first one consists in designing an admissible line con-
figuration for each product so that the number of task reassignments is minimized when switching between configurations. The second problem aims at identifying the minimum number of modules needed to manufacture all the products. For these two problems, we have proposed, at first, a MILP formulation.Subsequently, we have developed a heuristic approach, called Halt-and-Fix, for the first problem, and a decomposition method for the second. These two problems open the way to interesting research perspectives.

Keywords: Manufacturing, reconfigurability, modularity, multi-product, line balancing, optimization

 

Soutenance de thèse de Ali AK (équipe IPI)

Ali Ak, doctorant au sein de l’équipe IPI, soutiendra sa thèse intitulée « Évaluation de la qualité perceptuelle de contenus multimédias immersifs : HDR, champs lumineux et vidéos volumétriques » / « Perceptual quality evaluation of immersive multimedia content: HDR, Light Field and Volumetric Video »

lundi 24 janvier 2022 à

Jury :
– Directeur de thèse : Patrick LE CALLET – Professeur, Université de Nantes
– Rapporteurs : Maria MARTINI – Professeure, Kingston University ; Aladine CHETOUANI – Maître de conférence, HDR, Université d’Orléans
– Autres membres : Søren FORCHAMMER – Professeur, Technical University of Denmark; Frédéric DUFAUX -Directeur de Recherche CNRS, Paris Saclay ; Federica BATTISTI -Ass. Professeure, University of Padova

Résumé : Des formats multimédias immersifs ont émergé comme un puissant canevas dans de nombreuses disciplines pour offrir une expérience utilisateur hyperréaliste. Ils peuvent prendre de nombreuses formes, telles que des images HDR, des champs lumineux, des nuages de points et des vidéos volumétriques. L’objectif de cette thèse est de proposer de nouvelles méthodologies pour l’évaluation de la qualité de tels contenus. La première partie de la thèse porte sur l’évaluation subjective de la qualité d’image. Plus précisément, nous proposons une stratégie de sélection de contenu et d’observateurs, ainsi qu’une analyse approfondie de la fiabilité des plate-formes de crowdsourcing pour collecter des données subjectives à grande échelle. Nos résultats montrent une amélioration de la fiabilité des annotations subjectives collectées et répondent aux exigences liées en crowdsourcing à la reproduction d’expériences menés en laboratoire. La deuxième partie contribue à l’évaluation objective de la qualité avec une métrique de qualité d’image basée sur l’apprentissage automatique utilisant les informations de seuil de discrimination, et une métrique de qualité d’image pour les champs lumineux sans référence basée sur des représentations d’images planes épipolaires. Enfin, nous étudions l’impact des méthodologies d’agrégation temporel sur les performances des métriques de qualité objective pour les vidéos volumétriques. Dans l’ensemble, nous démontrons comment nos résultats peuvent être utilisés pour améliorer l’optimisation des outils de traitement pour les contenus multi-médias immersifs.

Mots-clés : Évaluation de la qualité, médias immersifs, mappage ton local, champs lumineux, vidéo volumétrique

—————————————————————————————————————————————————————————————————————————————————————-
Abstract: Immersive multimedia formats emerged as a powerful canvas in numerous disciplines for delivering hyper-realistic user experience. They can take many forms, such as HDR images, Light Fields, Point Clouds,and Volumetric Videos. The goal of this thesis is to propose novel methodologies for the quality assessment of such multimedia content. The first part of the thesis focuses on subjective image quality assessment. More specifically, we propose a content selection strategy, observer screening tools, and an extensive analysis on the reliability of crowdsourcing platforms to produce a large-scale dataset. Our findings improve the reliability
of the collected subjective annotations and address issues to transfer laboratory experiments into crowdsourcing. The second part contributes to the objective quality evaluation with a learning-based image quality metric utilizing the just noticeable difference information and a no-reference light field image qualitymetric based on epipolar plane image representations. Finally, we investigate the impact of temporal pooling methodologies in objective quality metric performances for volumetric videos. Overall, we demonstrate how our findings can be used to improve the optimization of processing tools for immersive multimedia content.

Keywords: Quality evaluation, immersive media, tone mapped images, light fields, volumetric video

 

 

Soutenance de thèse de Seyyed Ehsan HASHEMI PETROODI (équipe SLP)

Seyyed Ehsan Hashemi Petroodi, doctorant au sein de l’équipe SLP, soutiendra sa thèse intitulée « Optimisation combinatoire pour l’affectation des opérateurs et la configuration des équipements dans les lignes d’assemblage reconfigurables » / « Combinatorial optimization for the configuration of workforce and equipment in reconfigurable assembly lines »

jeudi 9 décembre 2021 à  10h, dans l’amphi Besse de l’IMT-A.

Jury :
– Directeur de thèse : Alexandre Dolgui, Professeur à IMT Atlantique, Nantes, France
– Co-encadrants. de thèse : Simon Thevenin, Maitre assistant à IMT Atlantique, Nantes, France ; Sergey Kovalev, Professeur associé à INSEEC U. Research Center, Lyon, France
– Rapporteurs : Olga Battaïa, Professeur à KEDGE Business School, Bordeaux, France ; Lyes Benyoucef Professeur à Aix-Marseille Université, Marseille, France
– Autres membres : Alena Otto, Professeur à l’Université de Passau, Allemagne ; Reza Tavakkoli-Moghaddam, Professeur à l’Université de Téhéran, Iran ; Farouk Yalaoui, Professeur à l’Université de Technologie de Troyes, France
– Invité(s) : Mikhail Y. Kovalyov, Professeur, Membre-correspondant de National Academy of Sciences of Belarus, Minsk, Bélarus ; Ali Siadat, Professeur à École Nationale Supérieure d’Arts et Métiers, Metz, France

Résumé : Une forte personnalisation de produits et des fréquentes fluctuations du marché poussent les entreprises industrielles à utiliser des lignes d’assemblage à modèles multiples/mixtes, flexibles et reconfigurables plutôt que des lignes dédiées. Cette thèse de doctorat est consacrée à cette problématique.Elle est portée principalement sur la conception et l’équilibrage de lignes d’assemblage à
modèles mixtes. Les questions de l’efficacité de telles lignes, l’importance d’affectation optimale de tâches et d’utilisation des opérateurs mobiles sont posées et étudiées. Pour augmenter la flexibilité de la ligne, nous prenons en compte différents types d’affectation des tâches : fixe, dépendant du modèle et dynamique. Nous cherchons à concevoir une ligne qui peut gérer la variété possible de produits entrants. Nous utilisons des techniques d’optimisation combinatoire, et, en particulier, des approches d’optimisation robuste. Nous présentons une revue extensive de la littérature sur l’équilibrage des lignes, la planification des opérateurs et les stratégies de reconfiguration de lignes via la réaffectation des opérateurs. Le premier problème de la thèse porte sur la sélection de configuration entre une ligne unique à multi-modèles et plusieurs lignes dédiées. Le second problème consiste à concevoir et à équilibrer une modèle pour une gamme donnée de produits entrants sur la ligne. L’objectif est de minimiser le coût total de la ligne composé des coûts d’opérateurs et d’équipement dans le pire des cas. Le troisième problème est une extension du deuxième, où les tâches peuvent être affectées de manière dynamique. Enfin, dans le dernier, quatrième problème, nous étendons le troisième problème au cas où la séquence de produits est découverte takt par takt. Dans ce contexte, nous minimisons à la fois l’espérance mathématique de coût total et le coût dans le pire des cas. Afin de résoudre ces problèmes, nous développons plusieurs méthodes exactes et des heuristiques : des modèles de programmation linéaire en variables mixtes, un algorithme glouton, une recherche locale, une matheuristique et une heuristique de type  » fixer et optimiser », entre autres. Nous appliquons également un processus de décision markovien au dernier problème, ce qui représente la première étude qui utilise cette approche pour l’équilibrage de lignes dans la littérature. Des expériences numériques évaluent la performance des modèles proposés en termes de la qualité de solution et du temps de calcul. Nous tirons des conclusions managériales dans chaque chapitre. Nos résultats montrent la supériorité de l’affectation dynamique des tâches par rapport aux affectations fixes et dépendantes de modèle dans différentes situations de production.

Mots-clés : Optimisation combinatoire, Équilibrage de lignes d’assemblage, Opérateurs mobiles, Reconfigurabilité, Optimisation robuste, Optimisation stochastique

—————————————————————————————————————————————————————————————-
Abstract: Mass customization and frequent market fluctuations push industrial companies to employ flexible and reconfigurable multi/mixed-model assembly lines instead of dedicated ones. This thesis focuses on this problem. It concentrates mainly on mixedmodel assembly line design and balancing problems. The questions concerning the efficiency of such lines, the importance of optimal task assignment and use of walking workers are asked and studied. To increase the flexibility of the line, we account for different types of task assignments: fixed, model-dependent, and dynamic. We aim to design a line that can handle various entering product models. We use combinatorial optimization methods, and, in particular, robust optimization approaches. We present an extensive literature review on line balancing, workforce planning, and workforce reconfiguration strategies in different production systems. The first problem addresses a configuration selection problem between a single multi-model line and multiple dedicated lines. The second problem consists in designing and balancing a mixed-model assembly line with walking workers. We propose fixed and model-dependent task assignments for a given set of product mixes. The goal is to minimize the total cost of workers and equipment for the worst case. The third problem extends the second one. It considers the dynamic task assignment. In the last problem, we extend the third problem for the case where the sequence of products unfolds takt by takt. In this context, we minimize both the expected total cost and the worst-case cost. In order to solve the considered problems, we develop several exact methods and heuristics: mixed-integer linear programming models, greedy algorithm, local search, mat-heuristic and fixed-and-optimize heuristics among others. We also apply a Markov Decision Process to the proposed line balancing problem in the last chapter. It is the first study applying this method to a line balancing problem. Computational experiments evaluate the performance of the proposed approaches in terms of solution quality and time consumption. We draw managerial insights in each chapter. Our results show the superiority of the dynamic task assignment compared to model-dependent and fixed ones in different production situations.

Keywords: Combinatorial optimization, Assembly line balancing, Walking workers, Reconfigurability, Robust optimization, Stochastic optimization.

Soutenance de thèse de Dimitri SAINGRE (équipe STACK)

Dimitri Saingre, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Comprendre la consommation énergétique des blockchains : un regard sur les contrats intelligents » / « Understanding the energy consumption of blockchains: a focus on smart contracts »

lundi 13 décembre 2021 à 10h, à l’IMT Atlantique – campus de Nantes.

Jury :
– Directeur de thèse : Jean-Marc MENAUD, Professeur (HDR), IMT Atlantique
– Co-dir. de thèse : Thomas LEDOUX, Professeur (HDR), IMT Atlantique
– Rapporteurs : Maria POTOP-BUTUCARU, Professeur (HDR), Sorbonne Université ; Romain ROUVOY, Professeur (HDR), Université de Lille
– Autres membres : Jean-Marc PIERSON, Professeur (HDR), Université de Toulouse ; Anthony SIMONET-BOULOGNE, Responsable des projets Scientifique, IExec

Résumé : Les systèmes de chaînes de blocs sont des registres répliqués dans un réseau pair à pair. Elles ont connu un développement rapide depuis quelques années en s’illustrant dans de nombreux domaines d’activités. En permettant le traitement et la sauvegarde de données dans un contexte distribué et Byzantin, ces technologies ont le potentiel de modifier de nombreux secteurs. Par exemple, dans le cadre de la finance décentralisée, les cryptomonnaies se développement comme une alternative aux monnaies fiduciaires en proposant un système de paiement dépourvu de tiers de confiance. Cependant, une certaine inquiétude vis-à-vis de l’impact environnemental des chaînes de blocs a émergé en parallèle de leur développement. En particulier, de nombreuses recherches ont démontré le coût énergétique important des chaînes basées sur les preuves de travail.
Dans cette thèse, nous proposons de contribuer à l’étude expérimentale du coût énergétique des solutions logicielles basées sur les chaînes de blocs. Face à l’enrichissement progressif de l’écosystème lié aux chaînes de blocs, nous proposons BCTMark, un nouvel outil de déploiement et d’évaluation des performances des chaînes de blocs. Partant de cet outil, nous concentrons notre étude sur l’impact des contrats intelligents sur la chaîne de blocs Ethereum. D’une part, nous proposons un modèle pour l’estimation du coût énergétique des contrats intelligents développé pour Ethereum. D’autre part, nous proposons un nouveau protocole pour l’identification et l’élimination des contrats non utilisés dans le but de proposer des chaînes de blocs plus frugales en calculs et espaces de stockages.

Mots-clés : Chaînes de blocs, contrats intelligents, consommation énergétique, système distribués, systèmes pairs à pairs

—————————————————————————————————————————————————————————————————————————————————————-
Abstract: Blockchain systems are ledgers distributed in a peer-to-peer network. They have been developing rapidly over the past few years and have been used in many domains. By enabling the processing and storage of data in a distributed and Byzantine context, these technologies have the potential to change many sectors. For instance, in the context of decentralized finance, cryptocurrencies are developing as an alternative to fiat currencies by offering a payment system without relying on a trusted third party. However, some concerns about the environmental impacts of blockchains have emerged in parallel with their development. In particular, many studies have demonstrated the high energy cost of proof-of-work based blockchains.
In this thesis, we propose to contribute to the experimental study of the energy cost of blockchain-based software solutions. Facing the progressive enrichment of the blockchain ecosystem, we propose BCTMark, a new tool for deploying and evaluating the performance of blockchains. Based on this tool, we focus our study on the impact of smart contracts on the blockchain Ethereum. On the one hand, we propose a model for estimating the energy cost of smart contracts developed for Ethereum. On the other hand, we propose a new protocol for the identification and elimination of unused contracts in order to propose blockchains that are more frugal in computation and storage space.

Keywords: blockchain, smart contracts, energy consumption, distributed systems, peer to peer systems

Soutenance de thèse de Maxime BÉLAIR (équipe STACK)

Maxime Bélair, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Défense contre les attaques à l’aune des nouvelles formes de virtualisation des infrastructures » / « Defense against attacks with regard to new virtualisation technics »

mercredi 8 décembre à 14h, dans l’Amphi BESSE, à l’IMT Atlantique campus de Nantes.

Jury :
– Directeur de thèse : Jean-Marc MENAUD, Professeur, IMT Atlantique
– Co-dir. de thèse : Sylvie LANIEPCE, Ingénieure de recherche, Orange Labs
– Rapporteurs : Alain TCHANA, Professeur, ENS Lyon ; Marie-Laure POTET, Professeure, ENSIMAG
– Président : Gaël THOMAS, Professeur, Télécom SudParis
– Autres membres : Jerémy BRIFFAUT, Maître de conférences, INSA CVL ; Aurélien FRANCILLON, Professeur associé, EURECOM

Résumé : La conteneurisation est une forme de virtualisation de niveau système d’exploitation présentant de bonnes propriétés de performances et de simplicité de déploiement ; elle facilite la réutilisation du code. Les conteneurs sont donc massivement utilisés aujourd’hui. Toutefois, de par leur grande surface d’attaque et les vulnérabilités qu’ils peuvent souvent contenir, les conteneurs posent de nouveaux enjeux de sécurité. Les nombreuses approches défensives existantes ne suffisent pas à répondre à toutes leurs problématiques de sécurité.
Dans cette thèse, nous montrons que la programmabilité du noyau permet de déployer des services de sécurité innovants pour améliorer la sécurité des conteneurs. Après avoir montré les spécificités des environnements conteneurs et leur problématiques et opportunités de sécurité, nous présentons le design et l’implémentation de SNAPPY, une nouvelle infrastructure logicielle permettant de mettre en place des politiques de sécurité programmables à grain fin de niveau noyau, particulièrement adaptée à la protection des conteneurs. Nous présentons également SecuHub, une nouvelle infrastructure logicielle de distribution unifiée de politiques de mitigation pour CVE (Common Vulnerabilities and Exposures), permettant donc aux conteneurs de se protéger simplement contre les vulnérabilités connues. Nous montrons finalement que le surcoût en performance de SecuHub et SNAPPY est minimal.

Mots-clés : Sécurité, Conteneurs, SNAPPY, SecuHub, Noyau, Programmable

—————————————————————————————————————————————————————————————————————————————————————-

Abstract: Containerization is an OS-level virtualisation technique providing good performances, ease of deployment and code reusability properties. Containers are therefore massively used nowadays. However, due to their big attack surface and to the vulnerability they may contain, containers bring new security challenges. The numerous existing defensive approaches are not sufficent to respond to all their security issues.
In this thesis, we show that kernel programmability allows to deploy innovative security services to improve the security of containers. After showing the specificities of containers environments and associated security challenges and opportunities, we present the design and implementation of SNAPPY, a new framework allowing to setup fine-grained programmable kernel security policies notably suitable to protect containers.We also present SecuHub, a new framework enabling to distribute CVE mitigation policies, allowing containers to protect themselves against known vulnerabilities. We finally show that SNAPPY and SecuHub can be used with a very low performance overhead.

Keywords: Security, Containers, SNAPPY, Secuhub, Kernel, Programmable

Copyright : LS2N 2017 - Mentions Légales - 
 -