Home » évènement (Page 2)

Soutenance de thèse d’Alexis BITAILLOU (équipe RIO)

Alexis Bitaillou, doctorant au sein de l’équipe RIO soutiendra sa thèse intitulée « Réseaux cognitifs sans fil pour des applications industrielles 4.0 » / « Cognitive networks for Industrie 4.0 applications »
lundi 15 novembre 2021 à 14h, à Polytech Nantes, bâtiment Ireste, Amphi 1.

Jury :
– Directeur de thèse : Benoît PARREIN
– Co-encadrant : Guillaume ANDRIEUX, Maître de Conférence HDR, Université de Nantes
– Rapporteurs : Fabrice THEOLEYRE, Chargé de recherche CNRS, CNRS/Université de Strasbourg ; Fabrice VALLOIS Professeur des universités, INSA Lyon
– Autres membres : Nathalie MITTON, Directeur de recherche, INRIA Lille-Nord Europe ; Nicolas MONTAVONT, Professeur de l’Ecole des Mines, IMT Atlantique
– Invité : Dominique BARTHEL, Principal Research Engineer, Orange Labs Grenoble

Résumé : Dans le contexte de l’industrie du futur, les réseaux cognitifs sont une solution pour améliorer la fiabilité des réseaux informatiques et industriels. Ils sont capables d’optimiser automatiquement les différents paramètres protocolaires afin d’accomplir un ou plusieurs objectifs de qualité de service. Très peu de réseaux cognitifs ont été implémentés en totalité. La plupart des auteurs ont préféré se concentrer sur l’amélioration d’une fonctionnalité comme le routage. Dans cette thèse,nous suivons cette approche en proposant d’évaluer et d’améliorer l’algorithme Q-routing,algorithme de routage conçu par Boyan et Litt-man en 1994 et inspiré de Q-learning. Nous proposons une implémentation de Q-routing et des améliorations pour résoudre deux problèmes : les optimums locaux causés par la stratégie gloutonne de Q-routing et l’estimation du délai. Les optimums locaux privent Q-routing des routes ayant été congestionnées même momentanément. Pour résoudre ce problème, nous proposons deux approches inspirées des travaux sur l’apprentissage par renforcement. Par ailleurs, la qualité de l’estimation du délai est importante car elle est utilisée pour calculer la métrique de routage.Nous proposons d’utiliser une méthode de filtrage afin d’améliorer la qualité de l’estimation du délai de transmission. Nous évaluons notre implémentation et nos améliorations sur le simulateur réseau Qualnet incluant des topologies sans-fil et dans des scénarios avec mobilité. Nous montrons que Q-routing peut livrer plus de paquets et plus rapidement que le protocole de routage standardisé OLSRv2.

Mots-clés : Réseaux cognitifs, Industrie 4.0, Q-routing, apprentissage par renforcement

——————————————————————————————————————————————————————————————————————-
Abstract:
In the context of industry of the future, cognitive networks can help to increase robustness of computer and industrial networks. These networks are able to optimize automatically the different protocol parameters in order to perform one or more quality of service objectives. Unfortunately, cognitive networks have been rarely totally imple-mented. Most of the authors preferred improving only one functionality such as routing. In this PhD thesis, we follow this line by evaluating and improving Q-routing, a routing algorithm inspired by Q-learning and designed by Boyan and Littman in 1994. We propose an implementation of Q-routing and some improvements to solve two problems: local o-timums due to the greedy strategy and the quality of delay measure. When a brief congestion happens on a route, this route can be never reused because of the greedy strategy.We propose two solutions inspired from reinforcement learning to solve local optimums problem. Otherwise, the quality of the estimation delay is also important. As Q-routing uses delay to compute routing metric, noisy measurements can let Q-routing doing the wrong choice. We propose to use filtering to improve the estimation of delay. We evaluate Q-routing and its modifications on discrete event network simulator Qualnet on several scenarios including wireless topologies and mobility.We show that our implementation can deliver more packets and faster than the standardized routing protocol OLSRv2.

Keywords: Cognitive networks, Industrie 4.0, Q-routing, reinforcement learning

Soutenance de thèse de Nans LAROCHE (équipe SIMS)

Nans Laroche, doctorant au sein de l‘équipe SIMS, soutiendra sa thèse intitulée « Méthodes d’imagerie ultrasonore avancées et rapides pour le contrôle non destructif de matériaux atténuants et diffusants » / « Fast and advanced ultrasonic imaging methods for non destructive testing of attenuative and diffusive materials »

lundi 18 octobre 2021 à 14h15, dans l’amphi du bâtiment S sur le site de Centrale Nantes.

Le manuscrit est accessible ici: https://box.ec-nantes.fr/index.php/s/g7YEzZKcn8KxMPp

Jury :
– Directeur de thèse : Jérôme IDIER
– Co-encadrants : Sébastien BOURGUIGNON (maître de conférence); Aroune DUCLOS (maître de conférence, Laboratoire d’Acoustique de l’Université du Mans);
– Rapporteurs : Nicolas QUAEGEBEUR (Professeur, Université de Sherbrooke) ; Jean-Philippe THIRAN (Professeur, Ecole Polytechnique Fédérale de Lausanne).
– Autres membres : Ewen CARCREFF (docteur, encadrant industriel, DB-SAS)

Résumé : Le développement de sondes multiéléments et les progrès continus en électronique ont favorisé l’émergence des méthodes d’imagerie ultrasonore pour le contrôle non-destructif (CND). En particulier, les approches linéaires de type formation de voies sont largement utilisées pour leur simplicité et leur rapidité, rendant possible l’imagerie en temps réel. Néanmoins, la résolution et le contraste des images reconstruites sont limités par la nature oscillante de l’onde ultrasonore.
Cette thèse aborde l’imagerie ultrasonore sous l’angle des problèmes inverses. La reconstruction de l’image de réflectivité à partir de mesures ultrasonores, dont l’information est limitée par la bande passante des transducteurs, est un problème inverse mal posé. Dans ces travaux, nous adoptons des techniques d’inversion par régularisation favorisant la reconstruction de solutions à la fois parcimonieuses et lisses spatialement, i.e. d’extension spatiale limitée. Nous cherchons ainsi à reconstruire une carte de réflectivité d’un milieu globalement sain, ne contenant éventuellement que quelques réflecteurs de petite taille. Une première contribution décrit la mise en œuvre et l’inversion d’un modèle linéaire reliant les données brutes de grande taille à la réflectivité du milieu, via un opérateur contenant les formes d’ondes ultrasonores. Un deuxième axe est basé sur la projection du modèle de données ultrasonores dans l’espace image via une technique de formation de voies. L’inversion du modèle résultant, de plus petite taille, est alors interprétée comme un problème de déconvolution à réponse impulsionnelle variable spatialement et à bruit coloré.
Un modèle interpolateur est proposé, permettant une inversion rapide. Un dernier axe de travail adapte ces méthodes à des milieux ayant des propriétés acoustiques complexes telles que l’atténuation fréquentielle et la dispersion, pour lesquels l’onde acoustique se déforme lors de sa propagation.
Les méthodes proposées sont évaluées sur des données synthétiques et appliquées à des exemples concrets de CND. Un pouvoir de résolution bien supérieur aux méthodes standard est obtenu, au prix d’une complexité calculatoire plus élevée.

Mots-clés : contrôle non-destructif, imagerie ultrasonore, problèmes inverses, focalisation en tout point, parcimonie

—————————————————————————————————————————————————————————————————————————————————————-
Abstract: The development of multi-element probes and continuous progress in electronics have favored the generalization of ultrasonic imaging methods for non destructive testing (NDT). In particular, the total focusing method is widely used due to its simplicity and real-time capability. Nevertheless, the resolution and contrast of the resulting images are limited due to the oscillating nature of the ultrasonic wave.
This work addresses ultrasonic imaging from an inverse problem perspective. Retrieving the reflectivity map from ultrasonic measurements acquired with band-limited transducers is an ill-posed problem. In this work, we develop inversion methods based on a regularization framework that enhances both the sparsity and the spatial smoothness of the reconstructed solution. Therefore, we assume that the reflectivity map is mainly homogeneous and possibly contains only few reflectors of small size. A first contribution describes the implementation and the inversion of a linear model that relates the raw, large-size, ultrasonic data to the reflectivity image, through a matrix containing the ultrasonic waveforms. A second contribution consists in projecting the previous model involving raw ultrasonic data in the space domain through a linear beamforming method. The size of the resulting model is therefore reduced, and its inversion can be interpreted as a deconvolution problem with a non stationary point spread function and colored noise. We hence propose an interpolation model in order to obtain a computationally efficient method. Finally, the last part of this work consists in applying the proposed methods to media with complex acoustic properties, such as frequency attenuation and dispersion, where the ultrasonic waveform is distorted during propagation.
These algorithms are applied to synthetic data and practical NDT cases and show superior resolving capabilities compared to standard methods, at the cost of higher computational complexity.

Keywords: non destructive testing, ultrasonic imaging, inverse problems, total focusing method, sparsity

Soutenance de thèse de Mickael Tardy (équipe SIMS)

Mickael Tardy, doctorant au sein de l’équipe SIMS, soutiendra sa thèse intitulée « Apprentissage profond, Imagerie du sein, Classification, Segmentation, Supervision faible » / « Deep learning for computer-aided early diagnosis of breast cancer »

12 octobre 2021 à 8h30, dans l’amphi du bât. S sur le site de Centrale Nantes. La participation à distance est possible sur https://ec-nantes.zoom.us/j/96524720031  (mot de passe : .hQf3mFm)
Jury :
– Directeur de thèse : Diana Mateus
– Co-encadrant : NA
– Rapporteurs : Elsa Angelini (Senior Data Scientist,  ICL / Maitre de Conférences, Telecom Paris) ; Gustavo Carneiro (Professeur, The University of Adelaide),
– Autres membres : Sébastien Molière (Praticien hospitalier, CHU de Strasbourg) ; François Rousseau (Professeur, IMT Atlantique Bretagne-Pays de la Loire) ; Maria A. Zuluaga (Maître de Conférences, EURECOM) 
Résumé : Le cancer du sein est un des plus répandus chez la femme. Le dépistage systématique permet de baisser le taux de mortalité mais crée une charge de travail importante pour les professionnels de santé. Des outils d’aide au diagnostic sont conçus pour réduire ladite charge, mais un niveau de performance élevé est attendu. Les techniques d’apprentissage profond peuvent palier les limitations des algorithmes de traitement d’image traditionnel et apporter une véritable aide à la décision. Néanmoins, plusieurs verrous technologiques sont associés à l’apprentissage profond appliqué à l’imagerie du sein, tels que l’hétérogénéité et le déséquilibre de données, le manque d’annotations, ainsi que la haute résolution d’imagerie. Confrontés auxdits verrous, nous abordons la problématique d’aide au diagnostic de plusieurs angles et nous proposons plusieurs méthodes constituant un outil complet. Ainsi, nous proposons deux méthodes d’évaluation de densité du sein étant un des facteur de risque, une méthode de détection d’anormalités, une technique d’estimation d’incertitude d’un classifieur basé sur des réseaux neuronaux, et une méthode de transfert de connaissances depuis mammographie 2D vers l’imagerie de tomosynthèse. Nos méthodes contribuent notamment à l’état de l’art des méthodes d’apprentissage faible et ouvrent des nouvelles voies de recherche.
Mots-clés : Apprentissage profond, Imagerie du sein, Classification, Segmentation, Supervision faible
——————————————————————————————————————————————————————————————————————-
Abstract: Breast cancer has the highest incidence amongst women. Regular screening allows to reduce the mortality rate, but creates a heavy workload for clinicians. To reduce it, the computer-aided diagnosis tools are designed, but a high level of performances is expected. Deep learning techniques have a potential to overcome the limitations of the traditional image processing algorithms. Although several challenges come with the deep learning applied to breast imaging, including heterogeneous and unbalanced data, limited amount of annotations, and high resolution. Facing these challenges, we approach the problem from multiple angles and propose several methods integrated in complete solution. Hence, we propose two methods for the assessment of the breast density as one of the cancer development risk factors, a method for abnormality detection, a method for uncertainty estimation of a classifier, and a method of transfer knowledge from mammography to tomosynthesis. Our methods contribute to the state of the art of weakly supervised learning and open new paths for further research.
Keywords: Deep learning, Breast Imaging, Classification, Segmentation, Weak supervision

Soutenance de thèse de Zhiping WANG (équipe IS3P)

Zhiping WANG, doctorant au sein de l’équipe IS3P, soutiendra sa thèse intitulée « Méthodes de conception générative constructive pour la fabrication additive qualifiée » / « Constructive generative design methods for qualified additive manufacturing »

mercredi 6 octobre 2021 à 9h30, dans l’amphi du bât. S sur le site de Centrale Nantes.

Jury :
– Directeur de thèse : Alain BERNARD (Professeur d’université, LS2N, Ecole Centrale de Nantes)
– Co-encadrant : Yicha ZHANG (MCF (HDR), ICB-COMM, UTBM)
– Rapporteurs : Daniel BRISSAUD (Professeur d’université, GSCOP, Université Grenoble Alpes) ; James GAO (Professeur d’université, University of Greenwich)
– Autres membres : Grégoire ALLAIRE (Professeur d’université, Ecole Polytechnique) ; Charlie C. L. WANG (Professeur, The University of Manchester) ; Stefania BRUSCHI (Professeur, University of Padova) ; Nabil ANWER (Professeur – École Normale Supérieure Paris-Saclay) ; Olaf DIEGEL (Professeur, The University of Auckland)

Résumé : Ce travail de thèse propose un ensemble de nouvelles méthodes de conception générative constructive : 1. Méthode de conception générative constructive basée sur des modèles pour optimiser la conception de la structure de supports ; 2. Méthode de conception générative basée sur un modèle CSG pour assurer la fabricabilité dans l’optimisation de la topologie de la structure allégée et 3. Conception constructive inversée basée sur les « parcours d’outils » pour obtenir directement des modèles de traitement de structures poreuses ou de réseaux complexes correspondants avec des « parcours d’outils » d’impression qualifiés. Les trois méthodes proposées intègrent les contraintes de processus de FA, réalisent un contrôle paramétrique et économisent des coûts de calcul dans le processus de conception pour obtenir un ensemble de solutions de conception candidates avec une fabrication garantie. Un ensemble d’études comparatives avec les méthodes DfAM existantes et quelques études de cas expérimentaux dans des applications médicales ont démontré les avantages des méthodes proposées. Ces méthodes constructives peuvent avoir un grand potentiel d’application pour être adoptées comme outils de conception et de prise de décision pour d’autres applications industrielles lorsqu’un DfAM qualifié est requis.

Mots-clés : Conception pour la FA ; manufacturabilité ; conception générative ; conception constructive ; système basé sur la connaissance

——————————————————————————————————————————————————————————————————————-
Abstract: This research developed a set of new constructive generative design methods: 1. Pattern-based constructive generative design method to optimize support structure design; 2. CSG-based generative design method to ensure manufacturability in lightweight topology optimization and 3. Toolpath-based inversed constructive design to directly obtain processing models of corresponding complex lattice or porous structures with qualified printing toolpaths. The three proposed methods can well embed AM process constraints, realize parametric control and save computation cost in design process to obtain a set of candidate design solutions with ensured manufacturability. A set of comparison studies with existing DfAM methods and a couple of experiment case studies in medical applications demonstrated the methods’ advantages. These constructive methods may have large application potential to be adopted as design and decision making tools for other industrial applications when qualified DfAM is required.

Keywords: Design for AM; manufacturability; generative design; constructive design; knowledge-based system

Soutenance de thèse d’Erica CAPAWA-FITSOH (équipe PSI)

Erica Capawa Fitsoh, doctorante au sein de l’équipe PSI, soutiendra sa thèse intitulée « Contribution à la reconfiguration des lignes de production : définition et démarche de choix de configurations alternatives » / « Contributing to the reconfiguration of production lines: definition and selection process of alternative configurations »
vendredi 1er octobre 2021 à ? h, à salle / campus. + lien streaming si distanciel.

Jury :
– Directeur de thèse : Pierre CASTAGNA Professeur émérite, Université de Nantes
– Co-directeur de thèse : Pascal BERRUET Professeur, Université Bretagne Sud
– Encadrant : Nasser MEBARKI Professeur, Université de Nantes
– Rapporteurs : Marija JANKOVIC Professeure, Centrale Supélec ; Yves SALLEZ Professeur, Université Polytechnique Haut de France
– Examinateurs : Joanna DAABOUL Maître de conférences, Université de Technologie de Compiègne ; Éric ZAMAI Professeur, INSA de Lyon
– Invité : Francisco GAMBOA Ingénieur de recherche PhD, IRT Jules Verne (Référent IRT JV)

Résumé : Dans cette thèse nous proposons un formalisme de définition des configurations des RMS basé sur la modularité du système, incluant à la fois les aspects physique et logique (jusqu’ici considérés séparément dans la littérature), et les aspects performance (KPI) et modèle (simulation de flux) répondant aux exigences de l’industrie 4.0 (l’architecture RAMI 4.0). La vision modulaire permet une description et une analyse précise et conduit à une meilleure connaissance du système pour conduire une reconfiguration. Un modèle de données de référence émerge de cette vision modulaire et est utilisé pour générer la base de données de configurations, socle de la démarche de choix de nouvelles configurations proposées. Cette démarche vise la capitalisation des données de configurations passées, présentes et potentiellement futures du système, afin de répondre aux besoins de proactivité réutilisation de données et plus généralement de gestion des connaissances dans un processus de reconfiguration. Une métrique permettant d’évaluer l’incidence de la reconfiguration est proposée afin d’assurer un choix de configuration judicieux. Un exemple illustratif et deux cas d’étude industriels ont été conduits. Ils permettent de valider la pertinence de l’approche proposée et aussi de montrer que l’approche est valable tant pour des systèmes matures que pour des systèmes encore en conception. L’approche ouvre de nouvelles perspectives pour des RMS holoniquement contrôlés. Cependant, la notion d’agrégation (données, logiques de contrôle, modèles) ainsi que le manque d’automatisation de la démarche de choix constituent des limites à la proposition mais représentent aussi des axes de réflexions pour de futurs travaux.

Mots-clés : configuration, modularité, modèle de données, capitalisation de données, RMS

——————————————————————————————————————————————————————————————————————-
Abstract: In this thesis we propose a formalism for defining RMS configurations, based on the modularity of the system, including both physical and logical aspects (so far considered separately in the literature), and performance (KPI) and model (flow simulation) aspects to align the proposal with the requirements of Industry 4.0 (the RAMI 4.0 architecture). The modular vision allows a precise description and analysis and leads to a better knowledge of the system to drive a reconfiguration. A reference data model emerges from this modular vision, and is used to generate the configuration database, which is the foundation of the proposed selection process for new configurations. This approach aims at capitalizing on past, present and potentially future configuration data of the system, in order to meet the needs of proactivity, data reuse and more generally of knowledge management in a reconfiguration process. A metric to evaluate the impact of a reconfiguration is proposed, in order to ensure a relevant configuration choice. An illustrative example and two industrial case studies have been conducted. They allow to validate the relevance of the proposed approach, and have also allowed to show that the approach is valid for mature systems as well as for systems still under design. The approach offers new perspectives for RMS controlled with holons. Nevertheless, the notion of aggregation (data, control logics, models) as well as the lack of automation of the selection process are some drawbacks of the proposal, but also represent promising topics for future works.

Keywords: configuration, modularity, reference data model, data capitalization, RMS

Soutenance d’HDR de Mathieu RITOU (équipe RoMaS)

Mathieu Ritou, maître de conférences de l’Université de Nantes et enseignant-chercheur au sein de l’équipe RoMaS du LS2N, soutiendra son habilitation à diriger des recherches intitulée « Contribution au Smart Manufacturing : application en usinage »

mardi 28 septembre 2021 à 14h, depuis l’amphi A-1/10 de l’IUT la Fleuriaye, à Carquefou.

La soutenance sera retransmise à l’adresse suivante : https://univ-nantes-fr.zoom.us/j/98472137577

Composition du jury :
– Benoit Iung, Rapporteur, Professeur des Universités, Université de Lorraine – CRAN
– Henri Paris, Rapporteur, Professeur des Universités, Université Grenoble Alpes – GSCOP
– Christophe Tournier, Rapporteur, Professeur des Universités, ENS Paris Saclay – LURPA
– Alain Bernard, Examinateur, Professeur des Universités, Centrale Nantes – LS2N
– Hélène Chanal, Examinatrice, Maître de conférences HDR, SIGMA Clermont – Institut Pascal
– René Mayer, Examinateur, Professeur, École Polytechnique de Montréal – LRFV, Canada
– Benoit Furet, Dir. de recherche, Professeur des Universités, Universités de Nantes – LS2N
– Virginie Charbonnier, Invitée, Responsable projets R&T usinage, Airbus Operations

Résumé :
Dans les usines modernes, d’importants volumes de données sont générés durant la production, mais ils restent souvent inexploités. La fabrication intelligente, ou Smart Manufacturing, vise ainsi à exploiter ces données captées pendant le processus de fabrication. Il s’agit là d’un levier majeur de l’Usine du Futur, pour améliorer la performance des entreprises.
Nous avons été parmi les précurseurs du développement du monitoring en usinage et de la collecte de données en temps réel lors de productions dans l’industrie. Les données étant complexes, il a été nécessaire de développer des méthodes de fouilles de données adaptées aux spécificités des procédés de fabrication. Par rapport aux approches classiques d’extraction de connaissances à partir des données, une originalité développée a été d’intégrer également des connaissances métier dans ce processus d’analyse des données afin de l’améliorer. La combinaison d’Intelligence Artificielle et de connaissances en fabrication est une solution innovante et prometteuse. L’approche proposée associe ainsi l’intégration de connaissances en fabrication (par des critères de monitoring basés sur des modèles mécaniques et des règles métier) et des apprentissages non-supervisés (par modèles de mélange gaussien).
Il en résulte un système d’aide à la décision, permettant de fouiller automatiquement les données complexes et massives qui sont collectées lors d’usinages industriels, et de transmettre des KPI répondant spécifiquement aux besoins des différents services de l’entreprise (méthodes, qualité, maintenance…).
Par ailleurs, en usinage à grande vitesse, de nombreux défauts sur les pièces résultent de problèmes vibratoires. Aussi, une approche complémentaire par simulations numériques a été développée pour une meilleure maîtrise du comportement vibratoire en usinage. Afin d’expliquer l’évolution complexe des modes à hautes vitesses de rotation, un modèle vibratoire de broche a été proposé suivant une approche phénoménologique fine. Il repose notamment sur des modèles analytiques de montages de roulements préchargés, ainsi que sur le développement d’un excitateur électromagnétique de broche qui a permis d’observer l’évolution du comportement vibratoire en fonction des conditions opératoires, telles que la vitesse de rotation ou l’usure de la broche.
Ces travaux interdisciplinaires sur le Smart Manufacturing contribuent ainsi au développement des technologies de l’Usine du Futur. L’exploitation des données collectées en cours de fabrication et les apprentissages automatiques sont des éléments clé de jumeaux numériques. Ils permettront une meilleure maîtrise de la qualité et une amélioration du processus de fabrication, grâce à des machines intelligentes et connectées.

Soutenance de thèse de Dorian DUMEZ (équipe SLP)

Dorian Dumez, doctorant au sein de l’équipe SLP, soutiendra sa thèse intitulée « Approches matheuristiques pour l’optimisation des transports en logistique urbaine » / « Matheurisc approach for the resolution of transport optimization and urban logistics »

jeudi 23 septembre 2021 à 14h. Lien visioconférence : https://imt-atlantique.webex.com/meet/dorian.dumez

Jury :
– Directeur de thèse : M. Fabien LEHUÉDÉ Professeur à IMT Atlantique
– Co-encadrant : . Olivier PÉTON Professeur à IMT Atlantique
– Rapporteurs : Claudia ARCHETTI Professeur Associé à l’ESSEC Business School ; Frédéric SEMET Professeur à Centrale Lille
– Autres membres : Romain BILLOT Professeur à IMT Atlantique ; Samuel VERCRAENE Maître de conférences à l’INSA Lyon
– Invités : Nabil ABSI Professeur à Mines Saint-Etienne ; Stefan IRNICH Professeur à l’université Johannes Gutenberg de Mayence

Résumé : Dans cette thèse, nous nous intéressons aux problématiques soulevées par l’optimisation des tournées de véhicules pour la livraison en milieu urbain. Nous nous sommes attachés à la problématique des ressources synchronisées. Le contexte urbain impose des contraintes sur l’espace utilisable. Dans les modèles théoriques développés, cela se traduit par des contraintes de ressources communes à tous les véhicules. Le premier problème que nous avons développé traite de la livraison de colis avec fenêtres horaire en considérant de multiples options de livraison pour chaque commande.La synchronisation de ressources vient de la prise en compte d’un niveau de service global ainsi que de la capacité de lieux de livraison partagé, tels que des consignes. Le second problème traité vise à optimiser la collecte et la livraison de colis via un système logistique à deux échelons. Les ressources synchronisées sont alors la capacité de stockage des entrepôts intermédiaires, appelé satellites.Pour résoudre ces problèmes, nous avons développé des méthodes de recherche à voisinage large basé sur de petites destructions.Nous avons aussi étudié leur hybridation avec la résolution de modèles MIP et de la programmation dynamique. Ainsi, nos méthodes sont catégorisées comme matheuristiques.

Mots-clés : logistique urbaine, tournée de véhicules, matheuristique, recherche à voisinage large, ressources synchronisées

——————————————————————————————————————————————————————————————————————-

Abstract: In this thesis, we are interested in the problems raised by the optimization of vehicle routing for delivery in urban areas. We pay close attention to problems with synchronized resources. Indeed, the urban context imposes hard constraints on the usable space. In the theoretical models developed, this translates into resource constraints common to all vehicles.The first problem deals with the delivery of parcels with time windows while considering multiple delivery options for each order.The synchronization of resources between vehicles comes from the consideration of the global quality of service according to the customers’ preferences as well as the capacityof shared delivery locations, such as lockers.The second problem addresses the optimization of the collection and delivery of parcels via a two-echelon logistics system. The synchronized resources between all vehicles are then the limited storage capacity of intermediate warehouses, called satellites.To solve these problems, we develope a large neighborhood search methods based on small destructions. We also study their hybridization with MIP models and dynamic programming. Thus, our methods are categorized as matheuristics.

Keywords: city logistics, vehicle routing, matheuristic, large neighborhood search, ressources synchronizations

Soutenance de thèse d’Arthur GODET (équipe TASC)

Arthur Godet, doctorant au sein de l’équipe TASC, soutiendra sa thèse intitulée « Sur le tri de tâches pour résoudre des problèmes d’ordonnancement avec la program­mation par contraintes » / « On the use of tasks ordering to solve scheduling problems with constraint programming« 
jeudi 23 septembre 2021 à 14h, à IMT Atlantique – campus de Nantes en salle C114. La soutenance sera retransmise en direct sur Webex (1759749054@imtatlantique.webex.com).
Jury :
– Directeur de thèse : Nicolas BELDICEANU Professeur à IMT Atlantique
– Co-directeur de thèse : Xavier LORCA Directeur centre Génie Industriel à IMT Mines Albi-Carmaux
– Encadrant de thèse : Gilles SIMONIN Maître de conférences à IMT Atlantique
– Rapporteurs : Christian ARTIGUES Directeur de recherche au LAAS-CNRS ; Claude-Guy QUIMPER Professeur à l’Université Laval
– Examinateurs : Hadrien CAMBAZARD Maître de conférences à l’Université Grenoble Alpes ; Samir LOUDNI Professeur à IMT Atlantique ; Christine SOLNON Professeure à l’INSA de Lyon
 
Résumé : Au cours des deux dernières décennies, la programmation par contraintes s’est illustrée de par son efficacité à résoudre des problèmes d’ordonnancement. Grâce à la grande expressivité permise par le paradigme, différents algorithmes et techniques de résolution provenant d’autres domaines de l’Optimisation Combinatoire ont pu être intégrés au sein des solveurs de contraintes. Toutefois, cette grande expressivité fait que les solveurs ne sont pas des boîtes noires et demandent une expertise pour être paramétrés correctement pour résoudre effica­cement les problèmes souhaités. Dans cette  thèse, nous explorons l’introduction et l’utilisation d’algorithmes de liste ordonnée en programmation par contraintes pour résoudre  des problèmes d’ordonnancement. Nous revi­sitons également la contrainte AllDiffPrec, dé­finie comme une contrainte Alldifferent et des précédences entre variables, pour laquelle nous proposons également un nouvel algorithme de filtrage.
Mots-clés : programmation par contraintes, ordonnancement, AllDiffPrec, liste ordonnée
——————————————————————————————————————————————————————————————————————-
Abstract: During the last two decades, Constraint Programming gets very good results ­to solve scheduling problems. Thanks to the great expressivity of the paradigm, different al gorithms and solving techniques from other fields within Combinatorial Optimisation have been integrated into constraint solvers. However this great expressivity cornes with a price:  constraint solvers are not the black box one might think of and require expertise to be correctly configured to efficiently solve problems. ln this thesis, we explore the introduction and the use of list ordering algorithms into Constraint Programming to solve scheduling problems. We also revisit the AIIDiffPrec constraint, defined as an Allditferent constraint with precedence between some variables, for which we propose a new filtering algorithm.
Keywords: constraint programming, scheduling, ordering, AllDiffPrec, list ordering

Soutenance de thèse David ESPINEL SARMIENTO (équipe STACK)

David Espinel, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Gestion distribuée d’un service de connectivité pour une infrastructures Cloud-Edge à partir des approches SDN » / « Distributing connectivity management in Cloud-Edge infrastructures using SDN-based approaches »

mardi 7 septembre 2021 à 14h. Lien visio : http://desktop.visio.renater.fr/scopia?ID=721587***6377&autojoin

Jury :
– Directeur de thèse : ADRIEN LEBRE (Professeur /HdR) – IMT Atlantique
– Rapporteurs : Vania MARANGOZOVA-MARTIN (Professeure /HdR) – UNIVERSITE GRENOBLE-ALPES ; Stefano SECCI (Professeur /HdR) – CNAM
– Autres membres : Isabelle CHRISMENT (Professeure /HdR) – LORIA ; Lucas NUSSBAUM (Professeur associé) – INRIA ; Abdelhadi CHARI (ingénieur recherche) – ORANGE

Résumé : L’évolution du paradigme d’Informatique en nuage au cours de la dernière décennie a permis de démocratiser les services à la demande de manière significative (plus simple d’accès, économiquement attrayant, etc.). Cependant, le modèle actuel construit autour de quelques centres de données de très grande taille ne permettra pas de répondre aux besoins des nouveaux usages liés notamment à l’essor de l’Internet des Objets. Pour mieux répondre à ces nouvelles exigences (en termes de latence, volumétrie, etc.), les ressources de calculs et de stockages doivent être déployées à proximité de l’utilisateur. Dans le cas des opérateurs de télécommunications, les points de présence réseau qu’ils opèrent depuis toujours peuvent être étendus à moindre cout pour héberger ces ressources. La question devient alors : comment gérer une telle infrastructure nativement géo-distribuée (référencée dans le manuscrit sous l’acronyme DCI pour Distributed Cloud Infra-structure) afin d’offrir aux utilisateurs finaux les mêmes services qui ont fait le succès du modèle actuel d’Informatique en nuage. Dans cette thèse réalisée dans un contexte industriel avec Orange Labs, nous étudions le problème de la gestion distribué de la connectivité entre plusieurs sites d’une DCI et proposons d’y ré-pondre en utilisant les principes des réseaux définis par logiciel (connus sous les termes « Software Defined Network »). De manière plus précise, nous rappelons les problèmes et les limitations concernant la gestion centralisée, et ensuite, examinons les défis pour aller vers un modèle distribué, notamment pour les services liés à la virtualisation réseaux. Nous fournissons une analyse des principaux contrôleurs SDN distribués en indiquant s’ils sont capables ou non de répondre aux défis des DCIs. Sur cette étude détaillé,qui est une première contribution en soi, nous pro-posons la solution DIMINET, un service en charge fournir une connectivité à la demande entre plusieurs sites. DIMINET s’appuie sur une architecture distribué où les instances collaborent entre elles à la de-mande et avec un échange de trafic minimal pour assurer la gestion de la connectivité. Les leçons apprises durant cette étude nous permettent de proposer les prémisses d’une généralisation afin de pou-voir ”distribuer” d’une manière non intrusive n’importe quels services en charge de gérer une infrastructure géo-distribuée.

Mots-clés : Infrastructure géo-distribué, réseau, automatisation, IaaS, Software Defined Network


Abstract: The evolution of the cloud computing paradigm in the last decade has amplified the access of on-demand services (economical attractive,easy-to-use manner, etc.). However, the current model built upon a few large datacenters (DC) may not besuited to guarantee the needs of new use cases, notably the boom of the Internet of Things (IoT). To better respond to the new requirements (in terms of delay, traffic, etc.), compute and storage resources should be deployed closed to the end-user. In the case of telecommunication operators, the networkPoint of Presence (PoP), which they have always operated, can be inexpensively extended to host these resources. The question is then how to manage such a massively Distributed Cloud Infrastructure (DCI) to provide end-users the same services that made the current cloud computing model so successful. In this thesis realized in an industrial context with OrangeLabs, we study the inter-site connectivity management issue in DCIs leveraging the Software-Defined Networking (SDN) principles. More in detail, we analyze the problems and limitations related to centralized management, and then, we investigate the challenges related to distributed connectivity management in DCIs. We provide an analysis of major SDN controllers indicating whether they are able or not to answer the DCI challenges in their respective contexts.Based on this detailed study, which is a first contribution on its own, we propose the DIMINET solution, a service in charge of providing on-demand connectivity for multiple sites. DIMINET leverages a logically and physically distributed architecture where instances collaborate on-demand and with minimal traffic exchange to provide inter-site connectivity management. The lessons learned during this study allows us to propose the premises of a generalization in order to be able to distribute in a non-intrusive manner any service in a DCI.

Keywords: Geo-distributed infrastructure, networking, automation, IaaS, Software-Defined Network

Soutenance de thèse de Cyrine SELMA (équipes PSI et NAOMOD)

Cyrine Selma, doctorante au sein des équipes PSI et NAOMOD, soutiendra sa thèse intitulée « Résolution d’un problème industriel de type pick & place d’un centre de tri postal » / « Solving an industrial pick & place problem of a postal sorting center »

mardi 13 juillet 2021.

Jury :
– Directeur de thèse : Olivier CARDIN Maître de Conférences-HDR, IUT de Nantes, Université de Nantes
– Rapporteurs : Samir LAMOURI Professeur, Arts & Métiers ParisTech, Paris, Cyril BRIAND Professeur, Université de Toulouse 3 Paul Sabatier, Toulouse- – Autres membres : Hind BRIL Professeur, ENSTIB, Epinal ; Nasser MEBARKI Maître de Conférences-HDR, IUT de Nantes, Université de Nantes ; Dalila TAMZALIT Maître de Conférences-HDR, IUT de Nantes, Université de Nantes
– Invités : Didier THIERIOT Ingénieur, Groupe La Poste ; Loïc BRUGGEMAN Ingénieur, Groupe La Poste

Résumé : Les problèmes de type Pick&Place (PAP)sont très étudiés dans la littérature, mais, à notre connaissance, très peu de travaux étudient les systèmes de PAP dans un contexte industriel. L’objectif de cette thèse est la résolution d’un problème industriel de type PAP au sein d’un centre de tri postal, où des bacs remplis de courrier arrivent dynamiquement et dans un ordre inconnu, et où des opérateurs placent ces bacs dans des chariots en fonction de leur destination. Compte tenu de la diversité importante des destinations journalières, un équilibre doit être trouvé en temps réel entre les flux traités par les humains et par le robot. Ce problème a été résolu en quatre phases. En premier lieu, des modèles à base de connaissance ont été proposés à partir de l’expérience de l’opérateur logistique. Le résultat de l’application de ces modèles sur une simulation du système réel est considéré comme une borne inférieure de la performance du système. En second lieu, un modèle mathématique du système a été établi, le relâchement de plusieurs contraintes permettant de traiter le problème comme un problème d’ordonnancement classique. Les résultats de cet ordonnancement, inapplicables sur le terrain, nous ont permis d’établir une borne supérieure de la performance du système. Une troisième étape a été de proposer un modèle heuristique, à base de règles dynamiques, évalué en simulation. Enfin, un modèle multi-agents, intégrant ces règles de décisions, a été développé afin de valider l’applicabilité d’un tel système de pilotage sur le système réel.

Mots-clés : Pick&Place, Modèle multi-agent, Robotique,Heuristique, Simulation, Recherche opérationnelle
——————————————————————————————————————————————————————————————————————-
Abstract: Pick&Place (PAP) problems are widely studied in the literature, but,to the best of our knowledge, very few works study PAP systems in an industrial context. The objective of this thesis is to solve an industrial PAP problem in a postal sorting center, where containers filled with mail arrive dynamically and in an unknown order, and where operators place these containers in carts according to their destination. Given the large diversity of daily destinations, a balance must be found in real time between the flows processed by humans and by the robot. This problem was solved in four phases. First, knowledge-based models were proposed based on the experience of the logistics operator. The result of applying these models on a simulation of the real system is considered as a lower bound of the system performance. Second, a mathematical model of the system has been established, with the release of several constraints allowing to treat the problem as a classical scheduling problem. The results of this scheduling, which cannot be applied in the real system, allowed us to establish an upper bound on the performance of the system. A third step was to propose a heuristic model, based on dynamic rules, evaluated in simulation. Finally, a multi-agent model, integrating these decision rules, was developed in order to validate the applicability of such a control system on the real system.

Keywords: Pick&Place, Modèle multi-agent, Robotique,Heuristique, Simulation, Recherche opérationnelle

Copyright : LS2N 2017 - Mentions Légales - 
 -