Home » Posts tagged "équipe STACK"

Best student paper award décerné à Dimitri Saingre (équipe STACK) lors de la conférence IEEE ISCC 2021

Lors du 26ème symposium IEEE on Computers and Communications (IEEE ISCC 2021) qui s’est tenu à Athènes du 5 au 8 septembre 2021, Dimitri Saingre, Thomas Ledoux et Jean-Marc Menaud ont reçu le prix du meilleur papier étudiant pour l’article: « The cost of immortality: a time to live for smart contracts. »

Soutenance de thèse David ESPINEL SARMIENTO (équipe STACK)

David Espinel, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Gestion distribuée d’un service de connectivité pour une infrastructures Cloud-Edge à partir des approches SDN » / « Distributing connectivity management in Cloud-Edge infrastructures using SDN-based approaches »

mardi 7 septembre 2021 à 14h. Lien visio : http://desktop.visio.renater.fr/scopia?ID=721587***6377&autojoin

Jury :
– Directeur de thèse : ADRIEN LEBRE (Professeur /HdR) – IMT Atlantique
– Rapporteurs : Vania MARANGOZOVA-MARTIN (Professeure /HdR) – UNIVERSITE GRENOBLE-ALPES ; Stefano SECCI (Professeur /HdR) – CNAM
– Autres membres : Isabelle CHRISMENT (Professeure /HdR) – LORIA ; Lucas NUSSBAUM (Professeur associé) – INRIA ; Abdelhadi CHARI (ingénieur recherche) – ORANGE

Résumé : L’évolution du paradigme d’Informatique en nuage au cours de la dernière décennie a permis de démocratiser les services à la demande de manière significative (plus simple d’accès, économiquement attrayant, etc.). Cependant, le modèle actuel construit autour de quelques centres de données de très grande taille ne permettra pas de répondre aux besoins des nouveaux usages liés notamment à l’essor de l’Internet des Objets. Pour mieux répondre à ces nouvelles exigences (en termes de latence, volumétrie, etc.), les ressources de calculs et de stockages doivent être déployées à proximité de l’utilisateur. Dans le cas des opérateurs de télécommunications, les points de présence réseau qu’ils opèrent depuis toujours peuvent être étendus à moindre cout pour héberger ces ressources. La question devient alors : comment gérer une telle infrastructure nativement géo-distribuée (référencée dans le manuscrit sous l’acronyme DCI pour Distributed Cloud Infra-structure) afin d’offrir aux utilisateurs finaux les mêmes services qui ont fait le succès du modèle actuel d’Informatique en nuage. Dans cette thèse réalisée dans un contexte industriel avec Orange Labs, nous étudions le problème de la gestion distribué de la connectivité entre plusieurs sites d’une DCI et proposons d’y ré-pondre en utilisant les principes des réseaux définis par logiciel (connus sous les termes « Software Defined Network »). De manière plus précise, nous rappelons les problèmes et les limitations concernant la gestion centralisée, et ensuite, examinons les défis pour aller vers un modèle distribué, notamment pour les services liés à la virtualisation réseaux. Nous fournissons une analyse des principaux contrôleurs SDN distribués en indiquant s’ils sont capables ou non de répondre aux défis des DCIs. Sur cette étude détaillé,qui est une première contribution en soi, nous pro-posons la solution DIMINET, un service en charge fournir une connectivité à la demande entre plusieurs sites. DIMINET s’appuie sur une architecture distribué où les instances collaborent entre elles à la de-mande et avec un échange de trafic minimal pour assurer la gestion de la connectivité. Les leçons apprises durant cette étude nous permettent de proposer les prémisses d’une généralisation afin de pou-voir ”distribuer” d’une manière non intrusive n’importe quels services en charge de gérer une infrastructure géo-distribuée.

Mots-clés : Infrastructure géo-distribué, réseau, automatisation, IaaS, Software Defined Network


Abstract: The evolution of the cloud computing paradigm in the last decade has amplified the access of on-demand services (economical attractive,easy-to-use manner, etc.). However, the current model built upon a few large datacenters (DC) may not besuited to guarantee the needs of new use cases, notably the boom of the Internet of Things (IoT). To better respond to the new requirements (in terms of delay, traffic, etc.), compute and storage resources should be deployed closed to the end-user. In the case of telecommunication operators, the networkPoint of Presence (PoP), which they have always operated, can be inexpensively extended to host these resources. The question is then how to manage such a massively Distributed Cloud Infrastructure (DCI) to provide end-users the same services that made the current cloud computing model so successful. In this thesis realized in an industrial context with OrangeLabs, we study the inter-site connectivity management issue in DCIs leveraging the Software-Defined Networking (SDN) principles. More in detail, we analyze the problems and limitations related to centralized management, and then, we investigate the challenges related to distributed connectivity management in DCIs. We provide an analysis of major SDN controllers indicating whether they are able or not to answer the DCI challenges in their respective contexts.Based on this detailed study, which is a first contribution on its own, we propose the DIMINET solution, a service in charge of providing on-demand connectivity for multiple sites. DIMINET leverages a logically and physically distributed architecture where instances collaborate on-demand and with minimal traffic exchange to provide inter-site connectivity management. The lessons learned during this study allows us to propose the premises of a generalization in order to be able to distribute in a non-intrusive manner any service in a DCI.

Keywords: Geo-distributed infrastructure, networking, automation, IaaS, Software-Defined Network

Soutenance de thèse de Maverick CHARDET (équipe STACK)

Maverick Chardet, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Concilier expressivité du parallélisme et séparation des préoccupations lors de la reconfiguration de systèmes distribués » / « Reconciling Parallelism Expressivity and Separation of Concerns in Reconfiguration of Distributed Systems »

jeudi 3 décembre 2020 à 14h, dans l’amphi Besse sur le site IMT-A.

Jury :
– Directeur thèse : Christian Perez (Inria/LIP)
– Co-encadrants : Hélène Coullon, Adrien Lèbre
– Rapporteurs : Daniel Hagimont (INPT / ENSEEIHT), Eric Rutten (Inria Genoble)
– Autres membres : Laurence Duchien (Université de Lille /Inria), Françoise Baude (Université de Nice Sophia Antipolis)

Résumé : Les systèmes informatiques distribués, qui fonctionnent sur plusieurs ordinateurs, sont désormais courants et même utilisés dans des services critiques. Cependant, ces systèmes deviennent de plus en plus complexes, en termes d’échelle, de dynamicité et de qualité de service attendue. La reconfiguration de systèmes distribués consiste à modifier leur état durant leur exécution. Les systèmes distribués peuvent être reconfigurés pour plusieurs raison, parmi lesquelles leur déploiement, leur mise à jour, leur adaptation pour obéir à de nouvelles contraintes (en termes de capacité utilisateurs, d’efficacité énergétique, de fiabilité, de coût, etc.) ou même le changement de leurs fonctionnalités. Les systèmes de reconfiguration existants ne parviennent pas à fournir en même temps une bonne expressivité du parallélisme dans les actions de reconfiguration et la séparation des préoccupations entre les différents acteurs qui interagissent avec le système.
L’objectif de cette thèse est de prouver que ces propriétés peuvent être conciliées en modélisant précisément le cycle de vie de chaque module des systèmes distribués, tout en fournissant des interfaces appropriées entre différents niveaux de conception. Deux modèles formels implantant cette idée sont fournis, un pour le cas particulier du déploiement et un pour la reconfiguration. Une évaluation est réalisée à la fois sur des cas d’usage synthétiques et réels et montre que ces modèles ont un plus haut niveau d’expressivité du parallélisme que leurs homologues tout en conservant un bon niveau de séparation des préoccupations.

Mots-clés : déploiement ; reconfiguration ; modèles à composants ; coordination ; parallélisme ; systèmes distribués.

—————————————————————————————————————————————————————————————————————–

Abstract: Distributed computer systems, which run on multiple computers, are now commonplace and used even in critical systems. However, these systems are becoming more and more complex, in terms of scale, dynamicity and expected quality of service. Reconfiguration of distributed systems consists in changing their state at runtime. Distributed systems may be reconfigured for many reasons, including deploying them, updating them, adapting them to fulfill new requirements (in terms of user capacity, energy efficiency, reliability, costs, etc.) or even changing their capabilities.
Existing reconfiguration frameworks fall short of providing at the same time parallelism expressivity and separation of concerns between the different actors interacting with the system. The focus of this thesis is to prove that these properties can be reconciled by modelling precisely the life-cycle of each module of distributed systems, while providing appropriate interfaces between the different levels of conception. Two formal models implementing this idea are provided, one for the specific case of deployment and one for reconfiguration. Evaluation is performed on both synthetic and real use-cases and show that these models have a higher level of parallelism expressivity than their counterparts while conserving a good level of separation of concerns.

Keywords: deployment; reconfiguration; component models; coordination; parallelism; distributed systems

Séminaire invité – L’équipe STACK reçoit la société iExec : « Blockchain-based decentralized, trusted and transparent cloud computing »

Gilles Fedak (anciennement chercheur Inria) et Anthony Simonet-Boulogne (anciennement post-doc au sein de l’équipe STACK puis à Rutgers University) feront une présentation autour d’un modèle de cloud computing décentralisé et authentifié grâce à une blockchain
vendredi 20 novembre à partir de 15h15 sur Zoom (mot de passe: recherche).
Gilles Fedak a quitté le monde académique pour co-créer la société IExec dans laquelle il supervise ces activités.
Title: iExec: Blockchain-Based Decentralized, Trusted and Transparent Cloud Computing
Abstract: iExec is a French startup company based in Lyon which built the first decentralized marketplace in which entities (e.g. traditional cloud providers, research centers and even individuals) can contribute and monetize cloud computing resources (CPU, GPU), decentralized applications (dapps) and data-sets (data renting) in a secure and confidential way, ensuring the confidentiality and ownership of data.
During this seminar, we will present how iExec combines Ethereum Smart Contracts, a unique Proof-of-Contribution (PoCo) protocol and Trusted Execution Environments (TEE) to ensure trust between providers and consumers of resources. The project, however, is still facing several scientific and technological barriers related to scalability, interoperability and to supporting more classes of applications. We will discuss several research topics (e.g. ZK-proofs and rollups) and two H2020 projects in which iExec is involved: OntoChain, which aims at building a trusted and transparent knowledge management ecosystem and Datacloud, which goal is to build a platform for big data analytics in the edge-to-cloud continuum.
La présentation devrait durer environ 45 min suivie de 20 à 30 min d’échanges.

Soutenance de thèse d’Emile CADOREL (équipe STACK)

Emile Cadorel, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Prise en compte de l’énergie dans la gestion des workflows scientifiques dans le Cloud : Une vision centrée sur le fournisseur de service » / « Energy-aware management of scientific workflows in the Cloud: A Cloud provider-centric vision »

mercredi 21 octobre 2020 à 13h00 dans l’amphi Besse sur le site de l’IMT-A.

Jury :
– Directeur thèse : Jean-Marc Menaud
– Co-encadrant ; Hélène Coullon
– Rapporteurs : Romain Rouvoy (U Lille), Patricia Stolf (IRIT-IUT Blagnac)
– Autres membres : Frédéric Desprez (LIG-Inria Rhône Alpes), Stéphane Genaud (U Strasbourg)
– Invités : Georges Da Costa (IRIT-U Sabatier)

Résumé : Les simulations scientifiques par ordinateur sont généralement très complexes et se caractérisent par de nombreux processus parallèles. Afin de mettre en évidence les parties parallèlisables, et de permettre une exécution efficace, de nombreux scientifiques ont choisi de définir leurs applications sous forme de workflows. Un workflow scientifique représente une application comme un ensemble de tâches de traitement unitaires, liées par des dépendances. De nos jours, grâce à leur faible coût, leur élasticité et leur aspect à la demande, les services de cloud computing sont largement utilisés pour l’exécution de workflows. Les utilisateurs utilisant ce type d’environnement gèrent l’exécution de leur workflow, ainsi que les ressources nécessaires, à l’aide de service standards tel que le IaaS (Infrastructure-as-a-Service). Néanmoins, comme les services de cloud ne sont pas
spécifiques à la nature de l’application à exécuter, l’utilisation des ressources physiques n’est pas aussi optimisée qu’elle pour- rait l’être. Dans cette thèse, nous proposons de déplacer la gestion et l’exécution des workflows du côté du fournisseur de Cloud afin d’offrir un nouveau type de service dédié aux workflows. Cette nouvelle approche rend possible une amélioration de la gestion des ressources et une réduction de la consommation d’énergie et de ce fait l’impact environnemental.

Mots-clés : Workflows scientifiques ; fournisseur de services de Cloud ; ordonnancement ; exécution ; optimisation energétique ; systèmes distribués ; infrastructures distribuées


Abstract: Scientific computer simulations are generally very complex and are characterized by many parallel processes. In order to highlight the parts that can be parallelized, and to enable efficient execution, many scientists have chosen to define their applica- tions as workflows. Ascientific workflow rep- resents an application as a set of unitary processing tasks, linked by dependencies. Today, because of their low cost, elasticity, and on demand nature, cloud computing services are widely used for workflow execution. Users using this type of environment manage the execution of their workflow, as well as the necessary resources, using standard services such as IaaS (Infrastructure-as-a-Service). However, because cloud services are not specific to the nature of the application to be executed, the use of physical resources is not as optimized as it could be. In this thesis, we propose to move the management and execution of workflows to the cloud provider’s side in order to offer a new type of service dedicated to workflows. This new approach makes it possible to improve resource management and reduce energy consumption and thus the envinmont impact.

Technoférence du pôle Images et Réseaux : « Voyage dans le Xaas, au-delà du nuage »

Cette technoférence #32, initialement prévue en mars 2020, sera proposée en visioconférence via GoToMeeting, mardi 9 juin de 9h à 12h30.

Merci de vous inscrire au préalable pour recevoir le lien de connexion : https://www.images-et-reseaux.com/agenda/technoference-32-xaas-saas-iaas-paas-naas/

SaaS, IaaS, PaaS…, cette 32e technoférence sera l’occasion d’explorer l’univers des XaaS en voyageant à travers les différents modèles et couches du cloud computing « as a service ».
Avec toujours un temps d’avance, cette matinée-débat réunira les acteurs du numérique et acteurs économiques au croisement des filières, dans l’objectif de nouer de nouvelles collaborations en R&D.
Elle s’appuiera sur les retours d’expériences d’industriels et de chercheurs académiques experts dans la cloudification de l’hébergement de données, de la distribution de contenus et des télécoms.

2 enseignants-chercheurs du labo interviendront au cours de la matinée :

  • Dalila Tamzalit (équipe NaoMod) : « Les Xaas, enjeux et tendances »
  • Thomas Ledoux (équipe STACK) : « Nuages brumeux : vers une coordination Cloud-Fog »

Technoférence N°32 : “Voyage dans le Xaas, au-delà du nuage”

La prochaine Prochaine technoférence du pôle « Images et réseaux » aura lieu au bâtiment 34 du laboratoire sur le site FST,

jeudi 19 mars 2020 de 9h à 12h.

Elle s’intitule : « Voyage dans le Xaas au-delà du nuage »

Infos et inscription.

Programme :
I. Introduction : Les Xaas, enjeux et tendances
Par Dalila Tamzalit (équipe NaoMod) et Nicolas Jullien (IMT-A)
II. Quelles infrastructures pour un cloud optimisé ?
Par Yohan Bourd, (Bretagne Télécom), Olivier Dehoux (IMT-A), Bérenger Cadoret (Stratosfair)
III. Saas / Naas : comment passer à un environnement applicatif partagé ?
a. Cas d’usage de la distribution de contenus
Par Cédric Thienot (Enensys Technologies group CSO) et Equipe VAADER/INSA Rennes – IETR (sous réserve)
b. Cas d’usage des infrastructures réseaux ?
Par Veronica Quintuna-Rodriguez (Orange Labs) et Thomas Ledoux (équipe Stack)

Soutenance de thèse de Yewan WANG (équipe STACK)

Yewan WANG, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/logicielle et de l’environnement associé » / »Evaluating and Modeling the Energy Impacts of Data centers, in terms of hardware/software architecture and associated environment »

lundi 9 mars 2020 à 14h, dans l’amphi G. Besse sur le site de l’IMT-A.

Jury :

  • Directeur thèse : MENAUD Jean Marc
  • Co encadrant : NORTERSHAUSER David (Orange Labs Lannion), LE MASSON Stéphane (Orange Labs Lannion)
  • Rapporteurs : ROUVOY Romain (U Lille), DE PALMA Noel (U Grenoble Alpes)
  • Autres membres : STOLF Patricia (U Toulouse Jean Jaures), ORGERIE Anne-Cécile (CR CNRS/IRISA Rennes) GUALOUS Hamid (U Caen Normand)

Résumé : Depuis des années, la consommation énergétique du centre de donnée a pris une importance croissante suivant une explosion de demande dans cloud computing. Ce thèse aborde le défi scientifique de la modélisation énergétique d’un centre de données, en fonction des paramètres les plus importants. Disposant d’une telle modélisation, un opérateur pourrait mieux repenser/concevoir ses actuels/futurs centre de données.
Pour bien identifier les impacts énergétiques des matériels et logiciels utilisés dans les systèmes informatiques. Dans la première partie de la thèse, nous avons réaliser un grand nombre évaluations expérimentales pour identifier et caractériser les incertitudes de la consommation d’énergie induite par les éléments externes : effets thermiques, différences entre des processeurs identiques causées par un processus de fabrication imparfait, problèmes de précision issus d’outil de mesure de la puissance, etc. Nous avons terminé cette étude scientifique par le développement d’une modélisation global pour un cluster physique donné, ce cluster est composé par 48 serveurs identiques et équipé d’un système de refroidissement à expansion à direct, largement utilisé aujourd’hui pour les data centers modernes. La modélisation permet d’estimer la consommation énergétique globale en fonction des configurations opérationnelles et des données relatives à l’activité informatique, telles que la température ambiante, les configurations du système de refroidissement et la charge des serveurs.

Mots-clés : Modélisation du consommation énergétique, Efficacité énergétique, Variabilité des processeurs, Effet Thermique

***********************

Abstract: For years, the energy consumption of the data center has dramatically increased followed by the explosion of demand in cloud computing. This thesis addresses the scientific challenge of energy modeling of a data center, based on the most important variables. With such modeling, an data center operator will be able to better reallocate/design the current/future data centers. In order to identify the energy impacts of hardware and software used in computer systems. In the first part of the thesis, to identify and characterize the uncertainties of energy consumption introduced by external elements: thermal effects, difference between identical processors caused by imperfect manufacturing process, precision problems resulting from power measurement tool, etc. We have completed this scientific study by developing a global power modeling for a given physical
cluster, this cluster is composed by 48 identical servers and equipped with a direct expansion cooling system, conventionally used today for modern data centers. The modeling makes it possible to estimate the overall energy consumption of the cluster based on operational configurations and data relating to IT activity, such as ambient temperature

Keywords: Energy consumption modeling, Energy efficiency, Processor variability, Thermal Effect

Journées du GDR Réseaux et Systèmes Distribués 2020

Dans Le cadre du Groupe de Recherche (GdR) Réseaux et Systèmes Distribués, Benoit Parrein (équipe RIO) et Adrien Lebre (équipe STACK) organisent des journées non-thématiques

jeudi 23 et vendredi 24 janvier 2020 dans l’amphi du bât. 34 sur le site de la FST.

L’événement vise à rassembler les communautés Réseaux et Systèmes Distribués afin de présenter les défis scientifiques et techniques des deux pôles, échanger autour des résultats obtenus et faire émerger de futures collaborations.

Keynotes:

Bringing Artificial Intelligence to the network edge par Dario ROSSI – Chief Expert Huawei
Abstract: Often, advances in hardware have been at the base of success of new computing paradigm, algorithms and techniques. This is, e.g., what might happen in the future for quantum computers, and what has recently happened in the field of Artificial Intelligence (AI) and Neural Networks in particular, whose potential has been fully unleashed by commoditization of general-purpose GPUs.
In this keynote, we first introduce recent hardware advances, namely a new family of specialized architectures that are promising enablers for a deeper integration of AI at all network segments, particularly at the edge, and layers of the stack. We next discuss challenges and opportunities that are specific to the networking domain, putting them in perspective with advances in other fields.

> Rebooting virtualization » par Alain TCHANA, Full professor at École Normale Supérieure (ENS) de Lyon
Abstract: Visible or hidden, virtualization platforms remain the cornerstone of the cloud and the performance overheads of the latest generations have shrunk. Is hypervisor research dead?We argue that the upcoming trends of hardware disaggregation in the data center motivate a new chapter of virtualization research. We explain why the guest virtual machine abstraction is still relevant (not to say mandatory) in such a new hardware environment and we discuss challenges and ideas for hypervisor and guest OS design in this context. Finally, we propose the architecture of a research platform to explore these questions.

Programme complet

Inscription.

Séminaire du pôle SLS – invité : Marcos Dias De Assunçao

Marcos Dias De Assunçao, chercheur Inria invité par l’équipe STACK, animera un séminaire sur le site de l’IMT Atlantique, jeudi 14 novembre 2019 à 10h en Amphi Besse.
Title: Reinforcement Learning for Reconfiguring Data Stream Processing Applications on Edge Computing.

Abstract:
Distributed Stream Processing (DSP) applications are increasingly used in new pervasive services that process enormous amounts of data in a seamless and near real-time fashion. Edge computing has emerged as a means to minimise the time to handle events by enabling processing (i.e., operators) to be offloaded from the Cloud to the edges of the Internet, where the data is often generated. Deciding where to execute such operations (i.e., edge or cloud) during application deployment or at runtime is not a trivial problem. In this talk I will discuss how Reinforcement Learning (RL) and Monte-Carlo Tree Search
(MCTS) can be used to reassign operators during application runtime. I will describe an optimisation to an MCTS algorithm that achieves latency similar to other approaches, but with fewer operator migrations and faster execution time. In the second part of the talk, I will explain how we consider multi-objective RL reward considering metrics regarding operator reconfiguration, and infrastructure and application improvement.

Short-bio:
Marcos Dias de Assuncao is an Inria Starting Researcher at Avalon, LIP, ENS Lyon. Prior to joining Inria, he was a research scientist at IBM Research in Sao Paulo. He obtained his PhD in Computer Science at the University of Melbourne in Australia (2009). Marcos has over 19 years of experience in research and development in distributed systems and networks, has published over 60 papers, deposited more than 20 patents applications, and contributed to the design and development of several software systems. His current topics of interest comprising deep reinforcement learning to address resource management problems in edge and cloud computing and fault tolerance for distributed data stream processing applications. He also intends to design solutions that facilitate the execution of machine-learning pipelines on edge computing.
Copyright : LS2N 2017 - Mentions Légales - 
 -