Home » évènement

Soutenance de thèse de Dimitri SAINGRE (équipe STACK)

Dimitri Saingre, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Comprendre la consommation énergétique des blockchains : un regard sur les contrats intelligents » / « Understanding the energy consumption of blockchains: a focus on smart contracts »

lundi 13 décembre 2021 à 10h, à l’IMT Atlantique – campus de Nantes.

Jury :
– Directeur de thèse : Jean-Marc MENAUD, Professeur (HDR), IMT Atlantique
– Co-dir. de thèse : Thomas LEDOUX, Professeur (HDR), IMT Atlantique
– Rapporteurs : Maria POTOP-BUTUCARU, Professeur (HDR), Sorbonne Université ; Romain ROUVOY, Professeur (HDR), Université de Lille
– Autres membres : Jean-Marc PIERSON, Professeur (HDR), Université de Toulouse ; Anthony SIMONET-BOULOGNE, Responsable des projets Scientifique, IExec

Résumé : Les systèmes de chaînes de blocs sont des registres répliqués dans un réseau pair à pair. Elles ont connu un développement rapide depuis quelques années en s’illustrant dans de nombreux domaines d’activités. En permettant le traitement et la sauvegarde de données dans un contexte distribué et Byzantin, ces technologies ont le potentiel de modifier de nombreux secteurs. Par exemple, dans le cadre de la finance décentralisée, les cryptomonnaies se développement comme une alternative aux monnaies fiduciaires en proposant un système de paiement dépourvu de tiers de confiance. Cependant, une certaine inquiétude vis-à-vis de l’impact environnemental des chaînes de blocs a émergé en parallèle de leur développement. En particulier, de nombreuses recherches ont démontré le coût énergétique important des chaînes basées sur les preuves de travail.
Dans cette thèse, nous proposons de contribuer à l’étude expérimentale du coût énergétique des solutions logicielles basées sur les chaînes de blocs. Face à l’enrichissement progressif de l’écosystème lié aux chaînes de blocs, nous proposons BCTMark, un nouvel outil de déploiement et d’évaluation des performances des chaînes de blocs. Partant de cet outil, nous concentrons notre étude sur l’impact des contrats intelligents sur la chaîne de blocs Ethereum. D’une part, nous proposons un modèle pour l’estimation du coût énergétique des contrats intelligents développé pour Ethereum. D’autre part, nous proposons un nouveau protocole pour l’identification et l’élimination des contrats non utilisés dans le but de proposer des chaînes de blocs plus frugales en calculs et espaces de stockages.

Mots-clés : Chaînes de blocs, contrats intelligents, consommation énergétique, système distribués, systèmes pairs à pairs

—————————————————————————————————————————————————————————————————————————————————————-
Abstract: Blockchain systems are ledgers distributed in a peer-to-peer network. They have been developing rapidly over the past few years and have been used in many domains. By enabling the processing and storage of data in a distributed and Byzantine context, these technologies have the potential to change many sectors. For instance, in the context of decentralized finance, cryptocurrencies are developing as an alternative to fiat currencies by offering a payment system without relying on a trusted third party. However, some concerns about the environmental impacts of blockchains have emerged in parallel with their development. In particular, many studies have demonstrated the high energy cost of proof-of-work based blockchains.
In this thesis, we propose to contribute to the experimental study of the energy cost of blockchain-based software solutions. Facing the progressive enrichment of the blockchain ecosystem, we propose BCTMark, a new tool for deploying and evaluating the performance of blockchains. Based on this tool, we focus our study on the impact of smart contracts on the blockchain Ethereum. On the one hand, we propose a model for estimating the energy cost of smart contracts developed for Ethereum. On the other hand, we propose a new protocol for the identification and elimination of unused contracts in order to propose blockchains that are more frugal in computation and storage space.

Keywords: blockchain, smart contracts, energy consumption, distributed systems, peer to peer systems

Soutenance de thèse de Maxime BÉLAIR (équipe STACK)

Maxime Bélair, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Défense contre les attaques à l’aune des nouvelles formes de virtualisation des infrastructures » / « Defense against attacks with regard to new virtualisation technics »

mercredi 8 décembre à 14h, dans l’Amphi BESSE, à l’IMT Atlantique campus de Nantes.

Jury :
– Directeur de thèse : Jean-Marc MENAUD, Professeur, IMT Atlantique
– Co-dir. de thèse : Sylvie LANIEPCE, Ingénieure de recherche, Orange Labs
– Rapporteurs : Alain TCHANA, Professeur, ENS Lyon ; Marie-Laure POTET, Professeure, ENSIMAG
– Président : Gaël THOMAS, Professeur, Télécom SudParis
– Autres membres : Jerémy BRIFFAUT, Maître de conférences, INSA CVL ; Aurélien FRANCILLON, Professeur associé, EURECOM

Résumé : La conteneurisation est une forme de virtualisation de niveau système d’exploitation présentant de bonnes propriétés de performances et de simplicité de déploiement ; elle facilite la réutilisation du code. Les conteneurs sont donc massivement utilisés aujourd’hui. Toutefois, de par leur grande surface d’attaque et les vulnérabilités qu’ils peuvent souvent contenir, les conteneurs posent de nouveaux enjeux de sécurité. Les nombreuses approches défensives existantes ne suffisent pas à répondre à toutes leurs problématiques de sécurité.
Dans cette thèse, nous montrons que la programmabilité du noyau permet de déployer des services de sécurité innovants pour améliorer la sécurité des conteneurs. Après avoir montré les spécificités des environnements conteneurs et leur problématiques et opportunités de sécurité, nous présentons le design et l’implémentation de SNAPPY, une nouvelle infrastructure logicielle permettant de mettre en place des politiques de sécurité programmables à grain fin de niveau noyau, particulièrement adaptée à la protection des conteneurs. Nous présentons également SecuHub, une nouvelle infrastructure logicielle de distribution unifiée de politiques de mitigation pour CVE (Common Vulnerabilities and Exposures), permettant donc aux conteneurs de se protéger simplement contre les vulnérabilités connues. Nous montrons finalement que le surcoût en performance de SecuHub et SNAPPY est minimal.

Mots-clés : Sécurité, Conteneurs, SNAPPY, SecuHub, Noyau, Programmable

—————————————————————————————————————————————————————————————————————————————————————-

Abstract: Containerization is an OS-level virtualisation technique providing good performances, ease of deployment and code reusability properties. Containers are therefore massively used nowadays. However, due to their big attack surface and to the vulnerability they may contain, containers bring new security challenges. The numerous existing defensive approaches are not sufficent to respond to all their security issues.
In this thesis, we show that kernel programmability allows to deploy innovative security services to improve the security of containers. After showing the specificities of containers environments and associated security challenges and opportunities, we present the design and implementation of SNAPPY, a new framework allowing to setup fine-grained programmable kernel security policies notably suitable to protect containers.We also present SecuHub, a new framework enabling to distribute CVE mitigation policies, allowing containers to protect themselves against known vulnerabilities. We finally show that SNAPPY and SecuHub can be used with a very low performance overhead.

Keywords: Security, Containers, SNAPPY, Secuhub, Kernel, Programmable

Best student paper award décerné à Dimitri Saingre (équipe STACK) lors de la conférence IEEE ISCC 2021

Lors du 26ème symposium IEEE on Computers and Communications (IEEE ISCC 2021) qui s’est tenu à Athènes du 5 au 8 septembre 2021, Dimitri Saingre, Thomas Ledoux et Jean-Marc Menaud ont reçu le prix du meilleur papier étudiant pour l’article: « The cost of immortality: a time to live for smart contracts. »

Soutenance de thèse David ESPINEL SARMIENTO (équipe STACK)

David Espinel, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Gestion distribuée d’un service de connectivité pour une infrastructures Cloud-Edge à partir des approches SDN » / « Distributing connectivity management in Cloud-Edge infrastructures using SDN-based approaches »

mardi 7 septembre 2021 à 14h. Lien visio : http://desktop.visio.renater.fr/scopia?ID=721587***6377&autojoin

Jury :
– Directeur de thèse : ADRIEN LEBRE (Professeur /HdR) – IMT Atlantique
– Rapporteurs : Vania MARANGOZOVA-MARTIN (Professeure /HdR) – UNIVERSITE GRENOBLE-ALPES ; Stefano SECCI (Professeur /HdR) – CNAM
– Autres membres : Isabelle CHRISMENT (Professeure /HdR) – LORIA ; Lucas NUSSBAUM (Professeur associé) – INRIA ; Abdelhadi CHARI (ingénieur recherche) – ORANGE

Résumé : L’évolution du paradigme d’Informatique en nuage au cours de la dernière décennie a permis de démocratiser les services à la demande de manière significative (plus simple d’accès, économiquement attrayant, etc.). Cependant, le modèle actuel construit autour de quelques centres de données de très grande taille ne permettra pas de répondre aux besoins des nouveaux usages liés notamment à l’essor de l’Internet des Objets. Pour mieux répondre à ces nouvelles exigences (en termes de latence, volumétrie, etc.), les ressources de calculs et de stockages doivent être déployées à proximité de l’utilisateur. Dans le cas des opérateurs de télécommunications, les points de présence réseau qu’ils opèrent depuis toujours peuvent être étendus à moindre cout pour héberger ces ressources. La question devient alors : comment gérer une telle infrastructure nativement géo-distribuée (référencée dans le manuscrit sous l’acronyme DCI pour Distributed Cloud Infra-structure) afin d’offrir aux utilisateurs finaux les mêmes services qui ont fait le succès du modèle actuel d’Informatique en nuage. Dans cette thèse réalisée dans un contexte industriel avec Orange Labs, nous étudions le problème de la gestion distribué de la connectivité entre plusieurs sites d’une DCI et proposons d’y ré-pondre en utilisant les principes des réseaux définis par logiciel (connus sous les termes « Software Defined Network »). De manière plus précise, nous rappelons les problèmes et les limitations concernant la gestion centralisée, et ensuite, examinons les défis pour aller vers un modèle distribué, notamment pour les services liés à la virtualisation réseaux. Nous fournissons une analyse des principaux contrôleurs SDN distribués en indiquant s’ils sont capables ou non de répondre aux défis des DCIs. Sur cette étude détaillé,qui est une première contribution en soi, nous pro-posons la solution DIMINET, un service en charge fournir une connectivité à la demande entre plusieurs sites. DIMINET s’appuie sur une architecture distribué où les instances collaborent entre elles à la de-mande et avec un échange de trafic minimal pour assurer la gestion de la connectivité. Les leçons apprises durant cette étude nous permettent de proposer les prémisses d’une généralisation afin de pou-voir ”distribuer” d’une manière non intrusive n’importe quels services en charge de gérer une infrastructure géo-distribuée.

Mots-clés : Infrastructure géo-distribué, réseau, automatisation, IaaS, Software Defined Network


Abstract: The evolution of the cloud computing paradigm in the last decade has amplified the access of on-demand services (economical attractive,easy-to-use manner, etc.). However, the current model built upon a few large datacenters (DC) may not besuited to guarantee the needs of new use cases, notably the boom of the Internet of Things (IoT). To better respond to the new requirements (in terms of delay, traffic, etc.), compute and storage resources should be deployed closed to the end-user. In the case of telecommunication operators, the networkPoint of Presence (PoP), which they have always operated, can be inexpensively extended to host these resources. The question is then how to manage such a massively Distributed Cloud Infrastructure (DCI) to provide end-users the same services that made the current cloud computing model so successful. In this thesis realized in an industrial context with OrangeLabs, we study the inter-site connectivity management issue in DCIs leveraging the Software-Defined Networking (SDN) principles. More in detail, we analyze the problems and limitations related to centralized management, and then, we investigate the challenges related to distributed connectivity management in DCIs. We provide an analysis of major SDN controllers indicating whether they are able or not to answer the DCI challenges in their respective contexts.Based on this detailed study, which is a first contribution on its own, we propose the DIMINET solution, a service in charge of providing on-demand connectivity for multiple sites. DIMINET leverages a logically and physically distributed architecture where instances collaborate on-demand and with minimal traffic exchange to provide inter-site connectivity management. The lessons learned during this study allows us to propose the premises of a generalization in order to be able to distribute in a non-intrusive manner any service in a DCI.

Keywords: Geo-distributed infrastructure, networking, automation, IaaS, Software-Defined Network

Soutenance de thèse de Maverick CHARDET (équipe STACK)

Maverick Chardet, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Concilier expressivité du parallélisme et séparation des préoccupations lors de la reconfiguration de systèmes distribués » / « Reconciling Parallelism Expressivity and Separation of Concerns in Reconfiguration of Distributed Systems »

jeudi 3 décembre 2020 à 14h, dans l’amphi Besse sur le site IMT-A.

Jury :
– Directeur thèse : Christian Perez (Inria/LIP)
– Co-encadrants : Hélène Coullon, Adrien Lèbre
– Rapporteurs : Daniel Hagimont (INPT / ENSEEIHT), Eric Rutten (Inria Genoble)
– Autres membres : Laurence Duchien (Université de Lille /Inria), Françoise Baude (Université de Nice Sophia Antipolis)

Résumé : Les systèmes informatiques distribués, qui fonctionnent sur plusieurs ordinateurs, sont désormais courants et même utilisés dans des services critiques. Cependant, ces systèmes deviennent de plus en plus complexes, en termes d’échelle, de dynamicité et de qualité de service attendue. La reconfiguration de systèmes distribués consiste à modifier leur état durant leur exécution. Les systèmes distribués peuvent être reconfigurés pour plusieurs raison, parmi lesquelles leur déploiement, leur mise à jour, leur adaptation pour obéir à de nouvelles contraintes (en termes de capacité utilisateurs, d’efficacité énergétique, de fiabilité, de coût, etc.) ou même le changement de leurs fonctionnalités. Les systèmes de reconfiguration existants ne parviennent pas à fournir en même temps une bonne expressivité du parallélisme dans les actions de reconfiguration et la séparation des préoccupations entre les différents acteurs qui interagissent avec le système.
L’objectif de cette thèse est de prouver que ces propriétés peuvent être conciliées en modélisant précisément le cycle de vie de chaque module des systèmes distribués, tout en fournissant des interfaces appropriées entre différents niveaux de conception. Deux modèles formels implantant cette idée sont fournis, un pour le cas particulier du déploiement et un pour la reconfiguration. Une évaluation est réalisée à la fois sur des cas d’usage synthétiques et réels et montre que ces modèles ont un plus haut niveau d’expressivité du parallélisme que leurs homologues tout en conservant un bon niveau de séparation des préoccupations.

Mots-clés : déploiement ; reconfiguration ; modèles à composants ; coordination ; parallélisme ; systèmes distribués.

—————————————————————————————————————————————————————————————————————–

Abstract: Distributed computer systems, which run on multiple computers, are now commonplace and used even in critical systems. However, these systems are becoming more and more complex, in terms of scale, dynamicity and expected quality of service. Reconfiguration of distributed systems consists in changing their state at runtime. Distributed systems may be reconfigured for many reasons, including deploying them, updating them, adapting them to fulfill new requirements (in terms of user capacity, energy efficiency, reliability, costs, etc.) or even changing their capabilities.
Existing reconfiguration frameworks fall short of providing at the same time parallelism expressivity and separation of concerns between the different actors interacting with the system. The focus of this thesis is to prove that these properties can be reconciled by modelling precisely the life-cycle of each module of distributed systems, while providing appropriate interfaces between the different levels of conception. Two formal models implementing this idea are provided, one for the specific case of deployment and one for reconfiguration. Evaluation is performed on both synthetic and real use-cases and show that these models have a higher level of parallelism expressivity than their counterparts while conserving a good level of separation of concerns.

Keywords: deployment; reconfiguration; component models; coordination; parallelism; distributed systems

Séminaire invité – L’équipe STACK reçoit la société iExec : « Blockchain-based decentralized, trusted and transparent cloud computing »

Gilles Fedak (anciennement chercheur Inria) et Anthony Simonet-Boulogne (anciennement post-doc au sein de l’équipe STACK puis à Rutgers University) feront une présentation autour d’un modèle de cloud computing décentralisé et authentifié grâce à une blockchain
vendredi 20 novembre à partir de 15h15 sur Zoom (mot de passe: recherche).
Gilles Fedak a quitté le monde académique pour co-créer la société IExec dans laquelle il supervise ces activités.
Title: iExec: Blockchain-Based Decentralized, Trusted and Transparent Cloud Computing
Abstract: iExec is a French startup company based in Lyon which built the first decentralized marketplace in which entities (e.g. traditional cloud providers, research centers and even individuals) can contribute and monetize cloud computing resources (CPU, GPU), decentralized applications (dapps) and data-sets (data renting) in a secure and confidential way, ensuring the confidentiality and ownership of data.
During this seminar, we will present how iExec combines Ethereum Smart Contracts, a unique Proof-of-Contribution (PoCo) protocol and Trusted Execution Environments (TEE) to ensure trust between providers and consumers of resources. The project, however, is still facing several scientific and technological barriers related to scalability, interoperability and to supporting more classes of applications. We will discuss several research topics (e.g. ZK-proofs and rollups) and two H2020 projects in which iExec is involved: OntoChain, which aims at building a trusted and transparent knowledge management ecosystem and Datacloud, which goal is to build a platform for big data analytics in the edge-to-cloud continuum.
La présentation devrait durer environ 45 min suivie de 20 à 30 min d’échanges.

Soutenance de thèse d’Emile CADOREL (équipe STACK)

Emile Cadorel, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Prise en compte de l’énergie dans la gestion des workflows scientifiques dans le Cloud : Une vision centrée sur le fournisseur de service » / « Energy-aware management of scientific workflows in the Cloud: A Cloud provider-centric vision »

mercredi 21 octobre 2020 à 13h00 dans l’amphi Besse sur le site de l’IMT-A.

Jury :
– Directeur thèse : Jean-Marc Menaud
– Co-encadrant ; Hélène Coullon
– Rapporteurs : Romain Rouvoy (U Lille), Patricia Stolf (IRIT-IUT Blagnac)
– Autres membres : Frédéric Desprez (LIG-Inria Rhône Alpes), Stéphane Genaud (U Strasbourg)
– Invités : Georges Da Costa (IRIT-U Sabatier)

Résumé : Les simulations scientifiques par ordinateur sont généralement très complexes et se caractérisent par de nombreux processus parallèles. Afin de mettre en évidence les parties parallèlisables, et de permettre une exécution efficace, de nombreux scientifiques ont choisi de définir leurs applications sous forme de workflows. Un workflow scientifique représente une application comme un ensemble de tâches de traitement unitaires, liées par des dépendances. De nos jours, grâce à leur faible coût, leur élasticité et leur aspect à la demande, les services de cloud computing sont largement utilisés pour l’exécution de workflows. Les utilisateurs utilisant ce type d’environnement gèrent l’exécution de leur workflow, ainsi que les ressources nécessaires, à l’aide de service standards tel que le IaaS (Infrastructure-as-a-Service). Néanmoins, comme les services de cloud ne sont pas
spécifiques à la nature de l’application à exécuter, l’utilisation des ressources physiques n’est pas aussi optimisée qu’elle pour- rait l’être. Dans cette thèse, nous proposons de déplacer la gestion et l’exécution des workflows du côté du fournisseur de Cloud afin d’offrir un nouveau type de service dédié aux workflows. Cette nouvelle approche rend possible une amélioration de la gestion des ressources et une réduction de la consommation d’énergie et de ce fait l’impact environnemental.

Mots-clés : Workflows scientifiques ; fournisseur de services de Cloud ; ordonnancement ; exécution ; optimisation energétique ; systèmes distribués ; infrastructures distribuées


Abstract: Scientific computer simulations are generally very complex and are characterized by many parallel processes. In order to highlight the parts that can be parallelized, and to enable efficient execution, many scientists have chosen to define their applica- tions as workflows. Ascientific workflow rep- resents an application as a set of unitary processing tasks, linked by dependencies. Today, because of their low cost, elasticity, and on demand nature, cloud computing services are widely used for workflow execution. Users using this type of environment manage the execution of their workflow, as well as the necessary resources, using standard services such as IaaS (Infrastructure-as-a-Service). However, because cloud services are not specific to the nature of the application to be executed, the use of physical resources is not as optimized as it could be. In this thesis, we propose to move the management and execution of workflows to the cloud provider’s side in order to offer a new type of service dedicated to workflows. This new approach makes it possible to improve resource management and reduce energy consumption and thus the envinmont impact.

Technoférence du pôle Images et Réseaux : « Voyage dans le Xaas, au-delà du nuage »

Cette technoférence #32, initialement prévue en mars 2020, sera proposée en visioconférence via GoToMeeting, mardi 9 juin de 9h à 12h30.

Merci de vous inscrire au préalable pour recevoir le lien de connexion : https://www.images-et-reseaux.com/agenda/technoference-32-xaas-saas-iaas-paas-naas/

SaaS, IaaS, PaaS…, cette 32e technoférence sera l’occasion d’explorer l’univers des XaaS en voyageant à travers les différents modèles et couches du cloud computing « as a service ».
Avec toujours un temps d’avance, cette matinée-débat réunira les acteurs du numérique et acteurs économiques au croisement des filières, dans l’objectif de nouer de nouvelles collaborations en R&D.
Elle s’appuiera sur les retours d’expériences d’industriels et de chercheurs académiques experts dans la cloudification de l’hébergement de données, de la distribution de contenus et des télécoms.

2 enseignants-chercheurs du labo interviendront au cours de la matinée :

  • Dalila Tamzalit (équipe NaoMod) : « Les Xaas, enjeux et tendances »
  • Thomas Ledoux (équipe STACK) : « Nuages brumeux : vers une coordination Cloud-Fog »

Technoférence N°32 : “Voyage dans le Xaas, au-delà du nuage”

La prochaine Prochaine technoférence du pôle « Images et réseaux » aura lieu au bâtiment 34 du laboratoire sur le site FST,

jeudi 19 mars 2020 de 9h à 12h.

Elle s’intitule : « Voyage dans le Xaas au-delà du nuage »

Infos et inscription.

Programme :
I. Introduction : Les Xaas, enjeux et tendances
Par Dalila Tamzalit (équipe NaoMod) et Nicolas Jullien (IMT-A)
II. Quelles infrastructures pour un cloud optimisé ?
Par Yohan Bourd, (Bretagne Télécom), Olivier Dehoux (IMT-A), Bérenger Cadoret (Stratosfair)
III. Saas / Naas : comment passer à un environnement applicatif partagé ?
a. Cas d’usage de la distribution de contenus
Par Cédric Thienot (Enensys Technologies group CSO) et Equipe VAADER/INSA Rennes – IETR (sous réserve)
b. Cas d’usage des infrastructures réseaux ?
Par Veronica Quintuna-Rodriguez (Orange Labs) et Thomas Ledoux (équipe Stack)

Soutenance de thèse de Yewan WANG (équipe STACK)

Yewan WANG, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/logicielle et de l’environnement associé » / »Evaluating and Modeling the Energy Impacts of Data centers, in terms of hardware/software architecture and associated environment »

lundi 9 mars 2020 à 14h, dans l’amphi G. Besse sur le site de l’IMT-A.

Jury :

  • Directeur thèse : MENAUD Jean Marc
  • Co encadrant : NORTERSHAUSER David (Orange Labs Lannion), LE MASSON Stéphane (Orange Labs Lannion)
  • Rapporteurs : ROUVOY Romain (U Lille), DE PALMA Noel (U Grenoble Alpes)
  • Autres membres : STOLF Patricia (U Toulouse Jean Jaures), ORGERIE Anne-Cécile (CR CNRS/IRISA Rennes) GUALOUS Hamid (U Caen Normand)

Résumé : Depuis des années, la consommation énergétique du centre de donnée a pris une importance croissante suivant une explosion de demande dans cloud computing. Ce thèse aborde le défi scientifique de la modélisation énergétique d’un centre de données, en fonction des paramètres les plus importants. Disposant d’une telle modélisation, un opérateur pourrait mieux repenser/concevoir ses actuels/futurs centre de données.
Pour bien identifier les impacts énergétiques des matériels et logiciels utilisés dans les systèmes informatiques. Dans la première partie de la thèse, nous avons réaliser un grand nombre évaluations expérimentales pour identifier et caractériser les incertitudes de la consommation d’énergie induite par les éléments externes : effets thermiques, différences entre des processeurs identiques causées par un processus de fabrication imparfait, problèmes de précision issus d’outil de mesure de la puissance, etc. Nous avons terminé cette étude scientifique par le développement d’une modélisation global pour un cluster physique donné, ce cluster est composé par 48 serveurs identiques et équipé d’un système de refroidissement à expansion à direct, largement utilisé aujourd’hui pour les data centers modernes. La modélisation permet d’estimer la consommation énergétique globale en fonction des configurations opérationnelles et des données relatives à l’activité informatique, telles que la température ambiante, les configurations du système de refroidissement et la charge des serveurs.

Mots-clés : Modélisation du consommation énergétique, Efficacité énergétique, Variabilité des processeurs, Effet Thermique

***********************

Abstract: For years, the energy consumption of the data center has dramatically increased followed by the explosion of demand in cloud computing. This thesis addresses the scientific challenge of energy modeling of a data center, based on the most important variables. With such modeling, an data center operator will be able to better reallocate/design the current/future data centers. In order to identify the energy impacts of hardware and software used in computer systems. In the first part of the thesis, to identify and characterize the uncertainties of energy consumption introduced by external elements: thermal effects, difference between identical processors caused by imperfect manufacturing process, precision problems resulting from power measurement tool, etc. We have completed this scientific study by developing a global power modeling for a given physical
cluster, this cluster is composed by 48 identical servers and equipped with a direct expansion cooling system, conventionally used today for modern data centers. The modeling makes it possible to estimate the overall energy consumption of the cluster based on operational configurations and data relating to IT activity, such as ambient temperature

Keywords: Energy consumption modeling, Energy efficiency, Processor variability, Thermal Effect

Copyright : LS2N 2017 - Mentions Légales - 
 -