Home » Évènement

Soutenance de thèse d’Emile CADOREL (équipe STACK)

Emile Cadorel, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Prise en compte de l’énergie dans la gestion des workflows scientifiques dans le Cloud : Une vision centrée sur le fournisseur de service » / « Energy-aware management of scientific workflows in the Cloud: A Cloud provider-centric vision »

mercredi 21 octobre 2020 à 13h00 dans l’amphi Besse sur le site de l’IMT-A.

Jury :
– Directeur thèse : Jean-Marc Menaud
– Co-encadrant ; Hélène Coullon
– Rapporteurs : Romain Rouvoy (U Lille), Patricia Stolf (IRIT-IUT Blagnac)
– Autres membres : Frédéric Desprez (LIG-Inria Rhône Alpes), Stéphane Genaud (U Strasbourg)
– Invités : Georges Da Costa (IRIT-U Sabatier)

Résumé : Les simulations scientifiques par ordinateur sont généralement très complexes et se caractérisent par de nombreux processus parallèles. Afin de mettre en évidence les parties parallèlisables, et de permettre une exécution efficace, de nombreux scientifiques ont choisi de définir leurs applications sous forme de workflows. Un workflow scientifique représente une application comme un ensemble de tâches de traitement unitaires, liées par des dépendances. De nos jours, grâce à leur faible coût, leur élasticité et leur aspect à la demande, les services de cloud computing sont largement utilisés pour l’exécution de workflows. Les utilisateurs utilisant ce type d’environnement gèrent l’exécution de leur workflow, ainsi que les ressources nécessaires, à l’aide de service standards tel que le IaaS (Infrastructure-as-a-Service). Néanmoins, comme les services de cloud ne sont pas
spécifiques à la nature de l’application à exécuter, l’utilisation des ressources physiques n’est pas aussi optimisée qu’elle pour- rait l’être. Dans cette thèse, nous proposons de déplacer la gestion et l’exécution des workflows du côté du fournisseur de Cloud afin d’offrir un nouveau type de service dédié aux workflows. Cette nouvelle approche rend possible une amélioration de la gestion des ressources et une réduction de la consommation d’énergie et de ce fait l’impact environnemental.

Mots-clés : Workflows scientifiques ; fournisseur de services de Cloud ; ordonnancement ; exécution ; optimisation energétique ; systèmes distribués ; infrastructures distribuées


Abstract: Scientific computer simulations are generally very complex and are characterized by many parallel processes. In order to highlight the parts that can be parallelized, and to enable efficient execution, many scientists have chosen to define their applica- tions as workflows. Ascientific workflow rep- resents an application as a set of unitary processing tasks, linked by dependencies. Today, because of their low cost, elasticity, and on demand nature, cloud computing services are widely used for workflow execution. Users using this type of environment manage the execution of their workflow, as well as the necessary resources, using standard services such as IaaS (Infrastructure-as-a-Service). However, because cloud services are not specific to the nature of the application to be executed, the use of physical resources is not as optimized as it could be. In this thesis, we propose to move the management and execution of workflows to the cloud provider’s side in order to offer a new type of service dedicated to workflows. This new approach makes it possible to improve resource management and reduce energy consumption and thus the envinmont impact.

Technoférence du pôle Images et Réseaux : « Voyage dans le Xaas, au-delà du nuage »

Cette technoférence #32, initialement prévue en mars 2020, sera proposée en visioconférence via GoToMeeting, mardi 9 juin de 9h à 12h30.

Merci de vous inscrire au préalable pour recevoir le lien de connexion : https://www.images-et-reseaux.com/agenda/technoference-32-xaas-saas-iaas-paas-naas/

SaaS, IaaS, PaaS…, cette 32e technoférence sera l’occasion d’explorer l’univers des XaaS en voyageant à travers les différents modèles et couches du cloud computing « as a service ».
Avec toujours un temps d’avance, cette matinée-débat réunira les acteurs du numérique et acteurs économiques au croisement des filières, dans l’objectif de nouer de nouvelles collaborations en R&D.
Elle s’appuiera sur les retours d’expériences d’industriels et de chercheurs académiques experts dans la cloudification de l’hébergement de données, de la distribution de contenus et des télécoms.

2 enseignants-chercheurs du labo interviendront au cours de la matinée :

  • Dalila Tamzalit (équipe NaoMod) : « Les Xaas, enjeux et tendances »
  • Thomas Ledoux (équipe STACK) : « Nuages brumeux : vers une coordination Cloud-Fog »

Technoférence N°32 : “Voyage dans le Xaas, au-delà du nuage”

La prochaine Prochaine technoférence du pôle « Images et réseaux » aura lieu au bâtiment 34 du laboratoire sur le site FST,

jeudi 19 mars 2020 de 9h à 12h.

Elle s’intitule : « Voyage dans le Xaas au-delà du nuage »

Infos et inscription.

Programme :
I. Introduction : Les Xaas, enjeux et tendances
Par Dalila Tamzalit (équipe NaoMod) et Nicolas Jullien (IMT-A)
II. Quelles infrastructures pour un cloud optimisé ?
Par Yohan Bourd, (Bretagne Télécom), Olivier Dehoux (IMT-A), Bérenger Cadoret (Stratosfair)
III. Saas / Naas : comment passer à un environnement applicatif partagé ?
a. Cas d’usage de la distribution de contenus
Par Cédric Thienot (Enensys Technologies group CSO) et Equipe VAADER/INSA Rennes – IETR (sous réserve)
b. Cas d’usage des infrastructures réseaux ?
Par Veronica Quintuna-Rodriguez (Orange Labs) et Thomas Ledoux (équipe Stack)

Soutenance de thèse de Yewan WANG (équipe STACK)

Yewan WANG, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/logicielle et de l’environnement associé » / »Evaluating and Modeling the Energy Impacts of Data centers, in terms of hardware/software architecture and associated environment »

lundi 9 mars 2020 à 14h, dans l’amphi G. Besse sur le site de l’IMT-A.

Jury :

  • Directeur thèse : MENAUD Jean Marc
  • Co encadrant : NORTERSHAUSER David (Orange Labs Lannion), LE MASSON Stéphane (Orange Labs Lannion)
  • Rapporteurs : ROUVOY Romain (U Lille), DE PALMA Noel (U Grenoble Alpes)
  • Autres membres : STOLF Patricia (U Toulouse Jean Jaures), ORGERIE Anne-Cécile (CR CNRS/IRISA Rennes) GUALOUS Hamid (U Caen Normand)

Résumé : Depuis des années, la consommation énergétique du centre de donnée a pris une importance croissante suivant une explosion de demande dans cloud computing. Ce thèse aborde le défi scientifique de la modélisation énergétique d’un centre de données, en fonction des paramètres les plus importants. Disposant d’une telle modélisation, un opérateur pourrait mieux repenser/concevoir ses actuels/futurs centre de données.
Pour bien identifier les impacts énergétiques des matériels et logiciels utilisés dans les systèmes informatiques. Dans la première partie de la thèse, nous avons réaliser un grand nombre évaluations expérimentales pour identifier et caractériser les incertitudes de la consommation d’énergie induite par les éléments externes : effets thermiques, différences entre des processeurs identiques causées par un processus de fabrication imparfait, problèmes de précision issus d’outil de mesure de la puissance, etc. Nous avons terminé cette étude scientifique par le développement d’une modélisation global pour un cluster physique donné, ce cluster est composé par 48 serveurs identiques et équipé d’un système de refroidissement à expansion à direct, largement utilisé aujourd’hui pour les data centers modernes. La modélisation permet d’estimer la consommation énergétique globale en fonction des configurations opérationnelles et des données relatives à l’activité informatique, telles que la température ambiante, les configurations du système de refroidissement et la charge des serveurs.

Mots-clés : Modélisation du consommation énergétique, Efficacité énergétique, Variabilité des processeurs, Effet Thermique

***********************

Abstract: For years, the energy consumption of the data center has dramatically increased followed by the explosion of demand in cloud computing. This thesis addresses the scientific challenge of energy modeling of a data center, based on the most important variables. With such modeling, an data center operator will be able to better reallocate/design the current/future data centers. In order to identify the energy impacts of hardware and software used in computer systems. In the first part of the thesis, to identify and characterize the uncertainties of energy consumption introduced by external elements: thermal effects, difference between identical processors caused by imperfect manufacturing process, precision problems resulting from power measurement tool, etc. We have completed this scientific study by developing a global power modeling for a given physical
cluster, this cluster is composed by 48 identical servers and equipped with a direct expansion cooling system, conventionally used today for modern data centers. The modeling makes it possible to estimate the overall energy consumption of the cluster based on operational configurations and data relating to IT activity, such as ambient temperature

Keywords: Energy consumption modeling, Energy efficiency, Processor variability, Thermal Effect

Journées du GDR Réseaux et Systèmes Distribués 2020

Dans Le cadre du Groupe de Recherche (GdR) Réseaux et Systèmes Distribués, Benoit Parrein (équipe RIO) et Adrien Lebre (équipe STACK) organisent des journées non-thématiques

jeudi 23 et vendredi 24 janvier 2020 dans l’amphi du bât. 34 sur le site de la FST.

L’événement vise à rassembler les communautés Réseaux et Systèmes Distribués afin de présenter les défis scientifiques et techniques des deux pôles, échanger autour des résultats obtenus et faire émerger de futures collaborations.

Keynotes:

Bringing Artificial Intelligence to the network edge par Dario ROSSI – Chief Expert Huawei
Abstract: Often, advances in hardware have been at the base of success of new computing paradigm, algorithms and techniques. This is, e.g., what might happen in the future for quantum computers, and what has recently happened in the field of Artificial Intelligence (AI) and Neural Networks in particular, whose potential has been fully unleashed by commoditization of general-purpose GPUs.
In this keynote, we first introduce recent hardware advances, namely a new family of specialized architectures that are promising enablers for a deeper integration of AI at all network segments, particularly at the edge, and layers of the stack. We next discuss challenges and opportunities that are specific to the networking domain, putting them in perspective with advances in other fields.

> Rebooting virtualization » par Alain TCHANA, Full professor at École Normale Supérieure (ENS) de Lyon
Abstract: Visible or hidden, virtualization platforms remain the cornerstone of the cloud and the performance overheads of the latest generations have shrunk. Is hypervisor research dead?We argue that the upcoming trends of hardware disaggregation in the data center motivate a new chapter of virtualization research. We explain why the guest virtual machine abstraction is still relevant (not to say mandatory) in such a new hardware environment and we discuss challenges and ideas for hypervisor and guest OS design in this context. Finally, we propose the architecture of a research platform to explore these questions.

Programme complet

Inscription.

Séminaire du pôle SLS – invité : Marcos Dias De Assunçao

Marcos Dias De Assunçao, chercheur Inria invité par l’équipe STACK, animera un séminaire sur le site de l’IMT Atlantique, jeudi 14 novembre 2019 à 10h en Amphi Besse.
Title: Reinforcement Learning for Reconfiguring Data Stream Processing Applications on Edge Computing.

Abstract:
Distributed Stream Processing (DSP) applications are increasingly used in new pervasive services that process enormous amounts of data in a seamless and near real-time fashion. Edge computing has emerged as a means to minimise the time to handle events by enabling processing (i.e., operators) to be offloaded from the Cloud to the edges of the Internet, where the data is often generated. Deciding where to execute such operations (i.e., edge or cloud) during application deployment or at runtime is not a trivial problem. In this talk I will discuss how Reinforcement Learning (RL) and Monte-Carlo Tree Search
(MCTS) can be used to reassign operators during application runtime. I will describe an optimisation to an MCTS algorithm that achieves latency similar to other approaches, but with fewer operator migrations and faster execution time. In the second part of the talk, I will explain how we consider multi-objective RL reward considering metrics regarding operator reconfiguration, and infrastructure and application improvement.

Short-bio:
Marcos Dias de Assuncao is an Inria Starting Researcher at Avalon, LIP, ENS Lyon. Prior to joining Inria, he was a research scientist at IBM Research in Sao Paulo. He obtained his PhD in Computer Science at the University of Melbourne in Australia (2009). Marcos has over 19 years of experience in research and development in distributed systems and networks, has published over 60 papers, deposited more than 20 patents applications, and contributed to the design and development of several software systems. His current topics of interest comprising deep reinforcement learning to address resource management problems in edge and cloud computing and fault tolerance for distributed data stream processing applications. He also intends to design solutions that facilitate the execution of machine-learning pipelines on edge computing.

Séminaire invité de l’équipe STACK : Suren BYNA (Lawrence Berkeley National Lab)

The STACK team is receiving Suren Byna from Lawrence Berkeley National Lab (LBNL). He will deliver a talk on Tuesday, October 1 in room A002 at 2:00pm.
Title: Proactive Data Containers (PDC): An Intelligent Object-centric Data Management System for HPC
Abstract:
This presentation is on a novel user-level object-centric data management system, called Proactive Data Containers (PDC), which provides abstractions and storage mechanisms that take advantage of deep memory and storage hierarchy, enable proactive automated performance tuning in storing and retrieving data, and perform user-defined analytics in the data path on large-scale supercomputing systems. While cloud computing environments have been successfully using object-based storage, such as Amazon S3 and OpenStack Swift, parallel file systems on large-scale supercomputing systems are accessed using I/O libraries that are based on slow and restrictive POSIX and MPI (Message Passing Interface) I/O standards. These file systems face fundamental challenges in the areas of scalable metadata operations, semantics-based data movement performance tuning, and asynchronous operation. Exacerbating this situation, storage systems on upcoming exascale supercomputers are being deployed with an unprecedented level of complexity due to a deep system memory/storage hierarchy based architectures. This hierarchy ranges from several levels of volatile memory to non-volatile memory, traditional hard disks and tapes. Simple and efficient methods of data management and movement through this hierarchy is critical for numerous scientific applications that are storing and analyzing massive amounts of data on supercomputing systems. In the PDC system, scalable metadata management is achieved using the memory available in compute nodes. The metadata objects contain required information such as data description and ownership as well as optional provenance and user-defined tags. Data objects are stored and retrieved efficiently using a server-initiated optimized data movement, where data is stored or cached asynchronously, while the applications continue with computation operations. I will also discuss automatic data analysis and transformations while the data is moving from one location to another. I will present the PDC concepts of automatic reorganization and placement of data in the memory and storage hierarchy, closer to data analysis using the history of previous data accesses for analysis and of any user-provided hints.
Short bio:
Suren Byna is a Staff Scientist in the Scientific Data Management (SDM) Group in CRD @ LBNL. His research interests are in scalable scientific data management. More specifically, he works on optimizing parallel I/O and on developing systems for managing scientific data. He is the PI of the ECP funded ExaHDF5 project, and USA Department Energy’s Office of Science funded object-centric data management systems (Proactive Data Containers – PDC) and experimental and observational data management (EOD-HDF5) projects.

Soutenance de thèse de Thuy Linh NGUYEN (équipe STACK)

Thuy Linh Nguyen, doctorante au sein de l’équipe STACK, soutiendra sa thèse intitulée « Fast delivery of Virtual Machines and Containers: Understanding and optimizing the boot operation » / « Contributions à l’approvisionnement d’environnements virtualisés : la problématique des temps de démarrage des machines virtuelles et des conteneurs »

mardi 24 septembre 2019 à 13h30, dans l’amphi Besse sur le site de l’IMT Atlantique.

Jury :
– Président : Mario SUDHOLT (Professeur, IMT Atlantique)
– Examinateurs : Ramon NOU (Chercheur, Barcelona Supercomputing Center, Espagne)
– Directeur de thèse : Adrien LEBRE (Professeur, IMT Atlantique)
– Rapporteurs : Maria S. PEREZ (Professeure, Universidad Politecnica de Madrid, Espagne), Daniel HAGIMONT (Professeur, INPT/ENSEEIHT, Toulouse)

Abstract: The provisioning process of a Virtual Machine (VM) or a container is a succession of three complex stages : (i) scheduling the VM/Container to an appropriate compute node; (ii) transferring the VM/Container image to that compute node from a repository; (iii) and finally performing the VM/Container boot process. Depending on the properties of the client’s request and the status of the platform, each of these three phases can impact the total duration of the provisioning operation. While many works focused on optimizing the two first stages, only few works investigated the impact of the boot duration. This comes to us as a surprise as a preliminary study we conducted showed the boot
time of a VM/Container can last up to a few minutes in high consolidated scenarios. To understand the major reasons for such overheads, we performed on top of Grid’5000 up
to 15k experiments, booting VM/Container under different environmental conditions. The results showed that the most influential factor is the I/O operations. To accelerate the boot process, we defend in this thesis, the design of a dedicated mechanism to mitigate the number of generated I/O operations. We demonstrated the relevance of this proposal by discussing a first prototype entitled YOLO (You Only Load Once). Thanks to YOLO, the boot duration can be faster 2-13 times for VMs and 2 times for containers. Finally, it is noteworthy to mention that the way YOLO has been designed enables it to be easily applied to other types of virtualization (e.g., Xen) and containerization technologies.

Keywords: Cloud Computing, Virtualization, Containerization, Boot Duration

************

Résumé : Le processus d’approvisionnement d’une machine virtuelle (VM) ou d’un conteneur est une succession de trois étapes complexes: (i) la phase d’ordonnancement qui consiste à affecter la VM/le conteneur sur un noeud de calcul ; (ii) le transfert de l’image disque associée vers ce noeud de calcul; (iii) et l’exécution du processus de démarrage (généralement connu sous le terme « boot »). En fonction des besoins de l’application virtualisée et de l’état de la plate-forme, chacune de ces trois phases peut avoir une durée plus ou moins importante. Si de nombreux travaux se sont concentrés sur l’optimisation des deux premières étapes, la littérature couvre que partiellement les défis liés à la dernière. Cela est surprenant car des études ont montré que le temps de démarrage peut atteindre l’ordre de la minute dans certaines conditions. Durée que nous avons confirmée grâce à une étude préliminaire visant à quantifier le temps de démarrage, notamment dans des scénarios où le ratio de consolidation est élevé.

Mots-clés : Informatique en nuage, virtualisation système, conteneurs, temps de démarrage

CominLabs Security Day

The CominLabs Security and Privacy track organises a one-day meeting to present and discuss on-going and future research projects. The meeting is open to all members in CominLabs concerned by the Security and Privacy track.
The meeting will take place on Friday 13 September at INRIA Rennes/Irisa, Campus de Beaulieu, Rennes.
Registration to the Security Day is mandatory and free. It  includes coffee/tea breaks and a buffet lunch.
Please register before 31 July by indicating name and email using the following Framadate: https://framadate.org/9swJbMjYW3mO1XX3
Preliminary programme of the day:
  • 9:30 Welcome coffee/tea
  • 10:00 – 12:30 Presentation of on-going projects and actions:
– HardBlare: Co-processors for information flow control (Guillaume Hiet)
– PrivGen: Privacy-preserving sharing and processing of genetic data. (Mario Südholt)
– Profile: Analyzing and mitigating the risks of online profiling (law, computer science and sociology) (Johan Bourcier)
– Tyrex: Lattice-based cryptography for homomorphic encryption (Adeline Langlois)
– Watsup: Watermarking outsourced data (start-up project) (Gouenou Coatrieux)
– JSExplaiin: Explaining JavaScript executions (standardisation) (Alan Schmitt)
– Blockchain FM : Formal methods for blockchain and smart contract security (Emmanuelle Anceaume & Thomas Genet)
For each project and action, prepare for 15 min talk + 5 min questions.
  • 12:30 – 13:30 Lunch
  • 13:30 – 17:00 Future research actions in security and privacy:
– CominLabs 2.0 Security and Privacy track and its related research structures (Pierre-Alain Fouque, Ludovic Mé, Thomas Jensen)
– Discussion about possible research actions on topics.
Participants are invited to prepare a 5min presentation of a possible research action on topics including but not limited to:
– Security at the hardware/software interface
– Side channels
– Cryptography and cryptographic protocols
– Security of Distributed Ledger Technology
– Privacy
– Malware
– Trustworthy software
– Security and virtualisation
– Data protection
– security-by-design
– security and AI
– …

Soutenance de thèse de Mohammad Mahdi BAZM (équipe STACK)

Mahdi Bazm, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Architecture d’isolation unifiée et mécanismes de lutte contre les canaux auxiliaires pour infrastructures cloud décentralisées »

lundi 8 juillet 2019 à 13h30 dans l’amphi du bât. 34 sur le site de la FST.

Jury :
– Directeur thèse : Mario Sudholt, Jean-Marc Menaud
– Co-encadrant : Marc Lacoste (Orange labs)
– Rapporteurs : Yves Roudier (U Sophia Nice Antipolis) Daniel Hagimont
(IRIT Toulouse)
– Autres membres : Christian Perez (DR Inria)

Résumé :
Depuis leur découverte par Ristenpart [Ristenpart et al., 2009],le problème de sécurité des attaques par canaux auxiliaires est devenu de plus en plus important dans les environnements virtualisés tels que les infrastructures cloud, avec une amélioration rapide des techniques d’attaque. De ce fait, la détection et la mitigation des attaques dans ces environnements ont davantage retenu l’attention et ont fait l’objet de nombreux travaux de recherche.
Dans les environnements virtualisés, ces attaques exploitent le partage de ressources matérielles telles que le processeur. Ces ressources sont partagées entre différents utilisateurs à un niveau souvent très bas via la couche de virtualisation. Par conséquence, il permet de contourner les mécanismes de sécurité implémentés au niveau de la couche de virtualisation, ce qui présente des fuites d’information. Les niveaux de cache du processeur sont les ressources qui sont partagées entre les instances et jouent comme un canal de divulgation d’information. Les attaques par canaux auxiliaires utilisent donc ce canal an d’obtenir des informations sensibles telles que les clés cryptographiques.
Différents travaux de recherche existent déjà sur la détection/mitigation de ces attaques dans les systèmes d’information. Les techniques de mitigation des attaques par canaux auxiliaires basées sur le cache, sont principalement divisées en trois classes en fonction de la couche où elles sont appliquées dans les infrastructures de cloud (application, système et matérielle). La détection est essentiellement effectuée au niveau de la couche système d’exploitation/hyperviseur en raison de la possibilité d’analyser le comportement des instances virtualisées à ce niveau.
Dans cette thèse, nous fournissons d’abord un état de l’art sur le dé d’isolation et sur les attaques par canaux auxiliaires basées sur le cache dans les infrastructures cloud. Nous présentons ensuite différentes approches pour détecter/mitiger les attaques par canaux auxiliaires entre VMs ou entre conteneurs Linux. En ce qui concerne la détection des attaques par canaux auxiliaires basées sur le cache, nous y parvenons en utilisant Hardware Performance Counters (HPC) et Intel Cache Monitoring Technology (CMT) avec des approches de détection d’anomalie pour identifier une VM ou un conteneur malveillant.
Nos résultats expérimentaux montrent un taux de détection élevé. Nous utilisons ensuite une approche basée sur la théorie Moving Target Defence (MTD) pour interrompre une attaque par canaux auxiliaires basée sur le cache entre deux conteneurs Linux. MTD nous permet de rendre la configuration du système plus dynamique
et donc plus difficile à attaquer par un adversaire, en utilisant le shuing à différents niveaux du système et du cloud. Notre approche n’a pas besoin d’apporter de modification ni dans l’OS invité ni dans l’hyperviseur. Les résultats expérimentaux montrent que notre approche a un surcoût de performance très faible.

*****

Abstract:
Since their discovery by Ristenpart [Ristenpart et al., 2009], the security concern of sidechannel attacks is raising in virtualized environments such as cloud computing infrastructures because of rapid improvements in the attack techniques. Therefore, the mitigation and the detection of such attacks have been getting more attention in these environments, and consequently have been the subject of intense research works. These attacks exploit for instance sharing of hardware resources such as the processor
in virtualized environments. Moreover, the resources are often shared between dierent users at very low-level through the virtualization layer. As a result, such sharing allows bypassing security mechanisms implemented at virtualization layer through such a leaky sharing. Cache levels of the processor are the resources which are shared between instances, and play as an information disclosure channel. Side-channel attacks thus use this leaky channel to obtain sensitive information such as cryptographic keys.
Different research works are already exist on the detection/mitigation of these attack in information systems. Mitigation techniques of cache-based side-channel attacks are mainly divided into three classes according to dierent layer of application in cloud infrastructures (i.e., application, system, and hardware). The detection is essentially done at OS/hypervisor layer because of possibility of analyzing virtualized instances behavior at both layers.
In this thesis, we rst provide a survey on the isolation challenge and on the cachebased side-channel attacks in cloud computing infrastructures. We then present different approaches to detect/mitigate cross-VM/cross-containers cache-based side-channel attacks. Regarding the detection of cache-based side-channel attacks, we achieve that by leveraging Hardware performance Counters (HPCs) and Intel Cache Monitoring Technology (CMT) with anomaly detection approaches to identify a malicious virtual machine
or a Linux container. Our experimental results show a high detection rate. We then leverage an approach based on Moving Target Defense (MTD) theory to interrupt a cache-based side-channel attack between two Linux containers. MTD allows us to make the conguration of system more dynamic and consequently harder to attack by an adversary, by using shuing at dierent level of system and cloud. Our approach does not need to carrying modication neither into the guest OS or the hypervisor. Experimental results show that our approach imposes very low performance overhead.

Copyright : LS2N 2017 - Mentions Légales - 
 -