Home » Posts tagged "équipe GDD"

La société Easybroadcast a reçu le prix européen EIT Digital

La société Easybroadcast a récemment été récompensée par le EIT Digital Challenge, la plaçant ainsi parmi les 10 licornes européennes.

Créée en 2016 par Soufiane Rouibia, la scaleup deep-tech édite un logiciel en mode Saas qui permet d’optimiser la bande passante consommée par les diffuseurs de contenus audio et vidéo en streaming (VOD, SVOD et services internet utilisant la vidéo). Ce produit émane d’un projet collaboratif LINA (Patricia Serrano Alvarado) et IRCCyN (Benoît Parrein) intitulé « P2PWeb« .

EasyBroadcast propose une solution brevetée de streaming hybride de contenus audio et vidéo combinant un modèle client-serveur standard et un modèle de diffusion d’internaute à internaute (peer-to-peer). Chaque internaute peut ainsi agir comme un micro-serveur dès qu’il reçoit des segments de contenu vidéo ou audio. Les internautes sont sélectionnés intelligemment via des algorithmes de géolocalisation et de correspondance de qualité de service. De ce fait, un large public ne constitue plus un risque de saturation des serveurs du diffuseur de contenus mais plutôt un atout. Les coûts de bande passante peuvent ainsi être réduits jusqu’à 75% pour les contenus vidéo et jusqu’à 90% pour les contenus audios avec une meilleure qualité de service.

Plus de détails : https://www.atlanpole.fr/portraits/soufiane-rouibia/

Séminaire UFR Sciences : Et si on parlait de la thèse ?

Vous vous posez des questions sur une poursuite d’études en thèse ? Ou vous aimeriez en savoir plus sur le quotidien d’un doctorant ?

Rendez-vous en Amphi B mardi 5 mars 2019 à partir de 17h !

Avec le témoignage de Thomas Minier, doctorant en 2ème année au sein de l’équipe GDD.

Plus d’infos

Séminaire de Maxime Folschette au Data Institute de l’Université Grenoble Alpes

Maxime Folschette , ingénieur de recherche contractuel au sein des équipes COMBI et GDD, est invité par le Data Institute le 25 janvier 2019 pour un exposé sur « Computational methods for system biology« .

The quickly growing amount of available biological data raises many problems related to efficiently using them: How to take advantage of the available signaling databases in order to extract new knowledge? What methods can be used to study a large dynamical model? Starting from dynamical behavior data of a biological system, how to perform model inference or completion?

During this seminar, I will present my works related to these topics, applied to several biological systems, among them:
* the Hepatocellular Carcinoma, which is the most widespread and lethal form of liver cancer: we want to understand the causes of its proliferation;
* the Circadian cycle, or “cellular clock”: we want to reproduce its day-night cycle behavior in a model;
* other models such as the Epithelial Growth Factor Receptor: we can study its dynamics using computational approximations despite its large size.

Best demo award à la conférence ESWC 2018 pour l’équipe GDD !

Thomas Minier, doctorant au sein de l’équipe GDD, a présenté le projet Ulysses à la conférence Extended Semantic Web Conference (ESWC) à Héraklion le 6 juin 2018.

Cette conférence de rang A a récompensé « Ulysses: an Intelligent client for replicated Triple Pattern Fragments » par un best demo award !

Retrouvez le papier (pdf) le diaporama, ainsi que la démo enligne.

Soutenance HDR de Hala SKAF-MOLLI

Hala Skaf (équipe GDD) présentera ses travaux de recherche en vue de l’obtention de l’Habilitation à Diriger des Recherches intitulée
« Gestion décentralisée de données du web sémantique »
vendredi 6 octobre à 14h dans l’amphithéâtre du bâtiment 34 (FST).

Jury :
– Bernd Amann, Professeur à l’Université de Pierre et Marie Curie (Paris 6), Rapporteur
– Fabien Gandon, Directeur de recherche INRIA Sophia-Antipolis Mediterranée, Rapporteur
– Philippe Lamarre, Professeur à l’INSA Lyon, Rapporteur
– Maria Esther-Vidal, Professeur à Université de Simon Bolivar Venezuela et Fraunhofer IAIS, Germany, Examinatrice
– Pascale Kuntz, Professeur à l’Université de Nantes, Examinatrice
– Abdelkader Hameurlain, Professor à l’Université de Paul Sabatier, Toulouse, Examinateur
– François Charoy, Professor à TELECOM Nancy – Université de Lorraine, Examinateur

Résumé :
Le web sémantique est une extension du web où l’information a une signification précise.
Aujourd’hui, des milliers de jeux de données sont accessibles simplement sur le web. Ces jeux de données respectent des standards du web sémantique permettant leur interrogations à travers le langage de requêtes SPARQL. Cependant, des problèmes importants liés à la production et la consommation des données liées restent ouverts : la qualité des données, l’accès au web profond et la disponibilité des données. Pour assurer la qualité de données, nous proposons de transformer le web de données vers un web de données en lecture/écriture. Ainsi, un consommateur de données est à même de corriger une erreur. Autoriser les écritures sur le web sémantique pose le problème de cohérence de données. Cette transformation nécessite la définition des algorithmes de synchronisation adaptés au modèle de données RDF et au langage SPARQL 1.1 Update.
Pour assurer l’accès au web profond, nous proposons une approche médiateur permettant de combiner données sémantique et données du web profond. Le problème est alors d’améliorer les performances des requêtes en présence de nombreuses sources de données. Enfin, pour assurer la disponibilité des données, nous proposons un modèle de réplication pour le web de données. Le problème est alors d’optimiser l’exécution des requêtes fédérées en présence de réplicas découverts au moment de l’exécution des requêtes.

Abstract:
The semantic web is an extension of the web where information has a precise meaning.
Today, thousands of datasets are available on the web. These datasets respect semantic web standards, therefore, they can queried allowing through the SPARQL query language. However, important problems related to the production and consumption of linked data remain open: data quality, deep web access, and data availability. To ensure the quality of data, we propose to transform the web of data into a read/write web of data. Consequently, a data consumer is able to correct an error. Allowing consumers to write the semantic data poses the problem of data consistency. This transformation requires the definition of synchronization algorithms adapted to the RDF data model and to SPARQL 1.1 Update language.To ensure access to the deep web, we propose a mediator approach allowing to combine semantic data and deep web data. The problem is then to improve the performance of queries in the presence of a large number of data sources. Finally, to ensure the availability of data, we propose a replication model for the web of data. The problem is to optimize the execution of federated SPARQL queries in the presence of replicas discovered at queries execution time.

Copyright : LS2N 2017 - Mentions Légales - 
 -