Home » Évènement

Soutenance de thèse de Dorra RAHALI (équipe SLP)

Dorra Rahali, doctorante au sein de l’équipe SLP, soutiendra sa thèse intitulée « Surveillance statistique du temps et de l’amplitude entre événements » / « Monitoring of time between events and amplitude »

mercredi 24 juin 2020 à 9h30, en visio.

Jury :

  • Directeur thèse : CASTAGLIOLA Philippe, TALEB Hassen (U. Carthage)
  • Rapporteurs : BRIL-EL HAOUZI Hind (U. Lorraine), REBAI Ahmed (U Sfax)
  • Autres membres : TRAN Phuc (ENSAIT), KOOLI Imène (U. Sousse)

Résumé : Les techniques de surveillance statistique des procédés SPM sont principalement basées sur les cartes de contrôle qui constituent une étape importante dans la démarche qualité. Une nécessité de développement de techniques de surveillance de plus en plus avancées s’est fait sentir dans des domaines autres que l’industrie manufacturière classique. Cependant, peu de chercheurs se sont intéressés à proposer des méthodes dédiées pour la surveillance combinée du temps et de l’amplitude entre événements appelée TBEA. Jusqu’à présent les travaux effectués dans ce domaine se sont limitées à un nombre réduit de distributions et de statistiques à surveiller. Dans cette thèse, nous étudions la performance d’une carte de contrôle de type Shewhart pour la surveillance combinée du temps et de l’amplitude pour différents scénarios de distributions et de statistiques. Nous nous intéressons d’abord au cas où les variables temps T et amplitude X sont indépendantes. Ensuite nous étudions celui ou les variables sont dépendantes en utilisant des Copulas comme étant un outil pour modéliser la dépendance. Finalement nous nous intéresserons au cas où l’amplitude est un vecteur et non plus une variable. Les performances de chacune des cartes de contrôle proposées ont été évaluées par l’EATS. Une validation empirique des résultats a été élaborée pour des cas existants.

Mots-clés : Maîtrise statistique des procédés, Carte de contrôle, Temps entre événements, Amplitude, Fréquence

********

Abstract: Statistical process monitoring (SPM) are mainly based on control charts which constitute an important step in the quality process. There is a need to develop monitoring techniques in manufacturing or non-manufacturing sectors. This leads to give an increasing importance to Time Between Events and Amplitude (TBEA) control charts. However, few researchers have been interested to propose methods to simultaneously monitor the time between an event E and its amplitude. Until now, the vast majority of contributions are limited to a reduced number of statistics and potential distributions. In this thesis we will investigate simple Shewhart type control charts for several statistics and many distributional scenarios. First we will study the case where we assume that the time T and the amplitude X are two mutually independent continuous random variables. Then we study the case where the variables are dependent using Copulas as a mechanism to model the dependence. Finally we discuss the case where the time between events T is an univariate random variable and the amplitude X is no longer an univariate random variable but a multivariate random vector. The performance of each control chart has been evaluated by EATS. An empirical validation of the results has been developed for real cases.

Keywords: Statistical Process Control, Control chart, Time between events, Amplitude, Frequency

Soutenance de thèse de Ramzi BEN MHENNI (équipe SIMS)

Ramzi Ben Mhenni, doctorant au sein de l’équipe SIMS, soutiendra sa thèse intitulée « Méthodes de programmation en nombres mixtes pour l’optimisation parcimonieuse en traitement du signal »
mercredi 13 mai 2020 à 14h en visio-conférence à l’ECN.

Jury :
– Directeur thèse : Bourguignon Sébastien
– Co-encadrant : Ninin Jordan (ENSTA Bretagne)
– Rapporteurs : Cafieri Sonia (Ecole nationale aviation civile), Kowalski Matthieu (Laboratoire des Signaux et Systèmes)
– Autres membres : Jutten Christian (Université Grenoble Alpes), Ralaivola Liva (Aix Marseille Université)

Soutenance de thèse de Sébastien LEVILLY (équipe SIMS)

Sébastien Levilly, doctorant au sein de l’équipe SIMS, soutiendra sa thèse intitulée « Quantification de biomarqueurs hémodynamiques en imagerie cardiovasculaire par résonance magnétique de flux 4D » / « Hemodynamic biomarkers quantification in cardiovascular imaging by 4D phase-contrast magnetic resonance »
mardi 12 mai 2020 à 14h à en visio-conférence à l’ECN.

Jury :
– Directeur thèse : Idier Jérôme
– Co-directeur : Paul-Guilloteaux Perrine (IRS UN)
– Rapporteurs : Heinrich Christian (Telecom Physique Strasbourg), Kachenoura Nadjia (UMPC)
– Autres membres : Sigovan Monica (INSA Lyon), Memin Etienne (Inria Rennes)
– Membre invité : Serfaty Jean-Michel (IRS UN)

Résumé :
En imagerie cardiovasculaire, un biomarqueur est une information quantitative permettant d’établir une corrélation avec la présence ou le développement d’une pathologie cardiovasculaire. Ces biomarqueurs sont généralement obtenus grâce à l’imagerie de l’anatomie et du flux sanguin. Récemment, la séquence d’acquisition d’IRM de flux 4D a ouvert la voie à la mesure du flux sanguin dans un volume 3D au cours du cycle cardiaque. Or, ce type d’acquisition résulte d’un compromis entre le rapport signal sur bruit, la résolution et le temps d’acquisition. Le temps d’acquisition est limité et par conséquent les données sont bruitées et sous-résolues. Dans ce contexte, la quantification de biomarqueurs est difficile. L’objectif de cette thèse est d’améliorer la quantification de biomarqueurs et en particulier du cisaillement à la paroi. Deux stratégies ont été mises en œuvre pour atteindre cet objectif. Une première solution permettant le filtrage spatio-temporel du champ de vitesse a été proposée. Cette dernière a révélé l’importance de la paroi dans la modélisation d’un champ de vitesse. Une seconde approche, constituant la contribution majeure de cette thèse, s’est focalisée sur la conception d’un algorithme estimant le cisaillement à la paroi. L’algorithme, nommé PaLMA, s’appuie sur la modélisation locale de la paroi pour construire un modèle de vitesse autour d’un point d’intérêt. Le cisaillement est évalué à partir du modèle de la vitesse. Cet algorithme intègre une étape de régularisation a posteriori améliorant la quantification du cisaillement à la paroi. Par ailleurs, une approximation du filtre IRM est utilisée pour la première fois pour l’estimation du cisaillement. Enfin, cet algorithme a été évalué sur des données synthétiques, avec des écoulements complexes au sein de carotides, en fonction du niveau de bruit, de la résolution et de la segmentation. Il permet d’atteindre des performances supérieures à une méthode de référence dans le domaine, dans un contexte représentatif de la pratique clinique.

Mots-clés : cisaillement à la paroi, simulation numérique des fluides, IRM de flux 4D, carotide

**********

Abstract:
In cardiovascular imaging, a biomarker is quantitative information correlated with an existing or growing cardiovascular pathology. Biomarkers are generally obtained by anatomy and blood flow imaging. Recently, the 4D Flow MRI sequence opened new opportunities in measuring the blood flow within a 3D volume along the cardiac cycle. However, this sequence is a compromise between signal-to-noise ratio, resolution and acquisition time. Allocated time being limited, velocity measurements are noisy and low resolution. In that context, biomarkers’ quantification is challenging. This thesis’s purpose is to enhance biomarkers’ quantification and particularly for the wall shear stress (WSS). Two strategies have been investigated to reach that objective. A first solution allowing the spatiotemporal filtering of the velocity field has been proposed.
It revealed the importance of the wall for the velocity field modelization. A second approach, being the major contribution of this work, focused on the design of a WSS quantification algorithm. This algorithm, named PaLMA, is based on the local modelization of the wall to build a velocity model near a point of interest. The WSS is computed from the velocity model. This algorithm embeds an a posteriori regularization step to improve the WSS quantification. Besides, a blurring model of 4D Flow MRI is used for the first time in the WSS quantification context. Finally, this algorithm has been validated over synthetic datasets, with carotids’ complex flows, concerning the signal-to-noise ratio, the resolution, and the segmentation. The performances of PaLMA are superior to a reference solution in that domain, within a clinical routine context.

Keywords: wall shear stress, computational fluid dynamics, 4D Flow MRI, carotid

Soutenance de thèse de Saman LESSANIBAHRI (équipe RoMaS)

La soutenance de thèse de Saman Lessanibahri, doctorant au sein de l’équipe RoMaS, intitulée « Robots parallèles à câbles ayant un grand espace de travail en translation et en orientation » / « Cable-Driven Parallel Robots with Large Translation and Orientation Workspaces »

aura lieu mardi 12 mai 2020 à 14h (en visio).

Jury :

  • Directeur thèse : CARO Stéphane
  • Co-directeur : CARDOU Philippe (Université Laval, Quebec)
  • Rapporteurs : GOUTTEFARDE Marc (LIRMM), LARIBI Med Amine (Université de Poitiers)
  • Autres membres : GERMAIN Coralie  (Agro-campus Ouest), LAU Darwin (Université Chinoise de Hong-Kong)

Résumé : Les Robots Parallèles à Câbles (RPC) sont également considérés comme des manipulateurs parallèles avec des câbles flexibles au lieu de liens rigides. Un RPC se compose d’un châssis de base, d’une plateforme mobile et d’un jeu de câbles reliant en parallèle la plate-forme mobile au châssis de base. Les RPC sont réputés pour leurs performances avantageuses par rapport aux robots parallèles classiques en termes de grand espace de travail de translation, de reconfigurabilité, de grande capacité de charge utile et de performances dynamiques élevées. Ils ont attiré l’intérêt de l’industrie en raison de leurs avantages et de leurs capacités fondamentales.  Cependant, la plupart des RPC ne fournissentque des amplitudes de rotation limitées de laplate-forme mobile en raison des collisions entre les câbles et les pièces mobiles.
L’objectif de cette thèse est de concevoir, d’analyser et de construire des RPC hybrides pour élargir l’espace de travail d’orientation en plus de leur grand espace de translation en  exploitant les boucles de câbles. Ce travail de recherche présente le développement de RPC hybrides avec un espace de travail d’orientation considérablement augmenté qui combine les avantages d’un grand espace de travail de translation des RPC et de grandes amplitudes de rotation des poignets actifs.

Mots-clés : robot parallèle à câbles, robots hybrides, espace de travail, boucles de câbles, conception

***********
Abstract: Cable-Driven Parallel Robots (CDPRs) also noted as wire-driven robots are parallel manipulators with flexible cables instead  of rigid links. A CDPR consists of a base frame, a moving-platform and a set of cables connecting in parallel the moving-platform to the base frame. CDPRs are well-known for their advantageous performance over classical parallel robots in terms of large translation workspace, reconfigurability, large payload capacity and high dynamic performance. They have drawn interests towards industry thanks to their fundamental advantages and capabilities.  However, most of the CDPRs provide only limited amplitudes of rotation of the movingplatform due to collisions between the cables and the moving parts. The objective of this thesis is to design, analyze and build hybrid CDPRs to enlarge the orientation workspace in addition to their large translation workspace by exploiting cableloops. This research work presents development of hybrid CDPRs with drastically augmented orientation workspac which combine advantages of large translation workspace of CDPRs and large rotational amplitudes of active wrists.

Keywords: Cable-Driven Parallel Robots, Hybrid Robots, Workspace, Cable loops, Design

Soutenance de thèse de Ran BAO (équipe AELOS)

Ran Bao, doctorante au sein de l’équipe AELOS, soutiendra sa thèse intitulée « Modélisation formelle de systèmes de drones civils à l’aide de méthodes probabilistes paramétrées » / « Parametric Statistical model checking of UAV flight plan »

jeudi 7 mai 2020 à 10h, en visio.

Jury :
– Directeur thèse : Chirstian Attiogbé
– Co-encadrant : Benoit Delahaye
– Rapporteurs : Patricia Bouyer-Decitre (ENS Paris Saclay), Laure Petrucci (U. Paris 13)
– Autres membres : Olga Kouchnarenko (U. Franche Comté), Claude Jard
– Membre invité : Philippe Barranger (Pixiel)

Résumé : Les drones sont maintenant très répandus dans la société et sont souvent utilisés dans des situations dangereuses pour le public environnant. Il est alors nécessaire d’étudier leur fiabilité, en particulier dans le contexte de vols au-dessus d’un public. Dans cette thèse, nous étudions la modélisation et l’analyse de drones dans le contexte de leur plan de vol. Pour cela, nous construisons plusieurs modèles probabilistes du drone et les utilisons ainsi que le plan de vol pour modéliser la trajectoire du drone. Le modèle le plus détaillé obtenu prend en compte des paramètres comme la précision de l’estimation de la position par les différents capteurs, ainsi que la force et la direction du vent. Le modèle est analysé afin de mesurer la probabilité que le drone entre dans une zone dangereuse. Du fait de la nature et de la complexité des modèles successifs obtenus, leur vérification avec les outils classique, tels que PRISM ou PARAM, est impossible. Nous utilisons donc une nouvelle méthode d’approximation, appelée Model Checking Statistique Paramétrique. Cette méthode a été implémentée dans un prototype, que nous avons mis à
l’épreuve sur ce cas d’étude complexe. Nous avons pour finir utilisé les résultats fournis par ce prototype afin de proposer des pistes permettant d’améliorer la sécurité du public dans le contexte considéré.

Mots-clés : Drone, Modèle formel, Chaîne de Markov, Model checking statistique paramétrique

*********

Abstract: Unmanned Aerial Vehicles (UAV) are now widespread in our society and are often used in a context where they can put people at risk. Studying their reliability, in particular in the context of flight above a crowd, thus becomes a necessity. In this thesis, we study the modeling and analysis of UAV in the context of their flight plan. To this purpose, we build several parametrics probabilistic models of the UAV and use them, as well as a given flight plan, in order to model its trajectory. Our most advanced model takes into account the precision of position estimation by embedded sensors, as well as wind force and direction. The model is analyzed in order to measure the probability that the drone enters an unsafe zone. Because of the nature and complexity of the obtained models, their exact verification using classical tools such as PRISM or PARAM is impossible. We therefore develop a new approximation method, called Parametric Statistical Model Checking. This method has been implemented in a prototype tool, which we tested on this complex case study. Finally, we use the result to propose some ways to improve the safety of the public in our context.

Keywords: UAV, Formal Model, Markov Chain, Parametric statistical model checking

Soutenance de thèse de Yewan WANG (équipe STACK)

Yewan WANG, doctorant au sein de l’équipe STACK, soutiendra sa thèse intitulée « Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/logicielle et de l’environnement associé » / »Evaluating and Modeling the Energy Impacts of Data centers, in terms of hardware/software architecture and associated environment »

lundi 9 mars 2020 à 14h, dans l’amphi G. Besse sur le site de l’IMT-A.

Jury :

  • Directeur thèse : MENAUD Jean Marc
  • Co encadrant : NORTERSHAUSER David (Orange Labs Lannion), LE MASSON Stéphane (Orange Labs Lannion)
  • Rapporteurs : ROUVOY Romain (U Lille), DE PALMA Noel (U Grenoble Alpes)
  • Autres membres : STOLF Patricia (U Toulouse Jean Jaures), ORGERIE Anne-Cécile (CR CNRS/IRISA Rennes) GUALOUS Hamid (U Caen Normand)

Résumé : Depuis des années, la consommation énergétique du centre de donnée a pris une importance croissante suivant une explosion de demande dans cloud computing. Ce thèse aborde le défi scientifique de la modélisation énergétique d’un centre de données, en fonction des paramètres les plus importants. Disposant d’une telle modélisation, un opérateur pourrait mieux repenser/concevoir ses actuels/futurs centre de données.
Pour bien identifier les impacts énergétiques des matériels et logiciels utilisés dans les systèmes informatiques. Dans la première partie de la thèse, nous avons réaliser un grand nombre évaluations expérimentales pour identifier et caractériser les incertitudes de la consommation d’énergie induite par les éléments externes : effets thermiques, différences entre des processeurs identiques causées par un processus de fabrication imparfait, problèmes de précision issus d’outil de mesure de la puissance, etc. Nous avons terminé cette étude scientifique par le développement d’une modélisation global pour un cluster physique donné, ce cluster est composé par 48 serveurs identiques et équipé d’un système de refroidissement à expansion à direct, largement utilisé aujourd’hui pour les data centers modernes. La modélisation permet d’estimer la consommation énergétique globale en fonction des configurations opérationnelles et des données relatives à l’activité informatique, telles que la température ambiante, les configurations du système de refroidissement et la charge des serveurs.

Mots-clés : Modélisation du consommation énergétique, Efficacité énergétique, Variabilité des processeurs, Effet Thermique

***********************

Abstract: For years, the energy consumption of the data center has dramatically increased followed by the explosion of demand in cloud computing. This thesis addresses the scientific challenge of energy modeling of a data center, based on the most important variables. With such modeling, an data center operator will be able to better reallocate/design the current/future data centers. In order to identify the energy impacts of hardware and software used in computer systems. In the first part of the thesis, to identify and characterize the uncertainties of energy consumption introduced by external elements: thermal effects, difference between identical processors caused by imperfect manufacturing process, precision problems resulting from power measurement tool, etc. We have completed this scientific study by developing a global power modeling for a given physical
cluster, this cluster is composed by 48 identical servers and equipped with a direct expansion cooling system, conventionally used today for modern data centers. The modeling makes it possible to estimate the overall energy consumption of the cluster based on operational configurations and data relating to IT activity, such as ambient temperature

Keywords: Energy consumption modeling, Energy efficiency, Processor variability, Thermal Effect

Soutenance de thèse de Jingshu LIU (équipe TALN)

Jingshu Liu, doctorant au sein de l’équipe TALN, soutiendra sa thèse intitulée « Apprentissage de représentations cross-lingue d’expressions de longueur variable » / « Unsupervised cross-lingual representation modeling for variable length phrases »

mercredi 29 janvier 2020 à 14h, dans l’amphi du bât 34 sur le site de la FST.

Jury :
– Directeur thèse : Emmanuel Morin
– Co-encadrant : Sebastian Pena Saldarriaga
– Rapporteurs : Pierre Zweigenbaum (CNRS Univ Saclay), Laurent Besacier (U Grenoble Alpes),
– Autres membres : Olivier Ferret (Ingénieur Chercheur CEA LIST)

Resumé : L’étude de l’extraction de lexiques bilingues à partir de corpus comparables a été souvent circonscrite aux mots simples. Les méthodes classiques ne peuvent gérer les expressions complexes que si elles sont de longueur identique, tandis que les méthodes de plongements de mots modélisent les expressions comme une seule unité. Ces dernières nécessitent beaucoup de données, et ne peuvent pas gérer les expressions hors vocabulaire. Dans cette thèse, nous nous intéressons à la modélisation d’expressions de
longueur variable par co-occurrences et par les méthodes neuronales état de l’art. Nous étudions aussi l’apprentissage de représentation d’expressions supervisé et non-supervisé. Nous proposons deux contributions majeures. Premièrement, une nouvelle architecture appelée tree-free recursive neural network (TFRNN) pour la modélisation d’expressions indépendamment de leur longueur. En apprenant à prédire le contexte de l’expression à partir de son vecteur encodé, nous surpassons les systèmes état de l’art de synonymie monolingue en utilisant seulement le texte brut pour l’entraînement. Deuxièmement, pour la modélisation cross-lingue, nous incorporons une architecture dérivée de TF-RNN dans un modèle encodeur-décodeur avec un mécanisme de pseudo contre-traduction inspiré de travaux sur la traduction automatique neurale nonsupervisée. Notre système améliore significativement l’alignement bilingue des expressions de longueurs différentes.

Mots-clés : plongement lexical bilingue, alignement d’expressions, apprentissage non-supervisé

******

Abstract: Significant advances have been achieved in bilingual word-level alignment from comparable corpora, yet the challenge remains for phrase-level alignment. Traditional
methods to phrase alignment can only handle phrase of equal length, while word embedding based approaches learn phrase embeddings as individual vocabulary entries suffer
from the data sparsity and cannot handle out of vocabulary phrases. Since bilingual alignment is a vector comparison task, phrase representation plays a key role. In this thesis, we
study the approaches for unified phrase modeling and cross-lingual phrase alignment, ranging from co-occurrence models to most recent neural state-of-the-art approaches. We review supervised and unsupervised frameworks for modeling cross-lingual phrase representations. Two contributions are proposed in this work. First, a new architecture called tree-free recursive neural network (TF-RNN) for modeling phrases of variable length which, combined with a wrapped context prediction training objective, outperforms the state-of-the-art approaches on monolingual phrase synonymy task with only plain text training data. Second, for cross-lingual modeling, we propose to incorporate an architecture derived from TF-RNN in an encoder-decoder model with a pseudo back translation mechanism inspired by unsupervised neural machine translation. Our proposition improves significantly bilingual alignment of different length phrases.

Keywords: bilingual word embedding, bilingual phrase alignment, unsupervised learning

Soutenance d’HDR de Vincent Ricordel (équipe IPI)

Vincent RICORDEL soutiendra son habilitation à diriger des recherches intitulée « Outils et méthodes pour le codage vidéo perceptuel« 
mercredi 22 janvier 2020 à 13h30, dans l’amphithéâtre A1 à Polytech.
Jury :
– Marc Antonini, DR. à l’Université de Nice (rapporteur)
– William Puech, Pr. à l’Université de Montpellier (rapporteur)
– Olivier Déforges, Pr. à l’INSA de Rennes (rapporteur)
– Marco Cagnazzo, Pr. à l’Institut Télécom-Paris (examinateur)
– Luce Morin, Pr. à l’INSA de Rennes (examinatrice)
– Bogdan Cramariuc, Directeur de l’ITCST à Bucarest (examinateur)
– Marc Gelgon, Pr. à l’Université de Nantes (examinateur)
La soutenance sera suivie d’un pot dans le même bâtiment Ireste.
Le mémoire (pas la version finale) est accessible ici : https://uncloud.univ-nantes.fr/index.php/s/RCdgg5XfkGEMjzK
Résumé :
On ne peut que constater combien la technologie vidéo est devenue omniprésente en un peu plus d’une décennie. Si les besoins des nouveaux services vidéo ont été en partie satisfaits par l’efficacité des réseaux et de leurs technologies de couche physique, en parallèle les codecs vidéo ont été primordiaux en offrant compression et nouvelles fonctionnalités. La recherche en codage vidéo se caractérise alors par un fort contexte normatif où le point de compatibilité se fait au niveau du décodage. Les performances de chaque nouveau standard sont remarquables, car typiquement chacun par rapport au précédent, code avec la même qualité objective un format vidéo donné mais en divisant par deux le débit nécessaire. Il est cependant frappant de constater que le paradigme de la couche de codage n’a pas changé depuis l’origine, avec un codec dissymétrique où les décisions sont prises à l’encodage via un schéma hybride intégrant les étapes de prédiction, transformation, quantification et codage entropique. Il est aussi surprenant de constater la persistance de l’implantation dans les codeurs pour la phase d’optimisation débit-distorsion, d’un calcul de distorsion de type erreur quadratique moyenne, alors que l’on sait la corrélation pauvre entre les résultats de cette métrique et le jugement humain.
C’est à ce niveau que se définit l’objectif du codage vidéo perceptuel qui est d’aller vers une représentation de l’information basée sur le contenu perçu et qui puisse servir de paradigme pour un codage basé qualité perceptuelle des contenus des vidéos 2D et 3D. Pour être en phase avec les approches standards, l’objectif devient de guider les choix de codage de façon à aller vers la fidélité perceptuelle sans perte des vidéos décodées. Mes travaux se positionnent donc dans cette recherche des outils et des méthodes où les choix pour améliorer la qualité perceptuelle guident le codage vidéo.
Ma présentation retracera mon itinéraire scientifique au sein des équipes IVC-IRCCyN puis IPI-LS2N qui, du fait des recherche qui y sont conduites sur la modélisation du système visuel humain, ont offert et offrent encore un cadre collaboratif particulièrement propice aux travaux liés au codage vidéo perceptuel.
Mes contributions au codage vidéo perceptuel se sont principalement organisées au sein de projets de recherche visant à contribuer aux efforts faits en normalisation, avec le projet ANR ArchiPEG qui avait pour objectif l’optimisation du codage vidéo HD en flux H.264/AVC, le projet ANR PERSEE qui s’intéressait au codage perceptuel des formats vidéo 2D et 3D via le codec H.264 et son extension MVC, et le projet européen ITN PROVISION qui visait le codage perceptuel via HEVC. Mes contributions ont été produites au travers l’encadrement de thèses (4 soutenues, 1 en cours), et nous verrons que nous avons agi à 2 niveaux de la boucle de codage vidéo hybride.
Une première possibilité est d’améliorer directement des unités de la boucle de codage.
C’est ainsi que nous avons mis en œuvre une transformation directionnelle tenant compte des orientations géométriques au sein de l’image. Nous avons exploité cette représentation de l’information afin de construire des classes de structures, puis adapté la quantification de leur contenu en se basant sur des critères perceptuels.
Nous avons aussi, après avoir défini la notion de textures spatio-temporelles visuelles, proposé un modèle mesurant la similarité entre ces textures visuelles. Ce modèle computationnel basé sur le traitement cortical du SVH, a ensuite été utilisé afin d’améliorer la boucle de codage de HEVC : en identifiant des classes de textures visuelles et en faisant correspondre à la distorsion objective standard calculée par le codeur sa valeur dans le domaine perceptuel.
Une autre approche consiste à mettre en place un schéma de pré-analyse avant encodage afin de piloter ensuite efficacement le codage des régions d’intérêt. La modélisation de l’attention visuelle est donc essentielle au niveau de cette analyse.
Nous avons conçu un schéma de pré-analyse basé sur des tubes spatio-temporels. Cet outil réalise la segmentation et le suivi des objets constitués de tubes connexes, et il leur associe une saillance visuelle. L’ensemble de ces informations est exploitée afin d’assurer un codage cohérent des objets en flux H.264/AVC. Exactement nous avons testé l’adaptation de la structure du GOP, et le guidage de la qualité visuelle.
Nous avons aussi développé le premier modèle computationnel de l’attention visuelle 3D s’appliquant à la visualisation d’images stéréoscopiques. Ce modèle combine deux cartes de saillance visuelle : celle 2D et celle de profondeur. Nous avons utilisé ce modèle afin d’améliorer la qualité d’expérience de visualisation de la TV3D, par ajout d’un flou de défocalisation sur la région ayant moins d’intérêt.
Dans la dernière partie de ma présentation, un bilan et des perspectives sont donnés. Nous nous intéressons en particulier au codage des formats vidéo immersifs représentés par des nuages de points 3D. Nos derniers travaux montrent l’intérêt d’une approche basée quantification vectorielle algébrique et arborescente, permettant de structurer graduellement la géométrie de la scène, et cela en fonction d’un critère débit-distorsion.
Index
ANR Agence Nationale  de la Recherche
AVC   Advanced video Coding
GOP Group of Pictures
HD   Haute Définition
HEVC   High Efficiency Video Coding
IPI Image Perception Interaction
IRCCyN Institut de Recherche en Communications et Cybernétique de Nantes, UMR 6597
ITN Initial Training Network
IVC   Image & Vidéo Communication
LS2N   Laboratoire des Sciences du Numérique de Nantes, UMR 6004
MVC   Multiview Video Coding
SVH   Système V

Soutenance de thèse de Jiajun PAN (équipe DUKe)

Jiajun Pan, doctorant au sein de l’équipe DUKe, soutiendra sa thèse intitulée « Formalisation et Apprentissage de Métriques Relationnelles »

vendredi 20 décembre 2019 à 14h, dans l’amphi du  bâtiment Ireste sur le site de Polytech.

Jury :

  • Directeur thèse :  LERAY Philippe
  • Co encadrant : LE CAPITAINE Hoël
  • Rapporteurs :  LESOT Marie Jeanne (LIP 6), HABRARD Amaury (U Saint Etienne)
  • Autres membres : CAPPONI Cécile (U Aix Marseille), DE LA HIGUERA Colin
Abstract:
Metric distance learning is a branch of re-presentation learning in machine learning algorithms. We summarize the development and current
situation of the current metric distance learning algorithm from the aspects of the flat database and non-flat database. For a series of
algorithms based on Mahalanobis distance for the flat database that fails to make full use of the intersection of three or more dimensions, we
propose a metric learning algorithm based on the submodular function. For the lack of metric learning algorithms for relational databases in
non-flat databases, we propose LSCS(Relational Link-strength Constraints Selection) for selecting constraints for metric learning algorithms with
side information and MRML (Multi-Relation Metric Learning) which sums the loss from relationship constraints and label constraints. Through the
design experiments and verification on the real database, the proposed algorithms are better than the current algorithms.
***
Résumé :

L’apprentissage à distance métrique est une branche de l’apprentissage par re-présentation des algorithmes d’apprentissage automatique. Nous résumons
le développement et la situation actuelle de l'algorithme actuel d'apprentissage à distance métrique à partir des aspects de la base de
données plate et de la base de données non plate. Pour une série d'algorithmes basés sur la distance de Mahalanobis pour la base de données
plate qui ne parvient pas à exploiter l'intersection de trois dimensions ou plus, nous proposons un algorithme d'apprentissage métrique basé sur la
fonction sous-modulaire. Pour le manque d’algorithmes d’apprentissage métrique pour les bases de données relationnelles dans des bases de
données non plates, nous proposons LSCS (sélection de contraintes relationnelles de force relationnelle) pour la sélection de contraintes
pour des algorithmes d’apprentissage métrique avec informations parallèles et MRML (Multi-Relation d'apprentissage métrique) qui somme la perte des
contraintes relationnelles et les contraintes d'etiquetage. Grâce aux expériences de conception et à la vérification sur la base de données
réelle, les algorithmes proposés sont meilleurs que les algorithmes actuels.

 

Soutenance de thèse de Gaëtan GILBERT (équipe Gallinette)

Gaëtan Gilbert, doctorant au sein de l’équipe Gallinette, soutiendra sa thèse intitulée « Une théorie des types avec insignifiance des preuves définitionnelle » / « A type theory with definitional proof-irrelevance »

vendredi 20 décembre 2019 à 10h, dans l’amphi Besse de l’IMT-A.

Jury :
Directeur thèse : TABAREAU Nicolas
Co encadrant : SOZEAU Matthieu (CR Inria)
Rapporteurs : ABEL Andreas (Chalmers Techniska Hogskola AB), SPITTERS Bas (Aarhus University)
Autres membres : MAHBOUBI Assia, BERTOT Yves (DR Inria Antipolis), SMOLKA Gert (Saarland University)

Résumé : L’égalité définitionnelle, aussi appelée conversion, pour une théorie des types avec une vérification de type décidable est l’outil le plus simple pour prouver que deux
objets sont les mêmes, laissant le système décider en utilisant uniquement le calcul. Par conséquent, plus il y a de choses égales par conversion, plus il est simple d’utiliser un
langage basé sur la théorie des types. L’insignifiance des preuves, indiquant que deux preuves quelconques de la même proposition sont égales, est une manière possible
d’étendre la conversion afin de rendre une théorie des types plus puissante. Cependant, ce nouveau pouvoir a un prix si nous l’intégrons naïvement, soit en rendant la vérification
de type indécidable, soit en réalisant de nouveaux axiomes—tels que l’unicité des preuves d’identité (UIP)—qui sont incompatibles avec d’autres extensions, comme l’univalence.
Dans cette thèse, nous proposons un moyen général d’étendre une théorie des types avec l’insignifiance des preuves, de manière à ce que la vérification du type soit décidable
et est compatible avec l’univalence. Nous fournissons un nouveau critère pour décider si une proposition peut être éliminée sur un type (en corrigeant et en améliorant la règle
d’élimination des singletons de Coq) en utilisant des techniques provenant de développements récents du filtrage dépendant sans UIP. Nous fournissons aussi une preuve de
la décidabilité du typage à base de relations logiques. Cette extension de la théorie des types a été implementée dans les assistants de preuve Coq et Agda.

Mot-clés : Assistant de preuve, Coq, insignifiance des preuves, univers, UIP

********

Abstract: Definitional equality, a.k.a conversion, for a type theory with a decidable type checking is the simplest tool to prove that two objects are the same, letting the system decide just using computation. Therefore, the more things are equal by conversion, the simpler it is to use a language based on type theory. Proof-irrelevance, stating that any two proofs of the same proposition are equal, is a possible way to extend conversion to make a type theory more powerful. However, this new power comes at a price if we integrate it naively, either by making type checking undecidable or by realizing new axioms—such as uniqueness of identity proofs (UIP)—that are incompatible with other extensions, such as univalence. In this thesis, we propose a general way to extend a type theory with definitional proof irrelevance, in a way that keeps type checking decidable and is compatible 
with univalence. We provide a new criterion to decide whether a proposition can be eliminated over a type (correcting and improving the so-called singleton elimination of Coq) byusing techniques coming from recent development on dependent pattern matching without UIP. We show the decidability of type checking using logical relations. This extension of type theory has been implemented both in Coq and Agda.

Keywords: Proof assistant, Coq, proof-irrelevance, universes, UIP

Copyright : LS2N 2017 - Mentions Légales - 
 -