Home » Évènement

Séminaire IPI : « Exploring visual perception and attention processes during the observation of UAVs videos »

The next IPI seminar will held on Friday the 15th of March (2pm-3pm) at Polytech – room D010.
The speaker will be Vassilios Krassanakis, who is postdoc in the IPI team.

In this seminar, the design and the performance of two experimental processes towards the examination of human visual behavior during the observation of Unmanned Aerial Vehicles (UAVs) videos will be described and discussed. More specifically, the main aim of these experiments is to examine how people perceive such stimuli under both free viewing and surveillance task-based conditions. Experimental performance is based on the collection and the analysis of eye tracking data. Both collected and analyzed data can serve as a robust ground truth for future studies, including the development of dedicated visual saliency models that will be able to predict human visual reaction during the observation of this type of visual stimuli.
The aforementioned research work was done in the framework of the ongoing project ANR ASTRID-DISSOCIE which aims to deliver an integrated methodology towards the automatic and semi-automatic detection of visual saliencies from human operator’s point of view and the intelligent compression of drone videos.

Relative Journal Article:
Krassanakis, V., Perreira Da Silva, M., & Ricordel, V. (2018). Monitoring Human Visual Behavior during the Observation of Unmanned Aerial Vehicles (UAVs) Videos. Drones, 2(4), 36. (DOI: https://doi.org/10.3390/drones2040036)

Produced Eye Tracking Dataset (EyeTrackUAV):
EyeTrackUAV is freely distributed to the scientific community via anonymous FTP at ftp://ftp.ivc.polytech.univ-nantes.fr/EyeTrackUAV

DISSOCIE Project Web Page: https://sites.google.com/insa-rennes.fr/projetanrastrid-dissocie/accueil

IPI’s presentations are disponible by following this link:https://uncloud.univ-nantes.fr/index.php/s/xcLeXnAEs6JgC5p

Journée GDR ISIS : Compression et qualité des contenus 360, Light Field et Point Cloud (3D)

Vincent Ricordel (équipe IPI) co-organise la prochaine réunion du GDR ISIS intitulée « Compression et qualité des contenus 360, Light Field et Point Cloud (3D) », mardi 19 mars 2019 à l’INSA-Rennes.

Résumé :

Les technologies immersives sont en plein essors notamment par le biais de la réalité virtuelle (RV), augmentée (RA) et mixte (RM). Afin d’alimenter ces technologies, les contenus peuvent être capturés par différents moyens en exploitant un ensemble de caméras mais également des caméras sphériques ou plénoptiques. Cela permet donc de produire des images/vidéos en 360°, de nuages de points (Point Cloud, PC) et de champs de lumière (Light Field, LF). L’avènement de ces contenus a permis la création de nouveaux services, notamment les communications immersives 3D en temps réel, la visualisation de contenus VR avec parallaxe interactive, la télévision en point de vue libre 3D, la navigation autonome et bien d’autres applications.

Par la même occasion, ces nouveaux formats apportent de nouveaux défis à différents niveaux de la chaîne allant de l’acquisition à la restitution des contenus tout en passant par les étapes de codage, de transmission. Chaque étape apporte son lot de questions en plus de celle en lien avec la qualité de l’expérience de l’utilisateur et des risques sanitaires pouvant en découler.

Cette journée a pour objectif de réunir les académiques et les industriels autour des sujets évoqués plus haut. Le but est de créer un lieu d’échange et de présentation des travaux récents sur ces sujets d’actualité. Cela permet également de faire rencontrer académiques et industriels, chercheurs seniors et juniors, des chercheurs de différentes disciplines, etc. Des présentations seniors, couvrant la chaîne entière de traitements, seront programmées afin de permettre une meilleure compréhension de la problématique. Le programme de la journée sera complété par des présentations junior donnant un aperçu des travaux en cours dans le domaine.

Pour faire une proposition de présentation et/ou vous inscrire : http://www.gdr-isis.fr/index.php?page=reunion&idreunion=384

3ème édition de la Folle Journée de l’Imagerie Nantaise

La Folle Journée de l’Imagerie Nantaise, co-organisée et soutenue par près d’une douzaine d’institutions académiques nantaises, aura lieu mercredi 27 février 2019 à ONIRIS, site de la Chantrerie à Nantes.

Elle continuera de soutenir la représentation de l’imagerie nantaise dans toute sa diversité, et proposera l’ouverture vers de nouveaux champs, comme la photoacoustique cette année, avec l’invitation d’un chercheur du Laboratoire d’Acoustique de l’Université du Maine (LAUM-UMR CNRS 6613). Un intérêt tout particulier sera porté aux communications promouvant des travaux, issus de collaborations nouées au cours des précédentes éditions, ainsi qu’aux travaux sur l’imagerie présentant une forte imbrication avec les sciences humaines et sociales.

Notons :

  • la présence de plusieurs membres du LS2N dans le comité scientifique : Jérôme IDIER (SIMS), Patrick LE CALLET (IPI), Said MOUSSAOUI (SIMS), et Nicolas NORMAND (IPI).
  • les interventions de 6 membres du labo :11h35‐11h50 : O4‐ Techniques d’imagerie avancée pour le contrôle non destructif par ultrasons. – Nans LAROCHE14h00‐14h15 : O6‐ Tree‐structured point‐lattice vector quantization for 3‐D point cloud geometry compression. – Amira FILALI

    15h00‐15h05 : F9‐ Reconstruction et classification des temps de relaxation IRM multi‐exponentiels pour la caractérisation de tissus biologiques. – Christian EL HAJJ

    15h05‐15h10 : F10‐ Réseau de neurones récurrent à attention pour la détection de lésionsintestinales. – Rémi VALLÉE

    16h10‐16h25 : O10‐ CIRESFI‐RECITAL : Rétrospective sur l’aventure des REgistres de la Comédie‐ITALienne. – Harold MOUCHÈRE

    16h40‐16h55 : O12‐ How to drastically increase the sample size of human‐based datasets? Feedbacks from a video‐game. – Antoine COUTROT

Plus d’infos : https://follejournee-imagerie.univ-nantes.fr/

Séminaire IPI : « Predicting artificial visual field losses: a gaze-based inference study »

The next IPI seminar will held
on Friday, the 25th of January (2pm-3pm).
The room (at Polytech) will be D005.

The speaker will be Erwan David who is PhD student in the IPI team.

Title: Predicting artificial visual field losses: a gaze-based inference study

Abstract:
Visual field defects are a world-wide concern, the proportion of the population experiencing vision loss is ever increasing. Macular degeneration and glaucoma are among the four leading causes of permanent vision loss. Identifying visual field losses from gaze alone could prove crucial in the future for screening tests. Gaze movements and scanpaths contain a wealth of information (Coutrot, Hsiao, & Chan, 2018). Gaze features related to saccades and fixations have demonstrated their usefulness in the identification of mental states, cognitive processes and neuropathologies (Itti, 2015).
54 participants took part in a free-viewing task of visual scenes while experiencing artificial scotomas (central and peripheral) of varying diameters in a gaze-contingent paradigm (Duchowski, Cournia, & Murphy, 2004). We study the importance of a set of gaze features as predictors to best differentiate between scotoma conditions. We first report effect sizes with Linear Mixed Models (LMMs), then show redundancies in variance with a correlation and a factorial analyses. We end by implementing Hidden Markov Models (HMMs) and Recurrent Neural Networks (RNNs) as classifiers in order to measure predictive usefulness of gaze features. We demonstrate that saccade relative angle, amplitude and peak velocity are the best gaze features to distinguish between artificial scotomas of different types and diameters.

4th Mojette Day

We are delighted to invite you to the Fourth Mojette Day which will be held at Polytech Nantes on Thursday, January 17th 2019.
We look forward to welcoming you in the main amphitheater (A1) in the IRESTE building at Polytech Nantes, France.

Mojette Day is our unique annual occasion for a review of ongoing research concerning Discrete Tomography, including the Mojette transform, the Finite Radon Transform and related projective representations.

As at the last edition, we shall have (at least) three guest speakers:
1. Rob Tijdeman, from Leiden University, Netherlands, who has worked on Discrete Tomography since 1999 with many colleagues around the word. Rob will present some ongoing research about redundancy created by the tomographic representation.
2. Imants Svalbe, from Monash University in Melbourne Australia. Imants works on several aspects on Discrete Tomography, especially on the Finite Radon Transform, its strong links with the Mojette transform and their application as tools to build perfect auto-correlation arrays.
3. Silvia Maria Carla Pagani, from Politecnico di Milano. Silvia has an expertise on binary tomography, particularly regarding ghosts or switching elements and the characterization of regions of uniqueness.

Program:
8:30 – 9:00 | Coffee at IPI
9:00 | Welcome by Philippe Dépincé, Director Polytech Nantes
9:10 | Silvia Pagani (Università Cattolica del Sacro Cuore, Brescia, Italia): »A conjecture about hv-convex sets: some recent developments »
9:55 | Robert Tijdeman (Mathematical Institute, Leiden University, Netherland): »Maximal and near-minimal ghost components. »
10:40 | Coffee break at IPI
11:15 | Imants Svalbe (Monash Univ. Melbourne, Australia): « Discrete 1D projections to forge 2D discrete shapes »
12:00 | Apéro + Lunch + coffee at IPI
14:00 | Şuayb Ş. Arslan (MEF University, Istanbul, Turkey) : »Asymptotically MDS Array BP-XOR Codes »
14:30 | Nicolas Normand : »Lagrange ghost prints »
15:00 | Didier Féron (Rozo Systems, Nantes / San Francisco): « Optimized Mojette transform implementation for fast storage »
15:30 | Jean-Pierre Guédon : »Generating Mojette projections sets from Halphen series »
16:00 | Open discussion 1: Tools for Discrete Tomography
16:30 | Open discussion 2: Open problems in Discrete Tomography
17:00: End of the Mojette Day – Pot at IPI

There are no attendance fees, but you must register to attend (to ensure we have sufficient food and Muscadet for the lunch, sponsored by ROZO systems).

Nicolas Normand & Jean-Pierre Guédon, co-organizers, team IPI / Polytech

Séminaire IPI : « Hybrid-MST: A Hybrid Active Sampling Strategy for Pairwise Preference Aggregation »

Le prochain séminaire de l’équipe IPI aura lieu vendredi 30 novembre de 15h à 16h à Polytech, en salle D010 du bâtiment IRESTE.
L’orateur est Jing Li, post-doc au sein de l’équipe et qui abordera, en Anglais, le thème suivant : Hybrid-MST: A Hybrid Active Sampling Strategy for Pairwise Preference Aggregation.
***********
The next IPI seminar will held on Friday the 30th of November (3pm-4pm), in room D010 in Ireste Building at Polytech’Nantes.

The speaker will be Dr Jing Li who is postdoc in the IPI team.
Hybrid-MST: A Hybrid Active Sampling Strategy for Pairwise Preference Aggregation
In this talk, a hybrid active sampling strategy for pairwise preference aggregation is presented, which aims at recovering the underlying rating of the test candidates from sparse and noisy pairwise labeling. This method employs Bayesian optimization framework and Bradley-Terry model to construct the utility function, then to obtain the Expected Information Gain (EIG) of each pair. For computational efficiency, Gaussian-Hermite quadrature is used for estimation of EIG. In this work, a hybrid active sampling strategy is proposed, either using Global Maximum (GM) EIG sampling or Minimum Spanning Tree (MST) sampling in each trial, which is determined by the test budget. The proposed method has been validated on both simulated and real-world datasets, where it shows higher preference aggregation ability than the state-of-the-art methods.

Intervention d’A. Coutrot aux Utopiales 2018 : « Le corps dans tous ses états »

Invité par la radio associative Le labo des savoirs, Antoine Coutrot, chercheur au sein de l’équipe IPI, a débattu du « corps dans tous ses états » aux Utopiales le 4 novembre 2018 avec Héloïse Chochois (illustratrice), Roland Lehoucq (astrophysicien), Marc-André Selosse (professeur du Muséum).

Il a discuté de l’utilisation des données personnelles pour créer des expériences vidéo ludiques et personnelles voire thérapeutiques.

Retrouvez l’émission en podcast sur le site de la radio [58 min].

Soutenance de thèse de Suiyi LING (équipe IPI)

Suiyi Ling, doctorant au sein de l’équipe IPI soutiendra sa thèse intitulée « Perceptual representations of structural and geometric information in images: bio-inspired and machine learning approaches – Application to visual quality assessment of immersive media » / « Représentations perceptuelles de l’information structurelle et géométrique des images : approches bio inspirées et par apprentissage machine – Application à la qualité visuelle de médias immersifs »

lundi 29 octobre à partir de 14h, à Polytech, dans l’amphi A1 du bâtiment Ireste.

Jury : Patrick le Callet (dir thèse), Frédéric Dufaux (Rapporteur, L2S), Dragan Kukolj (rapporteur, University of Novi Sad, Serbie), Luce Morin (INSA Rennes), Vincent Courboulay (Université La Rochelle), Nathalie Guyader (Université Grenoble Alpes)

Abstract:
This work aims to better evaluate the perceptual quality of image/video that contains structural and geometric related distortions in the context of immersive multimedia. We propose and explore a hierarchical framework of visual perception for image/video. Inspired by representation mechanism of the visual system, low-level (elementary visual features, e.g. edges), mid-level (intermediate visual patterns, e.g. codebook of edges), and higher-level (abstraction of visual input, e.g. category of distorted edges) image/video representations are investigated for quality assessment. The first part of this thesis addresses the low-level structure and texture related representations. A bilateral filter-based model is first introduced to qualify the respective role of structure and texture information in various assessment tasks (utility, quality …). An image quality/video quality measure is proposed to quantify structure deformation spatially and temporally using new elastic metric. The second part explores mid-level structure related representations. A sketch-token based model and a context tree based model are presented in this part for the image and video quality evaluation. The third part explores higher-level structure related representations. Two machine learning approaches are proposed to learn higher-level representation: a convolutional sparse coding based and a generative adversarial network. Along the thesis, experiments an user studies have been conducted on different databases for different applications where special structure related distortions are observed (FTV, multi-view rendering, omni directional imaging …).

***********

Résumé :
Ce travail vise à mieux évaluer la qualité perceptuelle des images contenant des distorsions structurelles et géométriques notamment dans le contexte de médias immersifs. Nous proposons et explorons un cadre algorithmique hiérarchique de la perception visuelle. Inspiré par le système visuel humain, nous investiguons plusieurs niveaux de représentations des images : bas niveau (caractéristiques élémentaires comme les segments), niveau intermédiaire (motif complexe, encodage de contours), haut niveau (abstraction et reconnaissance des données visuelles). La première partie du manuscrit traite des représentations bas niveau pour la structure et texture. U n modèle basé filtre bilatéral est d’abord introduit pour qualifier les rôles respectifs de l’information texturelle et structurelle dans diverses tâches d’évaluation (utilité, qualité…). Une mesure de qualité d’image/video est proposée pour quantifier les déformations de structure spatiales et temporelles perçues en utilisant une métrique dite élastique. La seconde partie du mémoire explore les représentations de niveaux intermédiaires. Un modèle basé « schetch token » et un autre basé sur codage d’un arbre de contexte sont présentés pour évaluer la qualité perçue. La troisième partie traite des représentations haut niveau. Deux approches d’apprentissage machine sont proposées pour apprendre ces représentations : une basée sur un technique de convolutional sparse coding, l’autre sur des réseaux profonds de type generative adversarial network. Au long du manuscrit, plusieurs expériences sont menées sur différentes bases de données pour plusieurs applications (FTV, visualisation multivues, images panoramiques 360…) ainsi que des études utilisateurs.

Copyright : LS2N 2017 - Mentions Légales - 
 -