Home » Évènement

Séminaire équipe IPI – Orateurs : Nina S. T. Hirata (University of Sao Paulo) et Zaohui Che

Le prochain séminaire IPI aura lieu mardi 2 juillet 2019 à 14h, en salle D005 sur le site de Polytech.

L’équipe recevra 2 orateurs :

  1. Nina S. T. Hirata : maître de conférences au département d’informatique à l’Institute of Mathematics and Statistics de l’Université de São Paulo.
  2. Zaohui Che : doctorant à l’Institute of Image Communication and Network Engineering à l’Université de Shanghai Jiao Ton, et actuellement accueilli au sein de l’équipe IPI.

Présentation 1 :

Title: Spatial and Hierarchical relations in image understanding
Abstract: Understanding image content is a challenging task that requires identifying image components and their spatial and hierarchical relationships. We start by presenting some image decomposition examples and reviewing some existing approaches used to model the spatial and/or hierarchical relationships. Our ultimate aim is to develop an end-to-end approach that transforms an input image into its structural decomposition, containing information on its constituent components, as well as spatial and hierarchical relationships among them. We describe some ongoing efforts, current status and which are the expected results.
Short bio: Nina S. T. Hirata holds a PhD degree in Computer Science from the University of São Paulo, Brazil. Currently, she is an associate professor of the Computer Science Department, Institute of Mathematics and Statistics, at the same university. Her main research interest is in the development and application of machine learning based techniques on image analysis and understanding.

Présentation 2 :

Title: The robustness of deep saliency models
Abstract: Currently, a plethora of saliency models based on deep neural networks have led great breakthroughs in many complex high-level vision tasks. The robustness of these models, however, has not yet been studied. In this talk, we explore the robustness of deep saliency models when suffering from two types of perturbations, i.e. random transformations and deliberate perturbations.
On the one hand, most of current studies on human attention and saliency modeling have used high-quality stereotype stimuli. In real world, however, captured images undergo various types of transformations. Can we use these transformations to augment existing saliency datasets? Here, we first create a novel saliency dataset including fixations of 10 observers over 1900 images degraded by 19 types of transformations. Second, by analyzing eye movements, we find that observers look at different locations over transformed versus original images. Third, we utilize the new data over transformed images, called data augmentation transformation (DAT), to train deep saliency models. We find that label-preserving DATs with negligible impact on human gaze boost saliency prediction, whereas some other DATs that severely impact human gaze degrade the performance. These label-preserving valid augmentation transformations provide a solution to enlarge existing saliency datasets.
On the other hand, we propose a sparse feature-space adversarial attack method against deep saliency models for the first time. The proposed attack only requires a part of the model information, and is able to generate a sparser and more insidious adversarial perturbation, compared to traditional image-space attacks. Theseadversarial perturbations are so subtle that a human observer cannot notice their presences, but the model output[1]s will be revolutionized. This phenomenon raises security threats to deep saliency models in practical applications. We also explore some intriguing properties of the feature[1]space attack, e.g. 1) the hidden layers with bigger receptive fields generate sparser perturbations, 2) the deeper hidden layers achieve higher attack success rates, and 3) different loss functions and different attacked layers will result in diverse perturbations.
We also propose a novel saliency model based on generative adversarial network (dubbed GazeGAN), which achieves the best performance in terms of popular saliency evaluation metrics, and is more robust to various perturbations.
Short bio: Zhaohui Che received the B.E. degree from School of Electronic Engineering, Xidian University, Xi’an, China, in 2015. He is currently working toward the Ph.D. degree at the Institute of Image Communication and Network Engineering, Shanghai Jiao Tong University, Shanghai, China. His research interests include image saliency detection, image quality assessment, deep learning, and deep model robustness research.

 



			

SIFWICT 2019 – 5th Sino-French Workshop on Information and Communication Technologies

As part of 8th Sino-French Seminar for Engineering Education and Research, the 5th Sino-French Workshop on Information and Communication Technologies will be held in Nantes, FRANCE, at `La Cité Nantes Events Center’ on June 21st, 2019

This workshop, specially oriented on research collaborations, aims at bringing together researchers from Chinese universities and the graduate engineering school of University of Nantes and Polytech group, to discuss on the latest scientific and theoretical advances on information,
communication, electronic and electrical systems.

The program will include keynote speakers, senior and junior presentations, and a general opening ceremony. In order to encourage fruitful discussions and future collaboration plans, part of the program will be largely dedicated to interactive sessions. The topics include information, communication, electronic and electrical technologies. We hope you can contribute to this conference by submitting a paper (4-6 pages) in English reflecting your current research.

Main topics:

Multimedia Systems and Video-Communication
– Computer Vision, Pattern Recognition and Machine Learning
– Computer Graph, Knowledge Management, Data Mining
– Multimedia Applications, Image and Video Processing,Discrete Geometry
– Affective Computing, Multimedia Quality Assessment and QoE
– Cloud Applications, Databases, Information Systems and Security, Multimedia Communication, Social Networks, Network Design, Analysis and Management
– Human-Computer Interaction and Immersive Technologies (3D, HDR, UHD, Haptics…)

Signal Processing and Wireless Communications
– Signal Processing for Communications and Radar
– MIMO and Multi-Antenna Communications
– Embedded Systems
– Wireless Sensor Network Systems
– Cognitive Radio
– Green Communications and Energy Efficiency in Communication
– Electrical Systems
– RF System Design

Conference Organization
– Steering Committee : Yide Wang, Patrick Le Callet, Quan Xu et YongXu
– General Chairs : Jean-François Diouris et Yong Xu
– Technical Program Chairs
Telecom: Pascal Chargé et Yuehua Ding
Computer Science: Matthieu Perreira Da Silva et Weineng Chen
– Sessions Chairs
Oral: Guillaume Andrieux (Telecom) et Ying Gao(Computer)
Poster: Vincent Ricordel

Technical Program Committee:
Anne Chousseaud
Guillaume Raschia
Harold Mouchère
Marc Gelgon
Jean-François Diouris
Sébastien Pillement
Tchanguiz Razban
Vincent Ricordel
Yann Mahe
Benoît Parrein
Nicolas Normand
Christian Viard-Gaudin
Maria MéndezReal
Cédric LeBastard
Junyu Dong
Yuhu Quan
Si Wu
Fei Ji
Hua Yu
Biyun Ma
Fengjion Chen
Xue Gao
Tianhao Tang
Lihong Ma
Cui Yang
Xiuying Zhang
Yizhi Feng
Xinming Re

TEDx IledeNantes : Patrick Le Callet parmi les chercheurs nantais invités de l’édition 2019

Après 5 ans d’absence à Nantes, TEDx* revient sur l’Île de Nantes avec des speakers prestigieux
SAMEDI 15 JUIN 2019 à partir de 18h
au Théâtre des 100 noms.

Parmi les invités, notons la présence de Patrick Le Callet, enseignant-chercheur au sein de l’équipe IPI du LS2N. Il présentera ses travaux conjoints avec Pierre Lebranchu (docteur en neurosciences et en médecine, praticien ophtalmologiste au CHU de Nantes). Tous deux mènent depuis 2015 des activités de recherche au croisement du numérique et du médical dans le domaine de la modélisation de la vision et de ses applications.

Ils exposeront un projet de recherche conjoint à la croisée de deux disciplines : l’intelligence artificielle via le traitement des images et la médecine des yeux, et essaieront de répondre aux questions suivantes :

  • Que révèlent les mouvements de nos yeux ?
  • Qu’est-il possible de faire pour identifier et prévenir les pathologies de la vision, pour poser des diagnostics précoces de DMLA, de glaucomes ?
  • Quelles sont les autres applications pour comprendre comment on voit le monde ?

En savoir plus : https://tedxiledenantes.com/speakers-2019/

 

  • TED (Technology, Entertainment and Design) est une organisation à but non lucratif qui se consacre à la diffusion, à l’échelle mondiale, d’idées sous la forme d’interventions brèves (18 minutes ou moins). Les événements TEDx sont organisés par des personnes curieuses animées par le souci de faire découvrir des approches nouvelles, des expériences novatrices pour susciter des échanges au sein de leur communauté.

Diagnostic précoce de la maladie d’Alzheimer : actualités du jeu vidéo Sea Hero Quest

A l’occasion de la sortie de la nouvelle étude utilisant les données issues du jeu vidéo en ligne Sea Hero Quest, publiée le 23 avril 2019 dans PNAS*, de nombreux media se sont emparés de cette actualité.

*Antoine Coutrot, Sophie Schmidt, Lena Coutrot, Jessica Pittman, Lynn Hong, Jan M. Wiener, Christoph Hölscher, Ruth C. Dalton, Michael Hornberger, Hugo J. Spiers : Virtual navigation tested on a mobile app is predictive of real-world wayfinding navigation performance

Pour rappel, cette étude vise à montrer qu’une mauvaise orientation spatiale permettrait d’aider au diagnostic précoce de la maladie d’Alzheimer, avant même l’apparition des premiers signes cliniques.

Biblio :

Séminaire IPI : « Industrial Part Pose Estimation from Virtual Images with Deep Neural Networks » par Julien Langlois

Le prochain séminaire IPI aura lieu

vendredi 26 avril 2019 de 14h à 15h, en salle D005 à Polytech.

Julien LANGLOIS, doctorant au sein de l’équipe IPI parlera de : « Industrial Part Pose Estimation from Virtual Images with Deep Neural Networks« .

Résumé : Automation of the bin picking task still remains challenging when the parts are dark and poorly textured. The complexity is even higher when only classical RGB images can be used in an industrial environment where the light is not controlled (parts might be glossy and show strong light saliencies). We present a neural network technique using a single top-view 2D image of a bin to segment several parts within the image as patches. An encoder-decoder network is first inferring the depth map from the patches
then, two other networks give the object orientation and Z-translation in the scene. An ICP based pose refinement is employed using the retro-projected depth map and the object CAD model. As the training dataset creation might be time consuming and difficult to obtain (the part needs to be maintained on an unbalanced pose), all the networks are
trained using synthetic images. With several light parameters and material reflectivities, the proposed pipeline can absorb the introduced virtual-real bias.

La présentation sera disponible sur le cloud : https://uncloud.univ-nantes.fr/index.php/s/xcLeXnAEs6JgC5p

*****
The next IPI seminar will held on Friday 
the 26th of April (2pm-3pm).
The room (at polytech) will be D005.

The speaker will be Julien Langlois who is PhD student in the IPI team.

See title & abstract above.

Antoine Coutrot (équipe IPI) animera la prochaine session du Café des Sciences

Le prochain [Café des Sciences] aura lieu

mercredi 10 avril, de 19h à 20h30, au Café du Commerce, à Nantes.

Il aura pour thème : « Le jeu vidéo au service de la recherche scientifique » et sera animé par Antoine Coutrot, chercheur au sein de l’équipe IPI.

Résumé : Sea Hero Quest est un jeu vidéo d’orientation spatiale qui a permis de tester 4 millions de joueurs dans tous les pays du monde. On a testé le sens de l’orientation de ces joueurs·euses. Ces données permettent de comprendre pourquoi le sens de l’orientation varie tant au sein de la population : est-ce inné ou culturel ? Pourquoi est-ce que je me perds tout le temps alors que mon ami jamais ? En plus de cet aspect « pratique » de l’orientation, notre invité vous expliquera comment cette approche est un outil critique pour le diagnostic de la démence.

 

Séminaire IPI : « Exploring visual perception and attention processes during the observation of UAVs videos »

The next IPI seminar will held on Friday the 15th of March (2pm-3pm) at Polytech – room D010.
The speaker will be Vassilios Krassanakis, who is postdoc in the IPI team.

In this seminar, the design and the performance of two experimental processes towards the examination of human visual behavior during the observation of Unmanned Aerial Vehicles (UAVs) videos will be described and discussed. More specifically, the main aim of these experiments is to examine how people perceive such stimuli under both free viewing and surveillance task-based conditions. Experimental performance is based on the collection and the analysis of eye tracking data. Both collected and analyzed data can serve as a robust ground truth for future studies, including the development of dedicated visual saliency models that will be able to predict human visual reaction during the observation of this type of visual stimuli.
The aforementioned research work was done in the framework of the ongoing project ANR ASTRID-DISSOCIE which aims to deliver an integrated methodology towards the automatic and semi-automatic detection of visual saliencies from human operator’s point of view and the intelligent compression of drone videos.

Relative Journal Article:
Krassanakis, V., Perreira Da Silva, M., & Ricordel, V. (2018). Monitoring Human Visual Behavior during the Observation of Unmanned Aerial Vehicles (UAVs) Videos. Drones, 2(4), 36. (DOI: https://doi.org/10.3390/drones2040036)

Produced Eye Tracking Dataset (EyeTrackUAV):
EyeTrackUAV is freely distributed to the scientific community via anonymous FTP at ftp://ftp.ivc.polytech.univ-nantes.fr/EyeTrackUAV

DISSOCIE Project Web Page: https://sites.google.com/insa-rennes.fr/projetanrastrid-dissocie/accueil

IPI’s presentations are disponible by following this link:https://uncloud.univ-nantes.fr/index.php/s/xcLeXnAEs6JgC5p

Journée GDR ISIS : Compression et qualité des contenus 360, Light Field et Point Cloud (3D)

Vincent Ricordel (équipe IPI) co-organise la prochaine réunion du GDR ISIS intitulée « Compression et qualité des contenus 360, Light Field et Point Cloud (3D) », mardi 19 mars 2019 à l’INSA-Rennes.

Résumé :

Les technologies immersives sont en plein essors notamment par le biais de la réalité virtuelle (RV), augmentée (RA) et mixte (RM). Afin d’alimenter ces technologies, les contenus peuvent être capturés par différents moyens en exploitant un ensemble de caméras mais également des caméras sphériques ou plénoptiques. Cela permet donc de produire des images/vidéos en 360°, de nuages de points (Point Cloud, PC) et de champs de lumière (Light Field, LF). L’avènement de ces contenus a permis la création de nouveaux services, notamment les communications immersives 3D en temps réel, la visualisation de contenus VR avec parallaxe interactive, la télévision en point de vue libre 3D, la navigation autonome et bien d’autres applications.

Par la même occasion, ces nouveaux formats apportent de nouveaux défis à différents niveaux de la chaîne allant de l’acquisition à la restitution des contenus tout en passant par les étapes de codage, de transmission. Chaque étape apporte son lot de questions en plus de celle en lien avec la qualité de l’expérience de l’utilisateur et des risques sanitaires pouvant en découler.

Cette journée a pour objectif de réunir les académiques et les industriels autour des sujets évoqués plus haut. Le but est de créer un lieu d’échange et de présentation des travaux récents sur ces sujets d’actualité. Cela permet également de faire rencontrer académiques et industriels, chercheurs seniors et juniors, des chercheurs de différentes disciplines, etc. Des présentations seniors, couvrant la chaîne entière de traitements, seront programmées afin de permettre une meilleure compréhension de la problématique. Le programme de la journée sera complété par des présentations junior donnant un aperçu des travaux en cours dans le domaine.

Pour faire une proposition de présentation et/ou vous inscrire : http://www.gdr-isis.fr/index.php?page=reunion&idreunion=384

3ème édition de la Folle Journée de l’Imagerie Nantaise

La Folle Journée de l’Imagerie Nantaise, co-organisée et soutenue par près d’une douzaine d’institutions académiques nantaises, aura lieu mercredi 27 février 2019 à ONIRIS, site de la Chantrerie à Nantes.

Elle continuera de soutenir la représentation de l’imagerie nantaise dans toute sa diversité, et proposera l’ouverture vers de nouveaux champs, comme la photoacoustique cette année, avec l’invitation d’un chercheur du Laboratoire d’Acoustique de l’Université du Maine (LAUM-UMR CNRS 6613). Un intérêt tout particulier sera porté aux communications promouvant des travaux, issus de collaborations nouées au cours des précédentes éditions, ainsi qu’aux travaux sur l’imagerie présentant une forte imbrication avec les sciences humaines et sociales.

Notons :

  • la présence de plusieurs membres du LS2N dans le comité scientifique : Jérôme IDIER (SIMS), Patrick LE CALLET (IPI), Said MOUSSAOUI (SIMS), et Nicolas NORMAND (IPI).
  • les interventions de 6 membres du labo :11h35‐11h50 : O4‐ Techniques d’imagerie avancée pour le contrôle non destructif par ultrasons. – Nans LAROCHE14h00‐14h15 : O6‐ Tree‐structured point‐lattice vector quantization for 3‐D point cloud geometry compression. – Amira FILALI

    15h00‐15h05 : F9‐ Reconstruction et classification des temps de relaxation IRM multi‐exponentiels pour la caractérisation de tissus biologiques. – Christian EL HAJJ

    15h05‐15h10 : F10‐ Réseau de neurones récurrent à attention pour la détection de lésionsintestinales. – Rémi VALLÉE

    16h10‐16h25 : O10‐ CIRESFI‐RECITAL : Rétrospective sur l’aventure des REgistres de la Comédie‐ITALienne. – Harold MOUCHÈRE

    16h40‐16h55 : O12‐ How to drastically increase the sample size of human‐based datasets? Feedbacks from a video‐game. – Antoine COUTROT

Plus d’infos : https://follejournee-imagerie.univ-nantes.fr/

Séminaire IPI : « Predicting artificial visual field losses: a gaze-based inference study »

The next IPI seminar will held
on Friday, the 25th of January (2pm-3pm).
The room (at Polytech) will be D005.

The speaker will be Erwan David who is PhD student in the IPI team.

Title: Predicting artificial visual field losses: a gaze-based inference study

Abstract:
Visual field defects are a world-wide concern, the proportion of the population experiencing vision loss is ever increasing. Macular degeneration and glaucoma are among the four leading causes of permanent vision loss. Identifying visual field losses from gaze alone could prove crucial in the future for screening tests. Gaze movements and scanpaths contain a wealth of information (Coutrot, Hsiao, & Chan, 2018). Gaze features related to saccades and fixations have demonstrated their usefulness in the identification of mental states, cognitive processes and neuropathologies (Itti, 2015).
54 participants took part in a free-viewing task of visual scenes while experiencing artificial scotomas (central and peripheral) of varying diameters in a gaze-contingent paradigm (Duchowski, Cournia, & Murphy, 2004). We study the importance of a set of gaze features as predictors to best differentiate between scotoma conditions. We first report effect sizes with Linear Mixed Models (LMMs), then show redundancies in variance with a correlation and a factorial analyses. We end by implementing Hidden Markov Models (HMMs) and Recurrent Neural Networks (RNNs) as classifiers in order to measure predictive usefulness of gaze features. We demonstrate that saccade relative angle, amplitude and peak velocity are the best gaze features to distinguish between artificial scotomas of different types and diameters.

Copyright : LS2N 2017 - Mentions Légales - 
 -