Home » Évènement

Journées Scientifiques de l’Université de Nantes – Colloque « L’IA pour tous, au service de la Santé et de l’Industrie : enjeux et défis »

À l’occasion de la 13e édition des Journées Scientifiques, qui auront lieu le 30 novembre 2020 (initialement prévues le 29 mai 2020) à La Cité des Congrès, l’Université de Nantes organise un colloque interdisciplinaire dédié à « L’Intelligence Artificielle pour tous, au service de la Santé et de l’Industrie : enjeux et défis ».

En collaboration avec ses partenaires académiques, laboratoires et industriels, cet événement est une occasion unique de présenter un panorama des différents projets de recherche et initiatives scientifiques menés à Nantes. Axée sur l’humain et orientée vers deux champs d’application majeurs que sont la Santé et l’Industrie du Futur, nous verrons comment ces approches sont à même de favoriser une recherche interdisciplinaire de pointe sur des questions émergentes dans le domaine de l’intelligence artificielle Nous nous intéresserons plus particulièrement aux :

• Applications médicales et industrielles : Génomique, imagerie médicale, données cliniques et de soins, usine du futur, robotique, matériaux du futur, villes intelligentes
• Méthodes d’apprentissage et de modélisation automatique : Deep Learning, réseaux bayésiens, analyse de données topologiques, traitement du signal, vision par ordinateur, traitement du langage naturel
• Enjeux éthiques sociétaux : Algorithmes discriminants, acceptabilité et impact social de l’IA, réglementation et RGPD, gouvernance transparente des données et des algorithmes, enseignement de l’IA

Plus d’infos.

Haold Mouchère (équipe IPI) animera ce colloque pour le LS2N

Conférence RJCIA – PFIA 2020 en webinaires

Les dix-huitièmes Rencontres des Jeunes Chercheur.ses en Intelligence Artificielle (RJCIA 2020) se dérouleront les deux derniers jours de l’édition 2020 de la PFIA (Plate-Forme Intelligence Artificielle), qui aura lieu du 29 juin au 3 juillet à l’ESEO à Angers.

Voir le programme complet.

Notons la participation de plusieurs membres du labo durant les sessions :

-Méthode d’analyse sémantique d’images combinant apprentissage profond et relations structurelles par appariement de graphes Jérémy Chopin, Jean-Baptiste Fasquel, Harold Mouchère, Isabelle Bloch et Rozenn Dahyot

-Génération automatique de graphe pour modéliser les singularités de trajectoires spatiales (article court) Hippolyte Dubois, Patrick Le Callet et Antoine Coutrot

-Tour d’horizon autour de l’explicabilité des modèles profonds Gaëlle Jouis, Harold Mouchère, Fabien Picarougne et Alexandre Hardouin

-Apprentissage profond appliqué à la classification d’images microscopiques embryonnaires Tristan Gomez, Harold Mouchère, Thomas Fréour et Magalie Feyeux

HAWAH : un dispositif ludique pour apprendre à bien se laver les mains

Suite au projet Corridoor, développé dans le cadre du Hackhaton « EU vs virus », et auquel a participé l’équipe IPI, le parcours pédagogique
HAWAH (pour « HAnd WAsh Health« ) a pu voir le jour et être testé dans quelques écoles de l’agglomération nantaise.
HAWAH est un dispositif ludique, sensoriel et expérimental pour mémoriser les gestes du lavage de mains. Il est constitué d’ :

  • une box mobile équipée d’une lampe néon à UV permettant de révéler les zones des mains insuffisamment nettoyées
  • un kit pédagogique : clip d’animation d’une minute + chorégraphie permettant d’apprendre les 7 gestes indispensables (accompagnés par 7 super-héros animaliers) dans un décor de jeu vidéo rétro.

Il est destiné aux écoles primaires et élémentaires, aux acteurs de l’éducation et de l’accompagnement scolaire, ou de la santé.

Plus d’infos sur le site de l’UN.

Mis à disposition gratuitement sur la plateforme http://www.hawah.live/, le projet a vocation à voyager. Alors, n’hésitez pas à diffuser le lien autour de vous !

Projet MakAir : conception et fabrication d’un respirateur artificiel

Alors que l’équipe de Benoit Furet s’est rapidement mise en ordre de marche pour réaliser des visières de protection anti-Covid 19, une seconde équipe portée par Patrick Le Callet a mené de front un projet un peu fou : la conception et la fabrication d’un respirateur artificiel homologable  en un temps record !

Une campagne de dons a été amorcée il y a quelques semaines via la fondation de l’Université de Nantes. Il est encore temps !

Pour comprendre un peu cette aventure exaltante, vous pouvez lire le communiqué de presse de l’UN.

Participation de plusieurs équipes du labo au hackhaton européen EU vs Virus

Le hackathon en ligne organisé par la Commission européenne EU vs virus pour développer des solutions innovantes en lien avec les défis posés par le Coronavirus a eu lieu du 24 au 26 avril 2020.

–> Lire l’article du RFI OIC.

Le LS2N a répondu présent et proposé 2 projets :

  • CorriDoor : sas de désinfection pédagogique et ludique pour les écoles

Participants : Patrick Le Callet (IPI), Mona Abid (IPI), Huppolyte Dubois (IPI), Benoît Furet (RoMaS), Francky Trichet (DUKe)

  • ResearchTV : plate-forme de partage des recherches de la communauté scientifique sur support audiovisuelParticipant : Ali Ak (IPI)

Séminaire équipe IPI – Claudio Coutinho : « A Saccadic Model for Visual Strategy of Retinography Analysis »

Le prochain séminaire IPI aura lieu vendredi 17 avril 2020 de 14h à 15h à Polytech (salle D118).
L’orateur est Claudio Coutinho, doctorant de l’équipe.

The next IPI seminar will held on Friday, the 17th of April 2020 (2pm-3pm), in the room D118 at Polytech.
The speaker will be Claudio Coutinho who is PhD student in the team.

Title: A Saccadic Model for Visual Strategy of Retinography Analysis

Abstract:
The goal of teaching computers how to look at visual stimulus, such as images and videos, can be of great benefit for predicting how humans would look at the same content. The so-called saccadic models may be able of outputting a set of ordinated fixation points on a stimulus. The main goal behind this technique is to automatize processes that would otherwise require real observers for assessing semantic relevance within the stimulus and possibly extracting sensitive information from it. With that in mind, we seek to propose a computational model able to replicate the visual strategy of experts in the ophthalmological field while doing diagnosis of certain eye diseases out of retinographies and extend its behaviour to students and technicians as a means of comparative teaching. For so, eye gaze data should be collected from people of different levels of expertise, since not only the actual fixation point should be considered, but other aspects intrinsic to the biological human visual system, such as the oculomotor biases, previous knowledge, i.e., small tendencies of eye movements present in real observers. We plan to deliver an efficient computational model that would predict expert diagnosis of eye diseases out of retinography analysis.

Note that all the IPI seminar’s presentations are disponible by following this link:https://uncloud.univ-nantes.fr/index.php/s/xcLeXnAEs6JgC5p

Soutenance d’HDR de Vincent Ricordel (équipe IPI)

Vincent RICORDEL soutiendra son habilitation à diriger des recherches intitulée « Outils et méthodes pour le codage vidéo perceptuel« 
mercredi 22 janvier 2020 à 13h30, dans l’amphithéâtre A1 à Polytech.
Jury :
– Marc Antonini, DR. à l’Université de Nice (rapporteur)
– William Puech, Pr. à l’Université de Montpellier (rapporteur)
– Olivier Déforges, Pr. à l’INSA de Rennes (rapporteur)
– Marco Cagnazzo, Pr. à l’Institut Télécom-Paris (examinateur)
– Luce Morin, Pr. à l’INSA de Rennes (examinatrice)
– Bogdan Cramariuc, Directeur de l’ITCST à Bucarest (examinateur)
– Marc Gelgon, Pr. à l’Université de Nantes (examinateur)
La soutenance sera suivie d’un pot dans le même bâtiment Ireste.
Le mémoire (pas la version finale) est accessible ici : https://uncloud.univ-nantes.fr/index.php/s/RCdgg5XfkGEMjzK
Résumé :
On ne peut que constater combien la technologie vidéo est devenue omniprésente en un peu plus d’une décennie. Si les besoins des nouveaux services vidéo ont été en partie satisfaits par l’efficacité des réseaux et de leurs technologies de couche physique, en parallèle les codecs vidéo ont été primordiaux en offrant compression et nouvelles fonctionnalités. La recherche en codage vidéo se caractérise alors par un fort contexte normatif où le point de compatibilité se fait au niveau du décodage. Les performances de chaque nouveau standard sont remarquables, car typiquement chacun par rapport au précédent, code avec la même qualité objective un format vidéo donné mais en divisant par deux le débit nécessaire. Il est cependant frappant de constater que le paradigme de la couche de codage n’a pas changé depuis l’origine, avec un codec dissymétrique où les décisions sont prises à l’encodage via un schéma hybride intégrant les étapes de prédiction, transformation, quantification et codage entropique. Il est aussi surprenant de constater la persistance de l’implantation dans les codeurs pour la phase d’optimisation débit-distorsion, d’un calcul de distorsion de type erreur quadratique moyenne, alors que l’on sait la corrélation pauvre entre les résultats de cette métrique et le jugement humain.
C’est à ce niveau que se définit l’objectif du codage vidéo perceptuel qui est d’aller vers une représentation de l’information basée sur le contenu perçu et qui puisse servir de paradigme pour un codage basé qualité perceptuelle des contenus des vidéos 2D et 3D. Pour être en phase avec les approches standards, l’objectif devient de guider les choix de codage de façon à aller vers la fidélité perceptuelle sans perte des vidéos décodées. Mes travaux se positionnent donc dans cette recherche des outils et des méthodes où les choix pour améliorer la qualité perceptuelle guident le codage vidéo.
Ma présentation retracera mon itinéraire scientifique au sein des équipes IVC-IRCCyN puis IPI-LS2N qui, du fait des recherche qui y sont conduites sur la modélisation du système visuel humain, ont offert et offrent encore un cadre collaboratif particulièrement propice aux travaux liés au codage vidéo perceptuel.
Mes contributions au codage vidéo perceptuel se sont principalement organisées au sein de projets de recherche visant à contribuer aux efforts faits en normalisation, avec le projet ANR ArchiPEG qui avait pour objectif l’optimisation du codage vidéo HD en flux H.264/AVC, le projet ANR PERSEE qui s’intéressait au codage perceptuel des formats vidéo 2D et 3D via le codec H.264 et son extension MVC, et le projet européen ITN PROVISION qui visait le codage perceptuel via HEVC. Mes contributions ont été produites au travers l’encadrement de thèses (4 soutenues, 1 en cours), et nous verrons que nous avons agi à 2 niveaux de la boucle de codage vidéo hybride.
Une première possibilité est d’améliorer directement des unités de la boucle de codage.
C’est ainsi que nous avons mis en œuvre une transformation directionnelle tenant compte des orientations géométriques au sein de l’image. Nous avons exploité cette représentation de l’information afin de construire des classes de structures, puis adapté la quantification de leur contenu en se basant sur des critères perceptuels.
Nous avons aussi, après avoir défini la notion de textures spatio-temporelles visuelles, proposé un modèle mesurant la similarité entre ces textures visuelles. Ce modèle computationnel basé sur le traitement cortical du SVH, a ensuite été utilisé afin d’améliorer la boucle de codage de HEVC : en identifiant des classes de textures visuelles et en faisant correspondre à la distorsion objective standard calculée par le codeur sa valeur dans le domaine perceptuel.
Une autre approche consiste à mettre en place un schéma de pré-analyse avant encodage afin de piloter ensuite efficacement le codage des régions d’intérêt. La modélisation de l’attention visuelle est donc essentielle au niveau de cette analyse.
Nous avons conçu un schéma de pré-analyse basé sur des tubes spatio-temporels. Cet outil réalise la segmentation et le suivi des objets constitués de tubes connexes, et il leur associe une saillance visuelle. L’ensemble de ces informations est exploitée afin d’assurer un codage cohérent des objets en flux H.264/AVC. Exactement nous avons testé l’adaptation de la structure du GOP, et le guidage de la qualité visuelle.
Nous avons aussi développé le premier modèle computationnel de l’attention visuelle 3D s’appliquant à la visualisation d’images stéréoscopiques. Ce modèle combine deux cartes de saillance visuelle : celle 2D et celle de profondeur. Nous avons utilisé ce modèle afin d’améliorer la qualité d’expérience de visualisation de la TV3D, par ajout d’un flou de défocalisation sur la région ayant moins d’intérêt.
Dans la dernière partie de ma présentation, un bilan et des perspectives sont donnés. Nous nous intéressons en particulier au codage des formats vidéo immersifs représentés par des nuages de points 3D. Nos derniers travaux montrent l’intérêt d’une approche basée quantification vectorielle algébrique et arborescente, permettant de structurer graduellement la géométrie de la scène, et cela en fonction d’un critère débit-distorsion.
Index
ANR Agence Nationale  de la Recherche
AVC   Advanced video Coding
GOP Group of Pictures
HD   Haute Définition
HEVC   High Efficiency Video Coding
IPI Image Perception Interaction
IRCCyN Institut de Recherche en Communications et Cybernétique de Nantes, UMR 6597
ITN Initial Training Network
IVC   Image & Vidéo Communication
LS2N   Laboratoire des Sciences du Numérique de Nantes, UMR 6004
MVC   Multiview Video Coding
SVH   Système V

Séminaire IPI – Invité : Bogdan CRAMARIUC (ITCST Roumanie)

Le prochain séminaire IPI aura lieu mardi 21 janvier 2020 à 11h, en salle D005 sur le site de Polytech.

Bogdan Cramariuc, directeur de l’ITCST (IT Center for Science an Technology, Bucarest, Romania) animera ce séminaire intitulé « Robotic Platforms in Ambient Assisted Living (AAL)« .

Abstract:
The topics will cover the current context of changing demographics and emerging ICT solutions that are continuously developed to support independent living and optimize caregiving activities such as to reduce the social and economic impact of a worldwide aging population. The presentation will focus on completed and ongoing European projects and the obtained results. In particular, the use of robotic platforms as service robots will be presented in the above context. Various issues regarding safety, ethics and user acceptability will be discussed. Practical implementations on robotic platforms for object manipulation and activity recognition will be presented. In this context, a large amount of visual and depth (point-cloud) data is collected which needs to be compressed for storage and further analyzed. While fully automous robotics is not yet a practical solution in AAL, rapid advancement in the robotics field will make this approach feasible.

Présentation des séminaires sur l’UNCloud.

Soutenance de thèse d’Erwan DAVID (équipe IPI)

Erwan David, doctorant au sein de l’équipe IPI, soutiendra sa thèse sa thèse intitulée « L’impact des troubles du champ visuel sur les dynamiques spatio-temporelles de l’observation de scènes naturelles. Analyses et modélisation » / « Effects of visual field loss on the spatio-temporal dynamics of natural scene viewing »

jeudi 28 novembre 2019 à 13h30,  dans l’amphi 2 du bâtiment IRESTE à Polytech.

Jury :
– Présidente : Muriel Boucart, Directrice de recherche, Université Lille
– Rapporteurs : Anne Guérin-Dugué, Professeure, Université Grenoble-Alpes ; Pierre Kornprobst, Directeur de recherche, INRIA Sophia-Antipolis
– Examinateurs : Nathalie Guyader, Maître de conférences, Université Grenoble-Alpes ; Christine Cavaro-Menard, Maître de conférences, Université d’Angers
– Directeur de thèse : Patrick Le Callet, Professeur, Université de Nantes
– Co-encadrants de thèse : Matthieu Perreira Da Silva, Maître de conférences, Université de Nantes ; Pierre Lebranchu, MCU-PH, Université et CHU de Nantes

Résumé : Comment l’attention visuelle est-elle dirigée par la vision centrale et périphérique ? Nous étudions cette question en mesurant l’impact de pertes visuelles (scotome) sur les mouvements oculaires durant la visualisation libre de scènes naturelles. Nous simulons des scotomes sur écran et dans un casque de réalité virtuelle, dans une dernière expérimentation nous étudions des patients avec des troubles réels. Nous avons mis en place des analyses basées sur les statistiques globales et sur les séries temporelles (apprentissage machine) pour apprécier les dynamiques d’observation oculo-motrices.
Nos principaux résultats concernent des profils de saccades bien distincts selon le type de scotome. La direction et la cible des saccades informent sur le déploiement de l’attention, par conséquent nos résultats traduisent des mécanismes attentionnels propres aux champs visuels. En particulier, ressortent une augmentation forte de saccades de retour en présence de scotomes centraux et de saccades en avant avec des scotomes périphériques. Ces résultats appuient la théorie de la segmentation fonctionnelle des champs visuels. En outre les scotomes impactent peu les mouvements de tête, nous argumentons que la tête a un rôle secondaire visant principalement à étendre le champ visuel. Une meilleure compréhension du rôle de la vision centrale et périphérique trouve des applications aussi bien cliniques qu’en sciences de l’information. Notamment, pour l’amélioration de modèles de prédiction du regard, mais aussi pour le développement d’outils d’assistance à la vision, de protocoles de remédiation et de réhabilitation, ou de tests de dépistage des défauts du champ visuel.

Mots-clés : Attention visuelle, mouvement oculaire, tracé oculaire, perte visuelle, vision périphérique, stimuli 360°, modélisation

*********

Abstract: How is visual attention affected by the central and the peripheral field of view?
In an attempt at answering this question we study the effects of visual field losses (scotoma) on eye movements during a free-viewing task of natural scenes. In two experiments we simulated scotomas on screen and in a virtual reality headset, in a third one we recruited patients with non-simulated visual field defects. Our analyses are based on global statistical differences and time series (machine learning) in order to study the spatio-temporal dynamics of eye movements. We show that scotomas strongly impact saccadic programming. The amplitude and direction of saccades are related to the deployment of attention, therefore our findings inform about attention mechanisms pertaining to the different fields of view. Without central vision subjects show an increase in return saccades, whereas experimenting with peripheral field loss participants produce more forward saccades; these results support findings about a functional divide between the central and peripheral visions. We also show that head movements are weakly impacted by scotomas, the head appear to serve vision to extend the field of view but is not impacted by visual attention in the same way as the eyes. A better understanding of the role of central and peripheral visions has direct applications both clinical and related to computer science. For instance, to improve gaze prediction models, to develop vision assistance, therapeutic or rehabilitation tools, or even screening tests targeting the early detection of visual field defects.

Keywords: Visual attention, eye movement, scanpath, visual field defect, peripheral vision, 360° stimuli, modelling

Copyright : LS2N 2017 - Mentions Légales - 
 -