Home » Pôle de recherche


SIEL - Signaux, Images, Ergonomie et Langues

Le pôle « Signal, Images, Ergonomie, Langues » traite des disciplines qui concernent les signaux, images, sons, langues, écrits, mesures physiologiques et les facteurs humains.


Responsable : Diana MATEUS
Equipes : IPI, PACCE, SIMS, TALN


Le pôle SIEL regroupe les activités du laboratoire qui concernent les signaux, images, sons, langues, écrits, mesures physiologiques, et les facteurs humains. Deux convergences fortes entre les équipes assurent la cohérence du pôle.

La première convergence est liée au traitement de signaux et de données dans des contextes applicatifs spécifiques, par le développement de théories et méthodes en traitement du signal et de l’image (au sens large), des langues et de l’écrit. Les équipes IPI, SIMS et TALN sont utilisateurs/concepteurs d’outils d’analyse de données, de décision, de sécurité ou de compression et mettent en œuvre des méthodes de traitement dédiées aux données particulières qu’elles traitent (proches du capteur pour SIMS, image/vidéo/écrit pour IPI, données langagières pour TALN). Les défis liés aux outils et méthodes concernent : des développements relevant de l’imagerie computationnelle, à l’interface avec les sciences de l’observation, de l’infiniment grand à l’infiniment petit, avec des applications proches du capteur, en contrôle non destructif, en imagerie médicale et biologique, en télédétection ; des techniques d’apprentissage et de reconnaissance pour les signaux spécifiques que sont les signaux sonores, l’écrit, le geste ou les langues naturelles ; des méthodes pour la compression, l’archivage et la transmission des signaux multimédias et perceptuellement optimisées quand ces signaux sont destinés à être utilisés par des humains.

Les équipes IPI, SIMS et TALN traitent donc des données et signaux notamment produits par et/ou pour l’homme, que ceux-ci soient visuels, sonores, internes au corps (muscles, cerveau), ou encore liés à la langue (écriture et textes). On retrouve ici une des caractéristiques qui illustre la seconde convergence du pôle, relative aux facteurs humains. Le terme est employé ici au sens large, puisqu’il recouvre des travaux menés par les équipes IPI SIMS, PACCE et une partie de DUKe dans les domaines des interactions homme-machine, de l’ergonomie cognitive et, de façon plus générale, de la conception et de l’évaluation de produits et de systèmes interactifs numériques en mettant l’humain au centre de la réflexion. Trois types d’activités et de défis pluridisciplinaires sont principalement considérés. Tout d’abord la conception de systèmes interactifs et coopératifs, avec une démarche centrée sur l’utilisateur. L’évaluation de systèmes est ensuite une activité importante des équipes du pôle, que ces systèmes soient propres ou conçus par des partenaires extérieurs : on parlera ici d’ergonomie cognitive, d’expérience utilisateur, d’approche perceptuelle pour la qualité d’expérience, d’analyse des usages. Une dernière activité liée à la psychologie cognitive, compétence spécifique à l’équipe PACCE, complète et renforce théoriquement et expérimentalement la précédente en visant à l’analyse et à la modélisation des processus sensorimoteurs et cognitifs sous-jacents à l’activité. Plusieurs plates-formes de captation et d’analyse expérimentales sont par ailleurs disponibles dans les équipes du pôle qui partagent aussi des approches méthodologiques expérimentales similaires ou complémentaires.

Le pôle a ainsi vocation à regrouper des compétences dans les disciplines relevant des sections 7 (sur ses périmètres traitements, images, contenus, interactions, signaux et langues) et 26 du CNRS (Cerveau, cognition et comportement). On retrouve des enseignants-chercheurs des CNU 61, 27 mais aussi 60 (sur des aspects qui concernent l’ingénierie de conception), 16 (Psychologie) et 55 (Ophtalmologie). Les croisements disciplinaires sont donc au cœur des travaux des équipes du pôle.

Le pôle SIEL est directement concerné par quatre des thèmes transverses du laboratoire :

  • Sciences du vivant pour ses travaux dans le domaine de la santé en traitement des signaux et des images biomédicaux, en analyse de documents médicaux, en analyse de l’impact de la technologie sur la qualité diagnostic, en médecine personnalisée, en conception d’outils pour les salles d’opération, en remédiation cognitive pour les populations fragilisées, en attention visuelle sur des populations atteintes de déficiences visuelles.
  • Création, Culture et Société numériques sur son apport aux humanités numériques, à l’analyse des usages du numérique, à la conception d’interactions et de couplages innovants.
  • Véhicules et mobilités en ce qui concerne la modélisation et le monitoring du conducteur, ainsi que la coopération entre conducteur et systèmes automatisés, y compris le véhicule autonome.
  • L’entreprise du futur pour les problématiques touchant à l’assistance à l’opérateur, la cobotique, le contrôle non destructif, et la conception des systèmes de réalité augmentée et virtuelle adaptés aux besoins de l’entreprise, les systèmes de rendus et de simulations ergonomiques.

Il s’inscrit au niveau régional dans la politique de deux RFI :

  • Atlanstic2020, notamment en lien avec l’un de ses cinq champs d’excellence « Les contenus et les interactions » (perception, usages, traitement de la langue et de la parole, multilinguisme et multi-modalité, affective computing, réalité virtuelle et augmentée).
  • le RFI Ouest Industries Créatives, notamment sur deux de ses quatre axes de recherche « Interaction de l’humain avec les objets numériques dans le domaine de la culture et de la création » et « Mutations des outils et des savoir-faire dans le domaine de la culture et de la création en régime numérique ».

Parmi les partenaires privilégiés au niveau local, on peut citer les acteurs de la santé (CHU, Cliniques) pour les axes imagerie, gérontologie, douleur, ophtalmologie ; l’IRT Jules Verne ; le futur Pôle Universitaire interdisciplinaire sur les cultures numériques et les industries créatives associées ; l’IFSTTAR.




Copyright : LS2N 2017 - Mentions Légales - 
 -