Home » Évènement » Soutenance de thèse de Yassine EL MANYARI
Chargement Évènements
  • Cet évènement est passé

Soutenance de thèse de Yassine EL MANYARI

22 juin 2023 @ 10 h 00 min - 13 h 00 min

Yassine EL MANYAR, doctorant dans sein de l’équipe IPI, soutiendra sa thèse intitulée :

« Une approche modulaire pour l’apprentissage par imitation générique à l’aide d’une représentation spatio-temporelle des démonstrations basée sur les graphes : Application à l’apprentissage robotique »   /

« A Modular Framework for Generic Imitation Learning using Graph-based Spatio-Temporal Representation of Demonstrations: Application to Robotic Learning »

le 22/06/2023 à 10h00, à Polytech Nantes, Amphi 1 IRESTE

Lien streaming:

Join Zoom Meeting https://univ-nantes-fr.zoom.us/j/83252903601?pwd=V3VqdU1iUWIxV21CT2hMYkluZ1lmUT09 Meeting ID: 832 5290 3601 Passcode: 652314

 

Jury :
– Directeur de thèse : Patrick Le Callet
– Co-encadrant : Laurent Dollé (Ingénieur Chercheur – CEA)
– Rapporteurs : Olivier Buffet (Chargé de recherche – Inria Nancy Grand-Est) ; Alain Dutech (Chargé de recherche – Inria Nancy Grand-Est)
– Autres membres : Mehdi Khamassi (Directeur de recherche – CNRS) ; Sylvain Lamprier (Professeur des Universités – Université d’Angers) ; Silvia Rossi (Associate professor – University of Naples « Federico II ») ; David Filliat (Professeur ENSTA – ENSTA Paris)

 

Résumé : L’apprentissage par renforcement et l’apprentissage par imitation permettent aux robots d’apprendre à effectuer des tâches de manière autonome, sans avoir besoin d’instructions explicites. Cette thèse examine les deux méthodes et les intègre dans un cadre modulaire et générique pour résoudre le problème d’apprentissage par imitation à partir d’observations. L’approche est mise en œuvre en deux étapes, en commençant par apprendre un modèle de représentation qui capture les caractéristiques spatiales et temporelles des démonstrations observées, suivi de l’application d’un algorithme RL prêt à l’emploi avec une fonction de récompense générique pour apprendre la politique d’imitation. Les résultats expérimentaux indiquent que la méthode proposée surpasse les méthodes de pointe et présente des capacités de généralisation prometteuses pour une gamme de tâches de manipulation, dépassant les méthodes génératives dans la plupart des cas.

Mots-clés : Apprentissage par Imitation, Imitation par Observation, Apprentissage par Renforcement, Réseaux Neuronaux Graphiques, Modélisation Séquentielle

—–

Abstract: Reinforcement Learning and Imitation Learning allow robots to learn how to perform tasks independently, without the need for explicit instructions. This thesis examines both methods and integrates them into a modular and generic framework for solving the imitation learning from observation problem. The approach is implemented in two stages, beginning with learning a representation model that captures the spatial and temporal features of observed demonstrations, followed by applying an off-the-shelf RL algorithm with a task-agnostic reward function to learn the imitation policy. Experimental results indicate that the proposed method outperforms state-of-the-art methods and exhibits promising generalisation capabilities across a range of manipulation tasks, surpassing generative methods in most instances.

Keywords: Imitation Learning, Imitation from Observation, Reinforcement Learning, Graph Neural Networks, Sequential modelling

Détails

Date :
22 juin 2023
Heure :
10 h 00 min - 13 h 00 min
Organisateur
LS2N

Catégories d’Évènement:
,
Évènement Tags:

Lieu

Polytech’Nantes
Polytech Nantes, Rue Christian Pauc
Nantes, 44306 France
+ Google Map
Copyright : LS2N 2017 - Mentions Légales - 
 -