Home » évènement (Page 2)

Soutenance de thèse de Damien SIX (équipe ARMEN)

Damien Six, doctorant au sein de l’équipe ARMEN, soutiendra sa thèse intitulée « Conception et commande de robots parallèles volants » / « Design and control of flying parallel robots »
mardi 4 décembre2018  à partir de 10h45,  dans l’amphi du Bâtiment S sur le site de Centrale de Nantes.

Jury : Nicolas Andreff (Professeur des universités – AS2M), Pascal Morin (Professeur des universités – ISIR), Jean-Pierre Merlet (Directeur de recherche – INRIA), Anibal Ollero (Professeur – Université de Séville), Isabelle Fantoni (Directrice de recherche – LS2N), Sébastien Briot (Directeur de thèse – Chargé de recherche – LS2N), Philippe Martinet (Directeur de recherche – INRIA), Abdelhamid Chriette (Maître de conférence – ECN)

Résumé :
La manipulation aérienne est l’un des défis de la robotique au cours de cette dernière décennie. L’un des freins au développement des manipulateurs aériens est l’autonomie limitée des drones, réduite par la charge et la consommation électrique du manipulateur embarqué. Une solution pour dépasser cette limite passe par la collaboration de plusieurs drones dans une tâche de manipulation.
Cette thèse porte sur la conception et la commande d’un nouveau type de véhicule autonome aérien destiné à la manipulation. Le concept consiste à faire collaborer plusieurs drones, en particulier des quadricoptères, au travers d’une architecture passive polyarticulée. Le robot ainsi obtenu est une fusion entre l’architecture passive d’un robot parallèle et plusieurs drones.
L’étude du modèle dynamique de cette classe de robots met en avant un découplage dans le modèle dynamique. Ce découplage permet la conception d’un contrôleur en cascade qui assure la stabilisation et le suivi de trajectoire pour ces robots.
Deux cas d’étude sont ensuite déclinés dans cette thèse : un robot parallèle volant à deux drones et un robot parallèle volant à trois drones. Pour ces deux robots, une simulation numérique est effectuée afin de valider le fonctionnement du contrôleur. Ces simulations ont également permis de valider la possibilité de modifier la configuration de l’architecture passive en vol.
Les travaux ont été portés avec succès jusqu’au stade expérimental pour le robot volant à deux drones.

**********

Abstract:
Aerial manipulation is one of the challenges of robotics over the last decade. One of the constraints on the development of aerial manipulators is the limited autonomy of drones, reduced by the load and energy consumption of the on-board manipulator. One way to overcome this limit is to have several drones collaborate on a manipulation task.
This thesis deals with the design and control of a new type of autonomous aerial vehicle for manipulation tasks. The concept consists in the collaboration of several drones, in particular quadrotors, through a polyarticulated passive architecture. The robot thus obtained is a fusion between the passive architecture of a parallel robot and several drones. The study of the dynamic model of this robot class highlights a decoupling in the dynamic model. This decoupling allows the design of a cascade control law. This controller provides stabilization and trajectory tracking for these robots.
Two study cases are then presented in this thesis: a flying parallel robot with two drones and a flying parallel robot with three drones. For these two robots, a numerical simulation is performed to validate the controller performances. These simulations also allowed to validate the reconfiguration abilities of passive architecture in flight. The work was successfully carried to the experimental stage for the flying robot with two drones.

Véhicules autonomes du LS2N : nouvelle vidéo en ligne !

Le service communication de Centrale Nantes a réalisé une nouvelle vidéo sur la plateforme de véhicules autonomes du LS2N à l’aide de drones. Vous pouvez retrouver cette vidéo spectaculaire sur la chaîne Youtube du labo.

La flotte est composée de 3voitures : une Renault Fluence ZE équipée de capteurs mais non convertie au kit de robotisation et 2Renault ZOE ZE converties au kit de robotisation développé par le LS2N et qui permet de contrôler la vitesse, la direction, le freinage et le changement de vitesse. Les ZOE peuvent entrer et sortir d’un stationnement, naviguer entre un point de départ et un point d’arrivée de manière autonome. Les trois voitures peuvent également collaborer en peloton en partageant leur statut et en contrôlant l’interdépendance de la voiture, ainsi que la longueur totale du peloton. Les deux ZOE peuvent être contrôlées à partir de la voiture de tête, qui est pilotée manuellement, en les envoyant sur une place de stationnement ou en les retirant et en rejoignant le peloton. La localisation des véhicules se fait par carte, le GPS n’est pas nécessaire. La zone de travail peut être virtuellement illimitée car la carte est composée à tout moment des informations environnantes, ce qui limite la mémoire. Ces plates-formes sont actuellement utilisées comme plates-formes expérimentales dans les techniques de localisation, de perception et de conduite autonome dans plusieurs projets, ainsi que pour la collecte de données dans les travaux de thèse pour les étudiants. Ces voitures sont en perpétuelle évolution, car de nouvelles fonctionnalités sont régulièrement ajoutées.
****
The fleet is composed of three cars: one Renault Fluence ZE which has been equipped with sensors but not converted into drive by wire and two Renault ZOE ZE that have been converted using the drive by wire kit developed at LS2N which allows controlling the speed, steering, brake and gear shift of the car. The ZOEs can park, unpark, as well as, navigate following a path between a departure and a destination in an autonomous way. The three cars can also collaborate together in platoon by sharing their status and controlling the car’s interdistance, as well as the total length of the platoon. The two ZOEs can be controlled from the leader car, which is driven manually, by sending them to a parking spot or taking the out from it and join to the platoon. The localization of the vehicles is done by map localization, no GPS needed. The working area can be virtually unlimited as the map is only composed by surrounding information at any time, keeping the memory under limits. These platform are currently used as experimental platforms in localization, perception and self driving techniques in several projects, as well as for data gathering in thesis work for students. The development with these cars is always under development and new functionalities are continuously being added.

Innovation Day : présentation des véhicules autonomes du LS2N (équipe ARMEN)

On 14 June 2018, the LS2N has participated in the « Innovation Day » held at the AIRBUS plant in Saint-Nazaire.

The lab presented one of its self-driving cars to the public. Event attendees were invited to test the car, which autonomously drove them along a predefined route. Meanwhile, they could ask questions to the research engineers who developed the vehicle. The car successfully drove passengers all day in the industrial complex, from 9:00 AM to 6:00 PM, evolving among the traffic and people. In many occasions, it showed its ability to adapt its speed in order to follow slow aircraft transportation platforms, with which it shared the road.

For LS2N, it was a great opportunity to show the public their progress in autonomous navigation.

See the video on Youtube.

Soutenance de thèse de Bogdan KHOMUTENKO (équipe ARMEN)

Bogdan Khomutenko, doctorant au sein de l’équipe ARMEN, soutiendra sa thèse intitulée « Contribution à la perception visuelle basée cameras grand angle pour la robotique mobile et les véhicules autonomes »

vendredi 15 juin 2018 à partir de 10h, dans l’amphi du bâtiment S à Centrale Nantes.

Jury :

Rapporteurs : M. Patrick RIVES , Directeur de Recherche, INRIA Sophia Antipolis ; M. Pascal VASSEUR , Professeur, l’IUT de Rouen
Examinateurs: M. Eric MARCHAND , Professeur, Université de Rennes 1 ; Mme Claire DUNE , Maître de conférences, Université du sud-Toulon

Directeur de thèse : M. Philippe MARTINET , Professeur, Centrale Nantes ; Co-encadrant de thèse : M. Gaëtan GARCIA , Maître de conférences, Centrale Nantes

Résumé :

Ce travail de thèse s’inscrit dans le domaine de la vision par ordinateur et de la navigation autonome pour les robot mobiles. Le sujet principal est l’utilisation d’optiques grand angle pour la perception visuelle.

La première problématique traitée est la modélisation géométrique des cameras fisheye. Le but est de rendre leur utilisation aussi simple que celle des cameras classiques trou d’épingle. Les modèles existants manquent de précision ou bien sont trop compliqués pour que l’on puisse analyser leurs propriétés géométriques analytiquement. Nous proposons un nouveau modèle de projection basé sur le Modèle Unifié, aussi connu comme Modèle Sphérique. En rajoutant un paramètre intrinsèque, on augmente l’expressivité du modèle et évite le recours à une fonction de distorsion supplémentaire. Les expériences effectuées ont démontré la capacité du modèle à approcher, avec une grande précision, une large gamme d’objectifs fisheye différents. Le concept de surface de projection, proposé dans ce travail, nous a permis de trouver une inverse analytique de ce modèle ainsi que d’établir les équations de projections de droites.

Une boîte à outils d’étalonnage, flexible et efficace, conçue pour les systèmes multi-cameras, a été développée. Elle contient un nouveau détecteur de mire d’étalonnage, qui
est automatique, a une précision sub-pixelique, et qui est plus rapide que le détecteur fourni avec OpenCV. Une méthode de calcul de trajectoires optimales pour l’étalonnage extrinsèque de robots mobiles a été développée et testée. Son aptitude à réduire l’impact du bruit sur la précision a été démontré sur des données synthétiques. Elle a été utilisée pour étalonner un système complet Camera-Odométrie, qui a été employé pour tester les algorithmes de localisation.

La problématique suivante était de calculer la correspondance stéréo directement dans l’espace d’images fisheye, tout en évitant un filtrage additionnel et la rectification d’images.
Cela a été possible grâce à la géométrie épipolaire des systèmes stéréos fisheye, donnée par le modèle proposé. Une fois les équations des courbes épipolaires calculées, l’image est
échantillonnée, pixel par pixel, le long de celles-ci afin de trouver le coût de correspondance. Cette approche nous permet d’employer l’algorithme de Semi-Global Matching et d’obtenir une reconstruction 3D précise. Un certain nombre de techniques, qui améliorent la qualité de correspondance, ont été proposées. De nombreux essais avec des données synthétiques ainsi que réelles ont montré que l’algorithme est capable de reconstruire des objets planaires texturés avec une grande précision.

La localisation visuelle est la dernière problématique traitée dans notre travail. Une nouvelle méthode de triangulation analytique nous permet de réduire le nombre de paramètres
d’optimisation dans le problème d’odométrie visuelle d’une façon significative. Une méthode de localisation visuelle directe basée caméras fisheye, qui emploie aussi d’autres sources d’information de localisation, comme une centrale inertielle ou l’odométrie des roues, a été développée. Des essais avec des données synthétiques montrent sa précision. L’utilisation de l’Information Mutuelle en tant que mesure de similarité permet au système de se relocaliser avec des données réelles dans une carte construite quelques jours auparavant malgré des changements dans l’environnement et l’éclairage. Cette méthode se montre robuste par rapport aux objets mobiles, tels que voitures en marche et piétons.

Mots-clés : fisheye, étalonnage, stéréo, reconstruction 3D, localisation directe

*********

Title: Contribution to visual perception based on wide angle cameras for mobile robotics and autonomous vehicles

Abstract:
This work lies in the domain of computer vision and autonomous navigation for mobile robots. The principal subject is the use of fisheye cameras for visual perception.
The first research question covered by this work is geometric modeling of fisheye cameras. The goal is to make fisheye cameras as easy to use as classical pinhole cameras. Existing models are either not precise enough or too complicated for analytical analysis of their geometric properties. We propose a novel projection model based on the Unified Camera Model, also known as the Spherical Model. Adding one more projection parameter increases the model expressiveness and makes additional distortion mappings unnecessary. As experiments show, this model accurately approximates a large variety of different fisheye lenses. The notion of projection surface, proposed in this work, allowed us to find an analytic inverse of the model and implicit equations of straight line projections. An efficient and flexible calibration toolbox for multi-camera systems has been developed.
It has a novel fully-automated subpixel detector of calibration boards, which is significantly faster than that of OpenCV. A method of calculating optimal trajectories for extrinsic calibration of mobile robots has been proposed and tested. Its effectiveness to reduce the noise impact has been demonstrated on simulated data. It has been applied to calibrate a complete system Camera-Odometry, which has been used for localization experiments. The next research question is how to compute direct stereo correspondence between two
fisheye images. The main goal was to avoid additional filtering such as undistortion and rectification mappings. It was possible thanks to epipolar geometry of fisheye stereo systems provided by the developed model. After computing epipolar curve equations, we sample image pixelwise along them in order to compute the correspondence cost. This approach allows us to apply the Semi-Global Matching algorithm to regularize the computed disparity map and get a more accurate reconstruction. We proposed several techniques of computing the correspondence cost, which improve the correspondence quality. The proposed stereo algorithm has been tested on both synthetic and real data, using the ground truth for validation purposes. Experiments show that the reconstruction of planar textured objects is accurate and precise, which validates the geometric model behind.
The last research question is visual localization. A novel closed-form triangulation method allows us to significantly reduce the number of unknowns in the visual odometry problem. Fisheye cameras have been combined with direct visual localization and additional sources of localization information, such as IMU and wheel odometry. This method was tested on simulated data and showed high precision. Using Mutual Information as similarity measure for image registration allowed the system to relocalize itself using real data in a map constructed a few days earlier with some changes in the environment and in lighting conditions. The method demonstrated robustness with respect to moving objects, such as cars and pedestrians.

Keywords: fisheye, calibration, stereo, 3D reconstruction, direct localization

Clôture du projet ASIMOV (équipe ARMEN) : vidéo du Cobot mobile pour des opérations d’assemblage aéronautique en action

Le projet Asimov 2013-2017 (du nom d’Isaac Asimov, écrivain de science-fiction et inventeur des trois lois de la robotique), visait à développer un cobot capable de réaliser des opérations d’assemblage à l’intérieur d’une structure aéronautique.
« Robot collaboratif, Asimov a été élaboré pour travailler main dans la main avec les opérateurs lors de l’assemblage de l’Airbus A380. Grâce à sa base mobile automatique, il se déplace au sein de l’avion de façon autonome. Il se positionne au bon endroit et imprime avec grande précision, sur la structure grâce à son bras polyarticulé, la forme et la référence de la pièce qui sera montée par un opérateur.
Outre le challenge du développement de robots industriels d’un nouveau type capables de travailler en bonne intelligence aux côtés d’opérateurs, ce projet résout, pour Airbus, les problèmes de précision, voire d’erreurs, dans l’impression de trous pour le montage de certains éléments d’aérostructures de l’A380. Automatiser leur marquage leur permet également d’augmenter leurs cadences de production. » (source : BA Systems)

Voir la vidéo de démonstration sur la chaîne Youtube de l’IRT Jules Verne.

Partenaires :

Le projet RobEcolo une nouvelle fois récompensé

Le projet RobEcolo, labellisé  par le pôle EMC2 depuis 2015, a de nouveau été récompensé. En effet, Lila Kaci (équipe ARMEN) a remporté le prix du meilleur poster (titre : Conception et Commande d’un Robot Industriel en Bois) lors des 6èmes journées scientifiques du GDR Sciences du Bois qui ont eu lieu à l’Ecole Supérieure du Bois de Nantes du 21 au 23 novembre 2017.

Lila Kaci et Damien Six (équipe ARMEN) récompensés aux JJCR 2017

Deux doctorants de l’équipe ont été récompensés durant les Journées des Jeunes Chercheurs en Robotique (JJCR 2017) les 6 et 7 novembre 2017 à Bayonne.

Trois prix étaient distribués : meilleure présentation orale, meilleure présentation « Ma Thèse en 180 secondes », et meilleur poster.
Les doctorants distingués sont :

  • Lila Kaci, Prix de la meilleure présentation orale, pour la présentation « Design of an Industrial Wooden Robot » (projet RobEcolo). Voir la présentation en ligne (pdf)
  • Damien Six, Prix de la meilleure présentation « Ma Thèse en 180 secondes », pour la présentation « Conception et commande d’un robot parallèle volant ». Voir l’affiche (pdf)

Félicitations à eux !

Copyright : LS2N 2017 - Mentions Légales - 
 -