fr

Position postdoctorale - Apprentissage robotique mobile avec supervision minimale

Position postdoctorale - Apprentissage robotique mobile avec supervision minimale

France 19 août 2021
LabEx IMobS3

LabEx IMobS3

Université étatique (France), Parcourir ses opportunités similaires

DÉTAILS OPPORTUNITÉ

Récompense totale
0 $
Université étatique
Région
Pays hôte
Date limite
19 août 2021
Niveau d'études
Type d'opportunité
Spécialités
Financement d'opportunité
Non financé
Pays éligibles
Cette opportunité est destiné à tous les pays
Région éligible
Toutes les régions

Dans le cadre du projet de recherche «Systèmes et services innovants pour le transport et la production» IDEX / I-SITE CAP 20-25 (Challenge 2) et le LabEx IMobS 3 , et grâce à un programme de chaire FrenchTech, un post-doctorat est proposé pour des candidats très motivés intéressés par la vision par ordinateur et les robots mobiles.

Matière

Apprentissage des robots mobiles avec une supervision minimale

contexte du projet

Ce postdoc est financé par le programme FrenchTech / I-SITE CAP 20-25 Chaire d'Excellence . Le candidat rejoindra le groupe Image, Systèmes de Perception et Robotique de l'Institut Pascal qui possède une longue expérience dans la vision par ordinateur et les robots mobiles. Cette recherche sera menée dans le cadre d'une collaboration continue entre l'Institut Pascal et le Pr Jochen Triesch du Frankfurt Institute for Advanced Studies (FIAS).

Projet scientifique et objectifs

La combinaison de l'apprentissage par renforcement et des réseaux de neurones profonds a conduit à des résultats impressionnants ces dernières années, comme des ordinateurs surpassant les humains dans certains jeux (Mnih et al., 2015, Silver et al., 2016) et a montré des résultats prometteurs dans tâches robotiques lorsque certains a priori sont disponibles (Lilicrap et al.2015, Finn et al.2016). Cependant, apprendre des tâches complexes pour les robots de manipulation mobiles sans priors forts reste un défi car seuls des comportements très spécifiques peuvent conduire à des récompenses. Découvrir ces comportements en explorant les conséquences de mouvements aléatoires est extrêmement improbable. Cela suggère que le processus d'apprentissage ne peut pas reposer sur une exploration aléatoire mais doit être structuré intelligemment.

Dans une récente thèse de doctorat, nous avons proposé un nouveau cadre d'apprentissage par renforcement profond pour aborder ce problème dans le contexte de l'apprentissage des tâches visuo-motrices (de La Bourdonnaye et al.2017, 2018, 2019). Nous avons envisagé une tâche d'atteindre un objet sur une plate-forme robotique comprenant un système de vision binoculaire actif et un bras de robot. Nous avons démontré l'apprentissage sensori-moteur par étapes en utilisant uniquement une supervision minime. En particulier, aucune cinématique directe / inverse, aucun module visuel pré-formé, aucune connaissance d'expert, ni aucun paramètre d'étalonnage n'ont été utilisés. Néanmoins, en suivant un régime d'apprentissage par étapes, dans lequel les compétences difficiles sont acquises en plus des compétences plus simples, la compétence complexe de toucher a été acquise rapidement. Dans ce projet post-doctorant, nous proposons d'aborder des tâches plus difficiles dans le contexte de la mobilité en intégrant une plateforme de robot mobile.

Tout d'abord, notre cadre de vision binoculaire sera adapté pour faire face à différents arrière-plans et scènes qui surviennent lorsque le robot est en mouvement. Deuxièmement, en utilisant des degrés de liberté supplémentaires, le robot apprendra de manière autonome à s'approcher des objets afin de pouvoir les toucher et les manipuler. Dans nos travaux précédents, nous avons déjà montré comment le robot peut apprendre de manière autonome si un objet est à portée de main. Désormais, le robot apprendra également à se déplacer vers l'objet afin qu'il puisse être touché et manipulé de manière fiable. Dans la dernière étape, le robot apprendra de manière autonome à suivre des objets (ou des personnes) à travers l'environnement. Nous nous limiterons d'abord aux simulations. Et envisagez des expériences de robots réels en fonction des progrès et des résultats.

Conditions

Les références

De La Bourdonnaye, F., Teulière, C., Triesch, J., et Chateau, T. (2019). À portée de main? Apprendre à toucher des objets sans modèles préalables, dans ICDL-EpiRob.

De La Bourdonnaye, F., Teulière, C., Triesch, J., et Chateau, T. (2018). Apprentissage par étapes de l'atteinte en utilisant peu de connaissances préalables. Frontiers in Robotics and AI , 5 .

De La Bourdonnaye, F., Teulière, C., Chateau, T., & Triesch, J. (2017, mai). Apprentissage des fixations binoculaires à l'aide de la détection d'anomalies avec apprentissage par renforcement profond. Dans IJCNN 2017 (pp.760-767).

Mnih, V., Kavukcuoglu, K., Silver, D., Rusu, AA, Veness, J., Bellemare, MG, ... et Petersen, S. (2015). Contrôle au niveau humain grâce à un apprentissage par renforcement profond. Nature , 518 (7540), 529.

Silver, D., Huang, A., Maddison, CJ, Guez, A., Sifre, L., Van Den Driessche, G., ... et Dieleman, S. (2016). Maîtriser le jeu de Go avec des réseaux de neurones profonds et une recherche arborescente. Nature , 529 (7587).

Lillicrap, TP, Hunt, JJ, Pritzel, A., Heess, N., Erez, T., Tassa, Y., ... et Wierstra, D. (2015). Contrôle continu avec apprentissage par renforcement profond. préimpression arXiv arXiv: 1509.02971.

Finn, C., Tan, XY, Duan, Y., Darrell, T., Levine, S., et Abbeel, P. (2016, mai). Auto-encodeurs spatiaux profonds pour l'apprentissage visuomoteur. Dans ICRA 2016.

Information et contact

Conseillers :

- Prof. Jochen Triesch (Institut d'études avancées de Francfort)

- Dr Céline Teulière (Institut Pascal, UCA)

Durée : Contrat d'un an

Date de début : juin 2021

Groupe de recherche : Institut Pascal

Université : Université Clermont Auvergne (UCA) - Clermont Ferrand - France

Contact : celine.teuliere@uca.fr

Autres organisations


Ajouter votre question

Choisissez votre destination d'études


Choisissez le pays que vous souhaitez le visiter pour étudier gratuitement, travailler ou faire du bénévolat

Vous trouverez aussi