Université Toulouse Jean Jaurès / CLLE UMR CNRS 5263 - LAAS UPR CNRS 8001
Date limite de candidature:
31/05/2017
Cette allocation de thèse en
psychologie sera attribuée dans le cadre d'une collaboration pluridisciplinaire
entre deux unités de recherche toulousaines CLLE (http://clle.univ-tlse2.fr/) et le LAAS (https://www.laas.fr/public/)
qui viennent d’obtenir le financement du projet ANR « Action jointe pour l'interaction
homme-robot » (JointAction4HRI). L’objectif de ce projet est de construire
un cadre théorique solide et complet pour aider à conceptualiser l’interaction
entre humain et robot.
Une partie de ce projet vise à
mieux comprendre l'action jointe et l’attention conjointe. Ces deux processus
jouent un rôle essentiel dans le développement psychologique typique et
atypique (par exemple chez les enfants autistes) et leur meilleure connaissance
devrait permettre d'améliorer la compréhension et la modélisation de la
collaboration homme-robot.
Plus précisément, les objectifs de la thèse sont les suivants:
-
Identifier, mettre en œuvre et tester des
éléments qui aident à établir et maintenir une compréhension mutuelle et un « common
ground » entre un humain et un robot au cours d'une tâche collaborative.
Quels signes - «réels» quand ils font partie de l'action ou «simulés» quand ils
devraient être ajoutés pour une meilleure compréhension du robot par l'humain -
doivent être partagés entre le robot et l'humain?
Cet objectif
inclut de la recherche fondamentale et empirique sur le développement des
interactions humaines (interactions enfant-adulte et enfant-enfant) afin de
décrire avec précision les caractéristiques des signaux (par exemple, le
regard, les gestes) liés au développement des capacités à comprendre les
actions et les intentions d’autrui.
-
Mettre en évidence et expérimenter comment un
humain et un robot s'engagent dans une tâche collaborative, initient
l'interaction, la maintiennent et la concluent.
-
Développer et expérimenter une base
d'architecture robotique dédiée à l'interaction homme-robot.
La thèse sera encadrée par
Michèle Guidetti et Hélène Cochet (CLLE, Toulouse) et Rachid Alami (LAAS CNRS,
Toulouse).
Profil du candidat : master en psychologie ou sciences cognitives
Compétences attendues : Psychologie cognitive, psychologie du
développement, sciences cognitives, aptitude à travailler dans un environnement
multidisciplinaire collaboratif
Compétences associées : des connaissances en programmation et/ou
dans le domaine de la robotique sont bienvenues mais non nécessaires
Comment candidater :
Les candidatures doivent être adressées
par e-mail à
-
Michèle Guidetti michele.guidetti@univ-tlse2.fr
-
Hélène Cochet helene.cochet@univ-tlse2.fr
Avant le 31 mai 2017 et doivent inclure:
-
Une lettre de motivation décrivant le parcours
universitaire du candidat, son expérience et sa motivation
-
Un CV complet (nationalité, date de naissance,
niveau d'anglais, expérience antérieure, publications scientifiques
éventuelles)
-
Un résumé du mémoire de master
-
Les copies de diplôme et les relevés de notes
-
Le nom et les coordonnées de deux personnes de
référence
Les candidats retenus après examen de leur dossier seront auditionnés avant la fin du
mois de juin.
_______________________________________________________
PhD Scholarship : Joint Action
for Human-Robot Interaction (Toulouse, France)
Toulouse Jean Jaures University /
CLLE UMR CNRS 5263 – LAAS UPR CNRS 8001
Application deadline: 2017/05/31
One fully funded Ph.D. position in psychology in the framework of a multi-disciplinary collaboration between the CLLE lab (Toulouse) and the LAAS Robotics lab (Toulouse) with the ANR project Joint Action for HRI (JointAction4HRI) which aims to build a solid and comprehensive theoretical framework to help human-robot interaction design.
A part of the project aims to a better
understanding of joint action and joint attention processes. Both have an
essential role in typical and atypical psychological development (e.g. children
with autism) and better understanding them should allow to improve human-robot
collaboration understanding and modeling.
More
precisely, the PhD objectives are the following:
- Identify, implement and test elements which
help to establish and maintain mutual understanding and common ground between a
human and a robot during a collaborative task. What signs – “real” when they
are a part of the action or “simulated” when they should be added for a better understanding
of the robot by the human – must be shared between the robot and the human ?
This
objective includes fundamental and empirical research on the development of
human interactions (child-adult and child-child interactions) in order to
accurately describe the characteristics of the signals (e.g., gaze, gestures)
in relation with the development of the abilities to understand other’s actions
and intentions.
- Highlight
and experiment how a human and a robot commit to a collaborative task, initiate
the interaction, maintain and conclude it.
- Develop
and experiment a basis of a robotic architecture dedicated to human-robot interaction.
This
research It will be supervised by Michèle Guidetti and Hélène Cochet (CLLE,
Toulouse) and Rachid Alami (LAAS CNRS, Toulouse).
Candidate Profile
Master
degree in psychology or cognitive science
Expected skills
Cognitive psychology, developmental psychology,
cognitive sciences, ability to work in a
collaborative multi-disciplinary environment
Associated skills : Knowledge
of programming and / or in the field of robotics are welcome but not necessary
How to apply:
Applications
should be sent via email to
- Michèle Guidetti michele.guidetti@univ-tlse2.fr
- Hélène Cochet helene.cochet@univ-tlse2.fr
- Rachid
Alami rachid.alami@laas.fr
before
2017/05/31 and should include:
- A cover letter describing
background, experience and motivation
- A full CV (nationality, date of
birth, English level, previous experience, scientific publications if any)
- An
abstract of undergraduate project report
- Degree
certificate(s) and transcripts
- Name and
contact details of two referees
Successful candidates will be interviewed
before the end of June.