Offre de stage Master 2, équipes IRA2 et SIAM IBISC, projet ANR eMC2 : « Suivi de la direction du regard pendant la conduite de véhicule dans un environnement virtuel » (English version is following)

/, Equipe SIAM, Offre Doctorat/Post-Doctorat/Stage, Plate-forme EVR@, Plate-forme Robotique 2D et 3D, Plate-formes, Recherche, Recrutement/Offre de stage Master 2, équipes IRA2 et SIAM IBISC, projet ANR eMC2 : « Suivi de la direction du regard pendant la conduite de véhicule dans un environnement virtuel » (English version is following)

Offre de stage Master 2, équipes IRA2 et SIAM IBISC, projet ANR eMC2 : « Suivi de la direction du regard pendant la conduite de véhicule dans un environnement virtuel » (English version is following)

Sujet : « Suivi de la direction du regard pendant la conduite de véhicule dans un environnement virtuel »

Mots clés : Conduite Moto, Interaction-Homme-Machine, Réalité Virtuelle, Eye-tracking, machine Learning

Contexte

Ce stage s’inscrit dans les domaines de la réalité virtuelle (RV) et de l’apprentissage de conduite. Il vise à concevoir un prototype d’un environnement virtuel permettant de caractériser et d’évaluer le comportement oculaire d’un conducteur lors de situations à risque. Il sera réalisé dans le cadre du projet ANR eMC2.

Problématique

La vision humaine est capitale pour une conduite sûre. Les conducteurs scrutent en permanence l’environnement pour suivre une direction souhaitée et pour éviter les véhicules et les dangers. Aussi, l’impact de la direction du regard et l’étendu du champ visuel sur la performance de conduite a été l’objet de plusieurs travaux de recherche. Ces études ont montré que ces facteurs impactent la variabilité de la direction du véhicule et son positionnement sur la chaussée. D’autres études ont examiné la relation entre la déficience visuelle et la conduite. Ces travaux concernent exclusivement les véhicules à quatre-roues. À ce jour, aucun travail n’a abordé l’impact de la direction du regard sur la conduite moto. Le projet de recherche vise à analyser les performances de la conduite des véhicules à deux-roues motorisés (V2RM), en termes de variabilité de la trajectoire, en fonction de la direction du regard (mouvement oculaire). L’objectif du présent stage est de concevoir et de développer un premier prototype d’un environnement virtuel permettant l’évaluation du comportement oculaire des conducteurs d’un V2RM en situation de simulation. L’environnement virtuel devra avoir les niveaux de fidélité d’interactions adéquats afin de permettre l’immersion des utilisateurs. L’hypothèse est que cette immersion leur permettra d’avoir un comportement oculaire similaire à une situation réelle. Ceci facilitera ainsi l’analyse et une comparaison de leur comportement pendant la conduite d’un V2RM en fonction de la direction de leur regard pour en extraire un modèle. Les mesures seront réalisées sur des motards avec des niveaux d’expertise différents (novice, confirmé et expert). Le scénario typique que l’on prendra comme base de comparaison est celui de la prise de virage (avec ou sans trafic). Des méthodes d’analyse de données basées sur les techniques d’intelligence artificielle seront utilisées pour construire le modèle en question.

Travail à réaliser

1. Réaliser une étude de l’état de l’art du domaine,
2. Concevoir et développer un environnement virtuel immersif permettant d’analyser la direction du
regard des utilisateurs pendant la conduite d’un V2RM virtuel,
3. Réaliser une étude expérimentale préliminaire pour comparer les données basées sur la direction du
regard de différents conducteurs selon leur niveau d’expertise,
4. Proposer un modèle qui permettrait éventuellement de mettre en lien le comportement oculaire du
conducteur et son niveau d’expertise,
5. Publier les résultats dans une conférence nationale ou internationale.

Compétences et qualités requises

Niveau M2 ou dernière année en école d’Ingénieur, Bonne maîtrise de la conception/programmation (si possible Unity/C#), connaissance des interactions 3D, de la réalité virtuelle, de la méthodologie de conception centrée utilisateur, et des méthodes d’analyse de données, avoir un goût pour la recherche, le travail d’équipe et les échanges pluridisciplinaires.

Conditions du stage

Le stage se déroulera au laboratoire IBISC. Des plateformes expérimentales (plateforme EVR@, plateforme Véhicules et Drones) seront mises à disposition avec différents dispositifs et logiciels nécessaires à la réalisation du projet (oculomètres, casques de réalité virtuelle, motos, logiciel d’analyse de données oculaires…). Le stagiaire sera en interaction avec des doctorants et d’autres stagiaires du laboratoire.
Durée : 6 mois (avril, selon disponibilités) Gratification minimale légale
Une prolongation en thèse financée par un contrat doctoral est possible pour un(e) excellent(e) candidat(e).

Contact

Merci de faire parvenir une lettre de motivation, un CV, les relevés de notes du Master 1 et Master 2, et deux lettres de recommandations recherche à :

  • Amine CHELLALI (MCF Univ. Évry, IBISC équipe IRA2) – amineDOTchellaliATunivDOTevryDOTfr

Laboratoire IBISC EA 4526 – Équipe IRA2, Équipe SIAM – entrée par le 36 Rue du Pelvoux 91080 ÉVRY-COURCOURONNES

Title: Gaze tracking during vehicles driving in a virtual environment

Keywords: Driving simulation, Human Computer Interaction, Virtual Reality, Eye tracking, machine learning

Context

This internship is in the fields of virtual reality (VR) and training drivers. It aims to design a prototype of a virtual environment that will serve to characterize and evaluate the ocular behavior of a driver according to his/her profile during risky situations. This is part of the ANR eMC2 research project.

Research problematic

Human vision is crucial for safe driving. Drivers continually scan the environment to follow a desired direction and to avoid vehicles and obstacles. Therefore, the impact of the gaze direction and the extent of the visual field on driving performance has been the subject of several research works. These studies have shown that these factors impact the variability of the vehicle’s steering and its position on the roadway. Other studies have examined the relationship between visual impairment and driving. These works were focused mainly on driving four-wheeled vehicles. To the best of our knowledge, no work has addressed the impact of gaze direction on driving motorcycles. The research project aims to analyze the driving performance of motorized two-wheeled vehicles (V2RM), in terms of trajectory variability, according to the biker’s gaze direction (eye movements). The objective of this internship is to design and develop a first prototype of a virtual environment allowing the evaluation of the ocular behavior of the biker. The virtual environment will need to have the appropriate levels of interaction fidelity in order to allow users to be correctly immersed. Our hypothesis is that this immersion will allowthem to have and ocular behavior similar to a real-world situation. This will facilitate the analysis and the comparison of their behavior while driving a V2RM according to the direction of their gaze to extract a descriptive model. Measurements will be made on bikers with different levels of expertise (novice, confirmed and expert). The typical scenario that we will use as a basis for comparison is turn-taking (with or without traffic). Data analysis methods based on artificial intelligence and machine learning techniques will be used to build the desired model.

Work description

1. Conducting a literature review of the research field,
2. Designing and developing an immersive virtual environment to analyze users’ gaze direction while driving a virtual V2RM,
3. Performing a preliminary user study on the system to compare gaze direction data collected from
different bikers according to their level of expertise,
4. Proposing a model that could link the ocular behavior of the biker and his level of expertise,
5. Publishing the results in a national or an international conference.

Qualifications

Master 2 or last year in an engineering school, good experience with HCI, UI design and programming (Unity 3D/C#), knowledge in 3D interactions, virtual reality, user-centered design, data analysis methods, high interest in research, teamwork and multidisciplinary work.
Work conditions The work will be done within the IBISC Lab. Experimental platform (EVR@, Drones&Vehicles) will be available with different devices and software necessary for the realization of the project(oculometers, virtual reality headsets, motorcycles, software for ocular data analysis…). The trainee will be in constant interaction with the team’s PhD students and other trainees.

Duration: 6 months (starting April)
Compensation: minimum legal compensation
An application for a funded PhD thesis is possible for an excellent candidate.

References

[1] L. Nehaoua, H. Arioui, N. Séguy et S. Mammar (2013) Dynamic modeling of a two-wheeled vehicle: Jourdain formalism, Vehicle System Dynamics: International Journal of Vehicle Mechanics and Mobility, February 2013, volume 51, issue 5, pp. 648-670.

[2] H Dabladji, D Ichalal, H. Arioui et S. Mammar (2016) Unknown-input observer design for motorcycle lateral dynamics: TS approach, Control Engineering Practice, September 2016, volume 25, issue 3, pages 12 – 26.

[3] H Dabladji, D Ichalal, H. Arioui et S. Mammar (2017) Toward a Robust Motorcycle Braking, IEEE Transactions on Control Systems Technology, Mai 2017, volume 25, issue 3, pp. 1052 – 1059.

[4] H. Arioui, L. Nehaoua, S. Hima, N. Séguy and S. Espié, Mechatronics, Design and Modeling of a Motorcycle Riding Simulator‘, IEEE/ASME Transactions on Mechatronics. October 2010, volume 15, issue 5, pp. 805-818.

[5] Mentis, H.M., Chellali, A., Schwaitzberg, S.D. (2014) Learning to See the Body: Supporting Instructional Practices in Laparoscopic Surgical Procedures. In the proceedings of the ACM CHI Conference on Human Factors in Computing Systems, CHI 2014, Toronto, Canada, pp. 2113-2122.

[6] Chellali, H., Mentis, Miller, A., et al. (2016) Achieving Interface and Environment Fidelity in the Virtual Basic
Laparoscopic Surgical Trainer. International Journal of Human Computer Studies, issue 96, pp. 22–37, Elsevier.

[7] Bouyer, G., Chellali, A., Lecuyer, A. (2017) Inducing Self-Motion Sensations in Driving Simulators using ForceFeedback and Haptic Motion, In the proceedings of the IEEE Virtual Reality Conference, VR2017, Los Angeles, CA, USA, pp. 84-90.

WP to LinkedIn Auto Publish Powered By : XYZScripts.com