Farida ZEHRAOUI soutient son Habilitation à Diriger les Recherches le vendredi 23 février 2024 : « Interprétabilité des Modèles d’Apprentissage Profond en Médecine Personnalisée » (please find the English version below)

/, Equipe AROBAS, Evénements, Recherche, Soutenance de HDR/Farida ZEHRAOUI soutient son Habilitation à Diriger les Recherches le vendredi 23 février 2024 : « Interprétabilité des Modèles d’Apprentissage Profond en Médecine Personnalisée » (please find the English version below)

Farida ZEHRAOUI soutient son Habilitation à Diriger les Recherches le vendredi 23 février 2024 : « Interprétabilité des Modèles d’Apprentissage Profond en Médecine Personnalisée » (please find the English version below)

Farida ZEHRAOUI soutient son Habilitation à Diriger les Recherches le vendredi 23 février 2024  à 14h au bâtiment IBGBI, petit amphithéâtre

Titre:  Interprétabilité des Modèles d’Apprentissage Profond en Médecine Personnalisée

Résumé

Dans le domaine de la santé, les techniques d’apprentissage automatique ont démontré un grand potentiel dans l’amélioration des diagnostics, des stratégies de traitement et des soins fournis aux patients.

L’apprentissage profond (AP) a particulièrement montré des résultats impressionnants dans diverses applications en lien avec la santé, notamment dans l’analyse et la reconnaissance d’images médicales.

Cependant, ces modèles sont considérés comme des systèmes « boîte noire ». Dans le domaine de la santé, où l’interprétabilité est cruciale, il est impératif de comprendre comment un modèle aboutit à un diagnostic ou à une recommandation de traitement. Ceci permet de garantir la confiance et l’adoption de ces modèles. Pour relever ce défi, nous avons proposé plusieurs modèles d’apprentissage profond et hybrides qui sont interprétables par construction.

Nos approches se basent sur les stratégies suivantes :

 – Intégration des graphes de connaissances dans l’architecture des modèles d’apprentissage profond, en fournissant des explications basées sur des concepts.

– Combinaison de l’apprentissage profond supervisé avec un modèle interprétable non supervisé pour produire des explications basées sur des prototypes.

– Approches hybrides combinant les approches symboliques de l’IA et l’AP pour garantir des explications à base de règles.

L’interpretabilité des modèles vise à installer la confiance dans les prédictions des modèles, garantissant une utilisation bénéfique dans le domaine de la médecine personnalisée.

Composition du jury de hdr/Composition of the hdr jury

Membre du jury Titre Lieu d’exercice Fonction dans le jury
Younès BENNANI Professeur des universités Université Sorbonne-Paris-Nord Examinateur
Cécile CAPONI Professeur des universités Université Aix-Marseille Rapporteure
Antoine CORNUEJOLS Professeur des universités AgroParisTech Examinateur
Laurent HEUTTE Professeur des Universités Université de Rouen Examinateur
Pascale KUNTZ-COSPEREC Professeure des Universités École Polytechnique de l’Université de Nantes Rapporteure
Cédric WEMMERT Professeur des Universités Université de Strasbourg Rapporteur

Farida ZEHRAOUI defends her Habilitation à Diriger les Recherches on Friday, February 23, 2024 at 2:00 p.m. at IBGBI petit amphithéâtre. 

Title: Interpretability of Deep Learning Models in Personalized Medicine

Abstract

Within the realm of healthcare, machine learning (ML) techniques have demonstrated remarkable potential in enhancing diagnostics, treatment strategies, and overall patient care.
Deep Learning has particularly shown impressive results in diverse healthcare applications, notably in medical image analysis and recognition.

However, deep learning models are considered « black-box » systems. In healthcare, where interpretability is crucial, understanding how a model arrives at a diagnosis or treatment recommendation is imperative for ensuring trust and widespread adoption.

To address this challenge, we proposed several deep learning and hybrid architectures that are interpretable by design. Our approaches include the following strategies:

– Integrating Knowledge Graphs into the deep learning architectures, providing concept-based explanations.

– Combining Supervised deep learning with an unsupervised explainable model to provide prototype-based explanations.

– Combining Symbolic AI approaches with deep learning to ensure rule-based explanations.

These proposed advancements in explainable deep learning models aim to instill trust in model predictions, ensuring their beneficial use in the landscape of personalized medicine.

  • Date : vendredi 23/02/2024, 14h
  • Lieu: IBISC site IBGBI, petit amphithéâtre, 23 boulevard de France, 91000 ÉVRY-COURCOURONNES
  • Membre IBISC concernée : Farida ZEHRAOUI (MCF Univ. Évry, IBISC équipe AROB@S)
WP to LinkedIn Auto Publish Powered By : XYZScripts.com