Vers une Explicabilité Formelle Scalable : Explications Lite et Approximations Guidées (H/F)

Référence : UMR7030-LOUBOU-003

  • Fonction publique : Fonction publique de l'État
  • Employeur : Centre national de la recherche scientifique (CNRS)
  • Localisation : 93430 VILLETANEUSE (France)

Partager la page

Veuillez pour partager sur Facebook, Twitter et LinkedIn.

  • Nature de l’emploi Emploi ouvert uniquement aux contractuels
  • Nature du contrat Non renseigné
  • Expérience souhaitée Non renseigné
  • Rémunération Fourchette indicative pour les contractuels La rémunération est d'un minimum de 2200,00 € mensuel € brut/an Fourchette indicative pour les fonctionnaires Non renseignée
  • Catégorie Catégorie A (cadre)
  • Management Non renseigné
  • Télétravail possible Non renseigné

Vos missions en quelques mots

Sujet de thèse :
Dans ce contexte académique stimulant, nous nous intéresserons à la problématique de l'explicabilité des modèles d'intelligence artificielle qui transforment aujourd'hui de nombreux secteurs grâce aux modèles de langage, systèmes de recommandation et technologies avancées. Toutefois, les modèles d'apprentissage automatique modernes, comme les réseaux de neurones et les modèles d'ensemble, demeurent largement opaques, d'où leur qualification de boîtes noires. Cette opacité compromet la confiance des utilisateurs et s'avère problématique dans des domaines critiques (santé, finance, sécurité) où les erreurs peuvent être lourdes de conséquences.

L'Intelligence Artificielle Explicable (XAI) a ainsi émergé pour développer des méthodes d'explication des décisions d'IA. Cependant, les approches agnostiques populaires souffrent de limitations majeures : instabilité des explications face à des prédictions contradictoires, absence de garanties théoriques, et fragilité aux perturbations. Ces faiblesses les disqualifient pour les applications critiques. À l'inverse, les méthodes d'explications formelles offrent des garanties mathématiques rigoureuses adaptées aux contextes exigeants, mais rencontrent un obstacle majeur de scalabilité.

Cette thèse propose de développer des méthodes formelles scalables pour générer des explications locales robustes et interprétables pour les modèles d'apprentissage automatique opaques. Notre approche se structure autour de deux axes complémentaires : les explications abductives simplifiées ("Explications Lite") qui offrent un compromis entre rigueur formelle et scalabilité computationnelle, et l'approximation d'explications formelles de taille minimale respectant le principe du rasoir d'Occam. Cette thèse vise trois contributions centrales : démontrer la scalabilité des explications Lite pour traiter les modèles complexes avec des garanties formelles locales suffisantes, établir la capacité d'approximation à fournir des solutions de qualité avec des bornes théoriques garanties, et prouver la robustesse supérieure des méthodes proposées comparativement aux approches agnostiques existantes.

Notre méthodologie structure le développement d'explications formelles scalables en trois étapes complémentaires. Premièrement, les explications simplifiées exploitent l'encodage des modèles complexes pour effectuer des tests logiques partiels sur un échantillon représentatif. Deuxièmement, les techniques d'approximation surmontent la complexité calculatoire en garantissant des solutions proches de l'optimum théorique grâce à des méthodes d'optimisation locale. Troisièmement, l'intégration des préférences utilisateur permet de générer des explications personnalisées selon l'importance accordée à chaque caractéristique du modèle.
Contexte :
- Cette thèse se déroulera au sein du Laboratoire d'Informatique de Paris Nord (LIPN).

- UMR CNRS 7030, situé à l'Institut Galilée, 9
Voir plus sur le site emploi.cnrs.fr...

Profil recherché

Contraintes et risques :

Niveau d'études minimum requis

  • Niveau Niveau 8 Doctorat/diplômes équivalents
  • Spécialisation Formations générales

Langues

  • Français Seuil

Qui sommes-nous ?

Le Centre national de la recherche scientifique est un organisme public de recherche pluridisciplinaire placé sous la tutelle du ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation.

C’est l’une des plus importantes institutions publiques au monde : 33 000 femmes et hommes (dont plus de 16 000 chercheurs et plus de 16 000 ingénieurs et techniciens), en partenariat avec les universités et les grandes écoles, y font progresser les connaissances en explorant le vivant, la matière, l’Univers et le fonctionnement des sociétés humaines.

En savoir plus sur l'employeur

À propos de l'offre

  • Le Centre national de la recherche scientifique est l’une des plus importantes institutions publiques au monde : 34 000 femmes et hommes (plus de 1 000 laboratoires et 200 métiers), en partenariat avec les universités et les grandes écoles, y font progresser les connaissances en explorant le vivant, la matière, l’Univers et le fonctionnement des sociétés humaines. Depuis plus de 80 ans, y sont développées des recherches pluri et interdisciplinaires sur tout le territoire national, en Europe et à l’international. Le lien étroit que le CNRS tisse entre ses missions de recherche et le transfert vers la société fait de lui un acteur clé de l’innovation en France et dans le monde. Le partenariat qui le lie avec les entreprises est le socle de sa politique de valorisation et les start-ups issues de ses laboratoires (près de 100 chaque année) témoignent du potentiel économique de ses travaux de recherche.

  • Vacant
  • Chercheuse / Chercheur

Des offres d'emplois recommandées pour vous