Détail de l'offre
DOI https://doi.org/10.69777/354785
Titulaire de la demande évaluée Mahajan, Divyat
Établissement de la demande évaluée Université de Montréal - https://ror.org/0161xgx34
Titre de la demande évaluée Démêlage causal pour un apprentissage automatique fiable
ROR organisme subventionnaire https://ror.org/00w3qhf76 Nom du programme Bourses de doctorat en recherche
Montant total 100 000$ Secteur Nature et technologies
Période couverte par l’octroi 2024-05-15 - 2028-05-14 Mots clés Machine Learning // Deep Learning // Causal Inference // Probabilistic Graphical Models // Out of distribution generalization // Disentanglement
Résumé De plus en plus de preuves montrent que les modèles d'apprentissage automatique (ML) génèrent souvent des résultats contraires aux attentes, entraînant des problèmes dans des scénarios à enjeux élevés, comme les soins de santé, qui nécessitent une responsabilisation. Par exemple, des travaux récents montrent l'échec des modèles ML à se généraliser à de nouvelles distributions de données, même sur des ensembles de données simples comme MNIST, alors qu'il est courant d'avoir des changements invisibles dans la distribution des données pour les modèles ML après le déploiement. Par exemple, considérons un modèle ML pour décider de la demande de prêt d'un individu, qui a été formé sur les données passées des demandes de prêt de la banque. L'ensemble de données pourrait contenir une majorité d'individus issus de groupes sociaux défavorisés dont les demandes de prêt ont été rejetées, en raison de leur mauvaise cote de crédit. Cependant, les modèles ML pourraient apprendre la règle fallacieuse pour décider d'une demande de prêt en fonction du groupe social d'un individu, car la majorité des échantillons de formation suivaient cette règle. Cela rejetterait les candidats ayant une bonne cote de crédit parce qu’ils appartenaient à un groupe social défavorisé. Par conséquent, il est essentiel de garantir que les modèles de ML peuvent apprendre des relations robustes aux changements de distribution invisibles après le déploiement. Dans cette optique, de nombreux travaux proposent que l'intégration de principes causals dans les modèles ML puisse les empêcher de s'appuyer sur de fausses corrélations. Les approches actuelles pour apprendre des modèles causals en ML utilisent des graphiques causals connus ou effectuent une découverte partielle à l'aide de données provenant de plusieurs environnements/interventions. Cependant, un problème clé avec ces travaux antérieurs est qu'ils apprennent le graphe causal à partir de variables aléatoires structurées, mais nous n'avons pas accès aux variables sur lesquelles nous voulons effectuer un raisonnement causal pour des données de grande dimension telles que des images et du texte. Par conséquent, nous devons d’abord identifier/démêler les variables causales latentes qui sont responsables de la génération des données ; souvent appelé identification latente/apprentissage de la représentation causale/démêlage causal dans la littérature. Mes recherches portent sur la compréhension des bonnes hypothèses pour identifier les variables latentes avec des garanties et développer des approches pratiques les utilisant pour construire des modèles ML dotés de capacités de raisonnement.