{"id":"908","title":"DATA SCIENCE: XAI Explicabilit\u00e9 IA (Auditabilit\u00e9, transparence ..?)","type":"45","is_convention":false,"is_dims":false,"subscribe_nocheck":false,"start":"2021-06-01 16:00:00","stop":"2021-06-01 17:30:00","days":["2021-06-01"],"subevents":[]}
01 Juin 2021 16h - 17h30
Web conférence - via l'application ITIFORUMS
Contribuer
S'inscrire
Do Tank
DATA SCIENCE: XAI Explicabilité IA (Auditabilité, transparence ..?)
Data Science : XAI : eXplicabilité IA (Auditabilité, transparence, ?), Techniques pour contrôler et fixer les biais d'apprentissage, Au-delà de l'explicabilité des modèles (ex : Lime), quelles solutions pour des modèles nativement interprétables ?
Use Case Société Générale : Les méthodes d’explicabilité de modèle (e.g. SHAP, LIME) permettent de lever le voile sur ce qui c...
01 Juin 2021 16h - 17h30
Web conférence - via l'application ITIFORUMS
PROGRAMME
GENDARMERIE NATIONALE
GibertLudovic
CDO & Innovation Leader for Global Coverage & Investment Banking
CA-CIB
16H00
Introduction & IMA What's UP (Accueil)
Salle de Conférence
Tour d’horizon sur les activités et services de l’IMA
IMA What’s up ? :
Les nouveaux parcours thématiques
Retour des Deep dives
Présentation du Parcours "Data Science"
JulienBOHNE
Chief Data Scientist
SOCIETE GENERALE
FrancescoMARINI
Data Scientist
SOCIETE GENERALE
16H05
SHAP, LIME: des méthodes d'explicabilité puissantes mais des résultats à interpréter avec précaution (Use Case)
Salle de Conférence
SHAP et LIME sont des méthodes populaires d'explicabilité de modèle de Machine Learning mais leur interprétation nécessite des précautions car:
- Différente méthodes produisent souvent des résultats différents et peu stables,
- Des approximations sont nécessaires pour rendre leur temps de calcul acceptable,
- Certaines décisions algorithmiques proviennent d'alternatives ne comportant que des choix criticables.
Lors de ce "Do Tank", nous discuterons des limites des méthodes d’explicabilité et de métriques pour les évaluer.
GaëlleJOUIS
Data Scientist & Doctorante
DSI PÔLE EMPLOI / LS2N
16H55
Use Case : Explicabilité des réseaux de neurones à Pôle Emploi (Use Case)
Salle de Conférence
Je présenterai l'avancée de mes travaux de thèse sur l'XAI appliquée à l'analyse de textes, au sein de Pôle Emploi. Le cas d'application est la détection automatique de non conformités dans les offres d'emploi. Nous aborderons les modèles à Attention, le lien avec les utilisateurs et l'intégration de l'XAI aux outils des Data Scientists.
S’inscrire S’inscrire : Les inscriptions sont closes Les inscriptions à l'événement sont désormais closes. Vous pouvez néanmoins suivre l'événement en direct et en totalité à partir de Jeudi matin (10/11) 9h via notre livestream directement sur le site de l'IMA.
Si vous souhaitez en savoir plus sur nos événements et accéder au prochain IMAgine Day, ou si vous souhaitez faire une demande spécifique pour participer à cet événement exceptionnel, vous pouvez contacter : michel.grosbost@ima-dt.org
N'hésitez pas à nous contacter si vous avez la moindre question, l'IMA est à votre écoute !
L'équipe IMA
Les données personnelles qui vous sont demandées nous permettent de mieux vous connaître, de vous proposer les contenus qui vous intéressent et de vous mettre en relation avec des partenaires pertinents pour vos besoins et recherches
Conformément à notre politique générale en matière de données personnelles, vous disposez d’un droit d’accès vous permettant à tout moment de connaître la nature des données collectées vous concernant et leur durée de rétention, de demander leur rectification ou leur effacement. Ce droit s’exerce par simple envoi d’un email à contact@ima-dt.org. Pour tout savoir sur la manière dont l'IMA gère les données personnelles, vous pouvez vous reporter à notre Charte sur les Données Personnelles. Les données personnelles qui vous sont demandées nous permettent d’une part de partager avec vous les dernières solutions innovantes des partenaires de l'IMA, d’autre part de mieux vous connaître et enfin de vous proposer les contenus qui vous intéressent. L’accès aux contenus produits par les partenaires de l'IMA est gratuit. En contrepartie vos coordonnées personnelles prénom, nom, fonction, société, email seront transmises au partenaire ayant produit le contenu auquel vous voulez accéder.