FixOut
Contexte
De plus en plus présentes dans notre quotidien, les décisions algorithmiques reposent sur des modèles d’apprentissage automatique (Machine Learning, ML) qui peuvent être complexes et biaisés du fait du programmeur ou de la composition du jeu de données.
Ces biais sont aujourd’hui problématiques du fait des décisions incohérentes, injustes voire discriminatoires qu’ils peuvent provoquer compromettant par la même occasion la confiance du grand public et des industriels dans le ML et l’IA.
Face à la difficile interprétation et explications des résultats des modèles il existe aujourd’hui un besoin important pour identifier et corriger les biais algorithmiques.
Innovation
Le projet FixOut FaIrness throught eXplanations and feature dropout) propose une solution pour aborder et résoudre les problèmes liés à l’équité algorithmique en particulier, pour atténuer la dépendance d’un modèle à l’égard de caractéristiques sensibles (avec un potentiel de discrimination négatif) sans compromettre les performances du modèle.
Bénéfices
- Décisions algorithmiques plus justes et explicables
- Réduction de la dépendance des décisions prises par des machines vis à vis des critères sensibles
- Agnostique par rapport au classificateur fourni
- Amélioration des performances du modèle produit
- Simplicité d’utilisation et transparence