Bias and Fairness hero banner

Partialité et équité

Testez vos modèles pour détecter les biais et résolvez les problèmes avant qu’ils n’affectent les performances.

Une IA qui partage votre éthique et vos valeurs 

L’adoption de l’IA s’est accélérée dans des dizaines de secteurs d’activité. Les modèles de machine learning deviennent de plus en plus courants dans le monde réel, avec un impact généralisé sur les clients, les consommateurs et le grand public. Mais cette adoption s’accompagne souvent de quelques aspects négatifs. À mesure que l’utilisation de l’IA s’accélère, nous commençons en effet à constater que bon nombre de ces modèles contiennent des biais imprévus, tels que des modèles de recrutement qui discriminent les candidats.

Chez DataRobot, nous voulons que les utilisateurs comprennent comment se comportent leurs modèles d’IA et leurs données, et qu’ils puissent déterminer s’ils présentent des biais. Nos outils uniques de détection des biais et d’équité testent vos modèles pour mettre en lumière les biais, et vous aident à effectuer une analyse en profondeur pour vous aider à en identifier l’origine probable. Vous pouvez ainsi résoudre les problèmes avant qu’ils ne surviennent et trouver un compromis raisonnable entre biais et précision du modèle.

Guide
A Guide to Building Fair and Unbiased AI Systems
Choisissez le meilleur indicateur d’équité pour le cas d’utilisation concerné

Pour tester les biais et l’équité de vos modèles, vous devez commencer par indiquer les caractéristiques que vous souhaitez préserver. Il s’agit des caractéristiques que vous devez tester si le modèle fait preuve d’un comportement biaisé. DataRobot utilise cinq indicateurs d’équité standards pour vous aider à détecter les biais du modèle. Afin de vous aider à déterminer lequel est le plus approprié à votre cas d’usage, DataRobot vous propose un questionnaire guidé avec des explications en langage naturel, afin de vous aider à sélectionner la métrique la plus adaptée.

Recherchez les biais et comprenez leur origine

Une fois l’entraînement terminé, DataRobot vous fournit de nombreuses informations pour que vous puissiez vérifier si vos modèles se comportent de manière biaisée par rapport aux caractéristiques protégées que vous avez indiquées pour votre jeu de données. L’aperçu Biais par classe vous permet de voir le score d’équité du modèle pour chaque classe au sein de chaque attribut protégé. Il vous aide à comprendre le niveau de biais que présente votre modèle. L’aperçu Disparité des données entre les classes vous permet ensuite de comprendre l’origine des biais détectés. Pour cela, vous devez examiner la disparité des données de toutes les caractéristiques entre les classes protégées et les classes non protégées afin de comprendre ces différences. Enfin, la comparaison Biais et précision vous permet de vérifier l’équilibre entre biais et précision pour de nombreux modèles différents.

Surveillance proactive des biais de vos modèles en production

Après le déploiement de votre modèle, vous pouvez utiliser MLOps pour visualiser la représentation du biais par classe pour chaque jour depuis le déploiement. Il est possible que, au départ, le modèle ne présente pas de biais. Toutefois, au fil du temps, il peut commencer à faire preuve d’un comportement biaisé, passé inaperçu au moment de son entraînement. MLOps vous permet de surveiller vos modèles à l’aide du même indicateur que celui que vous avez sélectionné pour la création du modèle et vous alerte si ce dernier tombe en dessous du seuil que vous avez défini. Si des biais sont détectés, vous pouvez exploiter les informations de la dérive de données pour comprendre si les nouvelles données sont différentes des données utilisées lors de l’entraînement et ainsi identifier l’origine du biais.

Minimisez les risques en réduisant les biais

La réduction des biais est essentielle pour garantir la validité de vos modèles. DataRobot vous simplifie la tâche avec une solution sans code et prête à l’emploi qui vous aide à atténuer les biais. Pour cela, deux méthodes différentes s’offrent à vous : vous pouvez soit exécuter automatiquement la fonctionnalité de réduction des biais de DataRobot pour améliorer l’équité des trois principaux modèles trouvés, soit choisir de limiter manuellement le biais d’un modèle donné en utilisant l’attribut de votre choix. Vous pourrez voir et comprendre en détail le processus de réduction des biais qui a été mis en œuvre et sélectionner les caractéristiques à modifier pour réduire les biais.

image4
image4

Commencez dès maintenant à délivrer une IA fiable et éthique