Machine learning : la prédiction est-elle conservatrice ?
En 2016 est parue une étude de ProPublica sur un logiciel de prédiction comportementale utilisé dans le domaine de la justice, pour évaluer la probabilité qu’ont les accusés de faire récidive. Le résultat est clair : les résultats de l’algorithme COMPAS sont racistes. Ce résultat, loin de surprendre, s’inscrit dans une lignée de biais dans les logiciels de machine learning. On...