« Pour une IA européenne protectrice et garante du principe de non-discrimination. » Il s’agit là de l’intitulé de l’avis publié le 21 juin par la Défenseure des droits. Alors que les débats autour d’une régulation de l’intelligence artificielle continuent au Parlement européen, l’autorité administrative appelle à placer le principe de non-discrimination au cœur des textes visant à encadrer les algorithmes. « Derrière leur apparente neutralité, des recherches ont mis à jour l’ampleur des biais qui peuvent intervenir lors de leur conception et leur déploiement », est-il rappelé. Un exemple est donné concernant la lutte contre la fraude aux prestations sociales, où « des algorithmes notamment de data mining ont ainsi conduit à concentrer les contrôles sur certaines personnes en raison de leur lieu de résidence et de leur situation de famille », illustre la Défenseure des droits.
L’avis, qui s’inscrit dans le prolongement de deux rapports datant de 2020 et 2021, formule plusieurs recommandations pour éviter au maximum les dérives. Il est notamment préconisé de mettre en place des systèmes de recours pertinents et d’ « assigner des "obligations d’égalité" contraignantes et opposables à tous les concepteurs et utilisateurs d’IA ».