Carnets de l'Economie

Algorithmes de la CNAF : un système discriminatoire mis en cause par des associations




Anton Kunin
16/10/2024

Quinze associations, dont Amnesty International et la Fondation Abbé Pierre, ont saisi le Conseil d'État pour demander la suppression d'un algorithme utilisé par la Caisse nationale des allocations familiales (CNAF). Selon ces organisations, cet outil discriminatoire surcontrôle les allocataires les plus précaires. Les critères de l'algorithme pénalisent notamment les personnes à faibles revenus, au chômage ou bénéficiaires de minima sociaux, renforçant ainsi leur marginalisation.


Les personnes en situation de précarité sont ciblées de manière disproportionnée, estiment les associations

Depuis 2010, la CNAF utilise des algorithmes pour repérer les allocataires potentiellement sujets à des erreurs dans leurs déclarations. Ce système attribue une note, appelée « score de suspicion », basée sur des données personnelles comme les revenus, la situation familiale ou le nombre de déménagements récents. Plus la note est élevée, plus les chances d’être contrôlé augmentent.

Or, d'après les associations, cette méthode cible de manière disproportionnée les personnes en situation de précarité. En effet, des critères tels que la perception du RSA ou de l’allocation adulte handicapé (AAH), ou encore le chômage, augmentent automatiquement ce score de suspicion. Cela conduit à un surcontrôle des foyers déjà fragilisés, comme l'expliquent dans un communiqué Amnesty International, la Quadrature du Net, la Fondation Abbé Pierre et plusieurs autres associations qui viennent de saisir le Conseil d'État pour demander la suppression de l’algorithme.

La CNAF insiste que les contrôleurs examinent chaque dossier manuellement

Les associations dénoncent non seulement la surreprésentation des plus précaires dans les contrôles, mais aussi des discriminations indirectes. Par exemple, les parents isolés, souvent des femmes, sont surcontrôlés, renforçant une forme d'injustice sociale envers ces groupes. Les critères de l’algorithme pénalisent également les jeunes, les personnes ayant changé de domicile fréquemment ou celles ayant des enfants à charge âgés de plus de 19 ans. À l'inverse, des situations comme être sous tutelle ou avoir un haut revenu réduisent les chances d’être ciblé.

En réponse aux accusations, la CNAF défend son outil, affirmant qu’il sert uniquement à identifier les profils présentant un risque accru d'erreurs. Elle réfute tout lien entre la précarité et un présumé comportement frauduleux, insistant sur le fait que les contrôleurs examinent chaque dossier manuellement, sans automatisation complète. Pourtant, les associations pointent aussi un manque de transparence dans la gestion de ces algorithmes, ainsi qu’un risque de non-conformité avec le règlement général sur la protection des données (RGPD). Le Conseil d’État pourrait obliger la CNAF à justifier ses choix et à rendre publiques des statistiques sur les publics contrôlés, ce qui forcerait l'organisme à plus de clarté.










Décideurs

Nvidia rejoint le Dow Jones, Intel le quitte

Voiture électrique : BMW commence à critiquer le projet de l’UE

Google condamné pour son monopole sur les recherches Internet

Crédit Mutuel : Daniel Baal prend les rênes du groupe