L’UE doit interdire les outils d’IA “discriminatoires” qui détectent le sexe ou la sexualité

Un groupe de législateurs a demandé vendredi que l’UE interdise les systèmes d’intelligence artificielle (IA) qui détectent et étiquettent les personnes en fonction de leur sexe ou de leur sexualité, estimant que cette technologie se prête à des abus et pourrait alimenter la discrimination.

Le projet de lois que la Commission européenne doit annoncer la semaine prochaine comprend des garanties en matière de droits et des restrictions sur les technologies d’IA telles que les outils de reconnaissance faciale, mais n’interdit pas les systèmes qui détectent le sexe, la sexualité, la race ou le handicap, ont déclaré les législateurs. “Réduire les gens aux apparences est une discrimination – qu’elle soit le fait d’humains ou de machines“, a déclaré Alexandra Geese, qui a rédigé une lettre ouverte signée par 33 collègues députés européens.

Le préjudice potentiel de ces applications techniques l’emporte sur leurs avantages de manière si flagrante – si tant est qu’elles offrent des avantages – que l’Europe devrait sans équivoque leur tourner le dos par la loi.” Une autre députée européenne signataire de la lettre, Karen Melchior, a déclaré qu’il n’était “pas nécessaire que les technologies décident qui est un homme et qui est une femme, qui est gay et qui ne l’est pas“.

La lettre des législateurs fait suite à une coalition de groupes de défense des droits, dont All Out, une organisation mondiale de défense des droits des LGBT+, et le groupe de défense des droits numériques Access Now, qui ont recueilli 30 000 signatures appelant Bruxelles à mettre en œuvre une telle interdiction. Une fois que la Commission aura officiellement présenté ses propositions de réglementation le 21 avril, celles-ci devront être examinées par les pays de l’UE et les députés européens avant de devenir loi.

Les chercheurs ont commencé à mettre au point des outils permettant d’identifier la sexualité à partir de photographies, notamment dans le cadre d’un projet de recherche mené en 2017 à l’université de Stanford, dont le système d’IA a correctement identifié les hommes homosexuels dans 83 % des cas lors de l’analyse de quelque 35 000 images faciales. L’utilisation à grande échelle de tels systèmes n’a pas encore eu lieu en Europe, mais une interdiction par le bloc des 27 membres fixerait une ligne rouge pour l’avenir de cette technologie en Europe et au-delà, a déclaré Daniel Leufer, analyste de la politique européenne d’Access Now.

On ne peut que penser à des utilisations horribles de cette technologie, en particulier pour les personnes trans et non binaires, comme la réglementation de l’accès aux toilettes“, a déclaré M. Leufer. Les personnes non binaires ne s’identifient ni à un homme ni à une femme.

Les défenseurs des droits humains s’inquiètent également de l’application de cette technologie dans des endroits tels que les postes de contrôle frontalier, où les scans du visage peuvent être utilisés pour identifier les voyageurs, et dans la publicité. L’année dernière, Access Now a protesté contre un système publicitaire mis en place dans la ville brésilienne de Sao Paulo, qui utilisait la technologie de reconnaissance faciale pour afficher des publicités différentes aux passants en fonction de leur sexe perçu.

M. Keyes a déclaré que l’IA détectant le sexe avait été utilisée à petite échelle en Europe – citant un programme berlinois qui utilisait des scans du visage pour offrir aux femmes des billets à prix réduit lors de la “Journée de l’égalité des salaires“. Les systèmes d’IA qui catégorisent automatiquement la population en deux sexes renforcent les stéréotypes de genre, a déclaré Keyes.

Il est impossible d’avoir un système de reconnaissance du genre qui ne finisse pas par contribuer à une sorte de préjugé“, a déclaré M. Keyes. Une telle technologie ne fonctionnera pas non plus chez les personnes transgenres ou non binaires, a ajouté le chercheur : “Si nous commençons à adopter cette technologie, des millions de personnes seront exclues.