La reconnaissance faciale est un sujet controversé dans un projet de loi visant à réglementer l’IA – Jornal da USP

Le niveau de risque et la possibilité de discrimination sont des points clés de la proposition en cours de discussion au Sénat analysée par le professeur Juliano Maranhão

La mention de la reconnaissance faciale comme intolérable ne se produit que dans l’espace public, en temps réel – Photo Pixabay

Le projet de réglementation de l’intelligence artificielle au Brésil est un texte de substitution aux projets de loi 5 051/2019, 21/2020 C’est 872/2021, qui concernent le même sujet. La nouvelle résolution a été analysée par une commission composée de juristes, parmi lesquels le professeur Juliano Maranhão du Département de philosophie et théorie générale du droit de la Faculté de droit de l’USP.

« Nous avons fait une analyse des propositions d’autres expériences internationales de législation, principalement celle européenne, qui est la plus robuste. Et puis nous avons mis en place un projet qui adopte une approche basée sur les risques », explique-t-il. Le projet de loi est en discussion au Sénat et a été voté en urgence à la Chambre des députés.

L’évaluation des risques

« L’intervention et la réglementation des restrictions sont plus importantes selon le degré de risque impliqué dans l’application de l’intelligence artificielle », commente le professeur. L’objectif de cette action est de rechercher les meilleures pratiques pour atténuer le niveau élevé de risque lié à l’IA, en fonction de son utilisation, tout en préservant les avantages de cette technologie.

Juliano Maranhão – Photo : IEA USP

L’un des sujets les plus discutés était la reconnaissance faciale : « C’est un sujet très controversé, c’était l’un des sujets dont nous avons le plus discuté car il entre dans une catégorie, dans certaines propositions de législation, comme une application de risque intolérable et, par conséquent, cela devrait être interdit », déclare Maranhão.

Dans le texte de substitution, la mention de la reconnaissance faciale comme intolérable ne se produit que dans l’espace public, en temps réel : « Une telle technologie apporterait une sorte de ‘surveillance de masse’, c’est-à-dire même s’il n’y a aucun soupçon ou quoi que ce soit contre un individu qui transite librement dans la rue, il serait reconnu et ses trajets enregistrés. Cela peut entraver la libre circulation dans les espaces publics. Cependant, la classification de risque intolérable dans cette circonstance n’empêche pas l’application de la reconnaissance faciale dans les cas où elle ne correspond qu’à un risque élevé, par exemple, par les forces de sécurité pour identifier les fugitifs et les suspects.

Initiative

Pour réguler ces risques, il faut être prudent avec la gouvernance : « La gouvernance désigne un ensemble de procédures techniques ou organisationnelles chez les personnes qui font fonctionner ce système pour mitiger les risques de cette technologie », précise le professeur. Il souligne également que l’intelligence artificielle peut reproduire des discriminations structurelles présentes dans la société du fait de la base de données fournie : « Les traitements d’IA ont déjà, certes, une moins bonne qualité pour identifier avec précision les Noirs par rapport aux Blancs et les femmes par rapport aux Blancs par rapport aux hommes. » Cela a eu l’impact suivant : dans la première expérience d’utilisation dans les différents États, dans les cas de fugitifs et de personnes recherchées détectées, dans 80% des cas les erreurs étaient noires ».

La dynamique de la technologie pose problème lorsqu’il s’agit de créer des réglementations plus précises, car il y a toujours quelque chose de nouveau qui peut rendre les anciennes positions obsolètes : « On ne peut pas, par exemple, mettre dans la loi et mieux établir les pratiques qui sont les meilleures pratiques aujourd’hui . La technologie va évoluer, les détails peuvent changer, nous ne détaillons donc pas les meilleures pratiques car elles peuvent devenir inutiles », déclare Maranhão. Pour le spécialiste, ce qui est à l’ordre du jour, c’est l’obligation pour les organisations, qu’elles soient celles qui développent ou celles qui appliquent, de s’engager sur les meilleures pratiques pour faire face à chaque risque. Il est nécessaire de s’appuyer sur l’autorégulation pour que les différents secteurs qui utilisent intensivement l’intelligence artificielle puissent avoir des codes de conduite spécifiques, afin qu’il y ait également une certaine flexibilité dans la réglementation.

Certaines organisations discutent des meilleures pratiques pour l’utilisation de l’IA, de l’analyse des risques et des propositions d’atténuation. Un exemple est le Loigorithme — créé par des professeurs de l’Ecole Polytechnique, de l’Institut de Mathématiques et Statistiques, de la Faculté de Philosophie, Lettres et Sciences Humaines et de la Faculté de Droit de l’USP.


Journal de l’USP en direct
Jornal da USP no Ar est un partenariat entre Rádio USP et l’École polytechnique et l’Institut d’études avancées. Nonen ondes, sur Rede USP de Rádio, du lundi au vendredi : 1ère édition de 7h30 à 9h00, avec une présentation de Roxane Ré, et autres éditions à 14h00, 15h00 et 4 : 45h. À Ribeirão Preto, l’édition régionale sera diffusée de 12h à 12h30, avec des présentations de Mel Vieira et Ferraz Junior. Vous pouvez syntoniser Rádio USP à São Paulo FM 93.7, à Ribeirão Preto FM 107.9, sur Internet à www.jornal.usp.br ou via l’application Jornal da USP sur votre téléphone portable.