De plus en plus sophistiqués, les «deepfakes» sont là pour rester – Jornal da USP

Photomontage avec photo créé par le projet That Person Does Not Exist – Photomontage: Vinicius Vieira /Journal de l'USP

Tout comme les fausses nouvelles ont envahi les réseaux sociaux et les médias, deepfakes (en traduction littérale, profondément faux) révolutionnent et polémicisent l'univers des images. "Le deepfakes ce sont des images produites par des processus d'apprentissage automatique (apprentissage automatique), c'est-à-dire l'Intelligence Artificielle, à travers une méthodologie appelée réseaux de neurones, dont la caractéristique principale est qu'ils sont entièrement créés par des algorithmes. Comme son nom l'indique, il cherche à reproduire les comportements et les mécanismes des systèmes neuronaux humains », explique Giselle Beiguelman, professeur à la faculté d'architecture et d'urbanisme de l'USP (FAU), chroniqueuse au Rádio USP (93,7 MHz). Giselle commente le sujet dans un article récemment publié dans Magazine Zum, de l'Institut Moreira Salles (IMS), et aussi dans un live qui a lieu ce mercredi 29, à 18 heures, sur la chaîne YouTube de ce magazine.

Ces programmes utilisent des bases de données qui rassemblent des millions d'images présentes dans les réseaux, créant des photos et des vidéos tellement crédibles qu'on ne sait plus ce qui est réel ou fictif. Une fois qu'ils deviennent viraux, il devient difficile de contourner leurs dégâts, comme le dit Giselle. Un exemple classique en est une vidéo, publiée en avril 2018 sur le site Web BuzzFeed, dans laquelle l'ancien président américain Barack Obama attaque les Black Panthers – une organisation antiraciste qui a émergé dans les années 1960 aux États-Unis – et maudit l'actuel président du Nord. Américain, Donald Trump. Malgré la perfection de l'image, le Barack Obama qui apparaît dans la vidéo est faux, un deepfake.

Le phénomène prend également de l'ampleur en tant que technique de rajeunissement, comme les acteurs Al Pacino et Robert De Niro dans le film L'Irlandais (2019), de Martin Scorsese, ou dans des mèmes amusants – préférés par l'enseignant -, mais aussi en tant qu'armes politiques redoutées capables de transmettre de faux discours. Selon l'enseignant, les personnalités sont les plus susceptibles deepfakes, car le nombre d'images de ces personnes disponibles en ligne est beaucoup plus élevé que celui des autres utilisateurs, ce qui fournit plus de données pour apprendre leurs gestes, leur discours et leurs expressions faciales.

Professeur Giselle Beiguelman: le deepfakes sont là pour rester, et ont tendance à augmenter – Photo: Jorge Lepesteur

Il y a des failles, admet Giselle, mais plus le système manque, plus il apprend à reformuler ces failles. «Lorsque les images sont dans ce système de programmation de réseau neuronal, un noyau tente de tromper l'autre. C'est comme si une machine essayait de tromper l'autre à travers des images qui ne sont pas réelles. Le premier envoie des images qui sont renvoyées par le second, avec des informations indiquant qu'il existe encore des aspects présentant des défauts. L'image est ensuite reformulée jusqu'à ce qu'elle atteigne un point où le système accepte cette image comme réelle », explique l'enseignant. De plus, une fois les images cataloguées dans ce système, il devient complètement indépendant des interférences humaines. "On peut dire que c'est un processus entièrement machinique car, une fois les images placées dans ce système de réseaux de neurones, seuls les algorithmes travaillent sur leur production et leur développement", ajoute-t-il.

Certains Bugs ils se produisent fréquemment, comme la mise au point, des images dépareillées ou des bruits étranges. «Avec les boucles d'oreilles en général, le système fait obstacle. Vous remarquez que les images sont incomparables et qu'une oreille apparaît avec une boucle d'oreille et l'autre non », illustre l'enseignant. Cependant, comme elle le rapporte, la maturation de ce système est très rapide, et la tendance est qu'il est de plus en plus difficile de reconnaître ces failles, notamment en vidéo. Pour l'enseignant, il est possible de voir à quel point cette technologie de deepfakes il est différent des systèmes de remixage et de post-reproduction humains, puisque le système audio commence à être synchronisé avec les gestes et les lèvres, y compris toutes les nuances des modulations vocales. Et cette synchronisation n'est pas effectuée par les programmes de montage vidéo. «Peut-être que là, le processus machinique se précise, ce qui se fait par l'incorporation de millions d'images disponibles sur le réseau, traitant d'un échantillon diversifié et donc très qualifié.

Technologie abordable

En septembre 2019, l'application chinoise Zao a lancé la technologie pour l'utilisateur amateur. L'application, qui a établi un record de téléchargements, a transformé n'importe qui en star hollywoodienne en quelques secondes. Comme le raconte Giselle dans son article dans Magazine Zum, le succès a également conduit à des protestations contre les atteintes à la vie privée, ce qui a amené l'entreprise propriétaire de la technologie à révoquer la prémisse qu'elle se réservait le droit d'utiliser les images et les informations biométriques partagées par ses utilisateurs. De plus, la nouvelle législation Internet chinoise, annoncée en novembre 2019, interdit l'utilisation des ressources d'intelligence artificielle sans divulgation préalable, réglementation motivée par la prolifération des fausses nouvelles.

L'article présente également une enquête de la société néerlandaise Deeptrace, qui développe des algorithmes pour l'identification des deepfakes, montrant que le nombre de vidéos deepfakes il a pratiquement doublé l'année dernière, passant de 7946 en décembre 2018 à 14678 en décembre 2019 – parmi ces vidéos, 96% sont pornographiques et atteignent environ 135 millions de vues. "L'utilisation de deepfakes dans la pornographie avec des images de femmes, c'est énorme, et le changement de visage est encore très courant », dit Giselle, informant également que le terme deepfake est née dans un forum, tenu en novembre 2017 sur Reddit, un réseau social de discussions thématiques qui traitait exactement du remplacement du visage des actrices porno par celui des célébrités. Pas pour rien, trois grands conglomérats d'entreprises technologiques – Microsoft, Amazon et Facebook – se sont joints au défi de détection de données Deepfakes. Pour Giselle, "cela suffit pour avoir une idée de l'ampleur du problème".

La technologie de deepfakes il n'est pas seulement lié au présent, mais aussi au passé. À l'installation En cas de catastrophe lunaire (2019), Francesca Panetta, directrice créative du Center for Advanced Virtuality du Massachusetts Institute of Technology (MIT), aux États-Unis, a créé, en partenariat avec Halsey Burgund, à partir de l'Open Documentary Lab, également du MIT, une vidéo dans laquelle Le président Richard Nixon rapporte, directement du bureau ovale de la Maison Blanche, une catastrophe survenue avec la mission lunaire Apollo 11 en 1969. Son discours a été rédigé par Bill Safire et serait lu dans le cas d'un accident qui, comme on le sait, ne s'est pas produit . Selon les auteurs, l'ouvrage entend «mettre en garde contre les risques de deepfakes falsifier non seulement le présent, mais aussi le passé ».

Photos créées par le Projet This Person Does Not Exist, par Philip Wang: malgré son réalisme, fausses images et produites sans intervention humaine – Photo: Project This Person Does Not Exist, diffusion Magazine Zum

«Ce que nous devons comprendre, c'est que deepfakes sont un type de routine de programmation disponible dans divers types d'applications que nous utilisons actuellement, et qui ont différents types de sortie. De plus, il est très clair comment Internet reproduit exactement les contradictions du monde réel. Le racisme et le machisme, par exemple, sont deux problèmes qui se répercuteront fortement », prévient-il. La preuve en est sur le site Web This Persondoesnotexist.com par Philip Wang, ingénieur logiciel senior chez Microsoft. Comme le cite Giselle, dans l'expérience menée par Bernardo Fontes, chercheur au Groupe Inova-USP Critical Experiences in Digital Infrastructure (Gecid), le site web observe «le degré de standardisation embarqué dans les processus de vision par ordinateur, reproduisant les dynamiques raciales et sociales. classe qui prévaut sur Internet ».

Problème éthique

Selon le professeur Giselle, le domaine de l'intelligence artificielle vit un paradoxe. «Nous pouvons dire que c'est comme un combat de chat et de souris. Plus vous sophistiquez les formes de reconnaissance, plus vous sophistiquez les moyens de contourner le système – notamment parce que les réseaux de neurones sont exactement cela – et, puisque vous créez de nouveaux paramètres qui créent les conditions pour se reconnaître, les systèmes ont tendance à mûrir et incorporer ces normes et les surmonter ». Selon l'enseignant, il y a une question éthique qui doit être discutée au-delà de la question de la programmation, ainsi que dans fausses nouvelles. «Il n'est pas possible de traiter la question uniquement en termes d'algorithme. Cela dépend d'un modèle culturel dans lequel ces questions sont en jeu », explique l'enseignant. Et il demande: quel genre de nouveaux contextes éthiques et culturels devons-nous prendre en compte pour faire face à un monde où la création culturelle n'est plus exclusive aux humains? Pour elle, il doit y avoir une autre reconnaissance culturelle de ces instances. «Tant que nous insistons pour aborder cela dans le domaine de la programmation, de mon point de vue, la tendance est que nous alimenterons de plus en plus le système lui-même. Plus il manque, plus il réussit, et c'est le paradoxe des réseaux de neurones », ajoute-t-il, indiquant une voie possible:« La discussion doit se faire à partir de nouveaux paradigmes culturels ».

Un exemple de deepfake: l'image donne un visage réaliste à une personne inexistante Magazine Zum

Selon Giselle, deepfakes sont là pour rester. «D'autant que si c'était l'inverse, il faudrait ignorer l'histoire des images techniques, dans laquelle la question de la manipulation d'images est fondamentale – les processus de post-production, les retouches, c'est intrinsèque», explique-t-il. "LES deepfake il pose des problèmes éthiques, mais c'est un univers dans le domaine des images, à explorer dans le cadre de l'art et de la culture. Il s'inscrit dans un champ de recherche sur la vision par ordinateur, qui relativise tout notre champ, donc anthropocentrique. C'est un déroulement du processus de numérisation de la culture, qui a comme l'un de ses aspects les plus intéressants, d'un point de vue philosophique, culturel et artistique, nous obligeant à repenser la centralité de l'homme dans les processus de création. En ce sens, le deepfake c'est une lumière à l'horizon », commente-t-il. Et il conclut: «Il est très probable que deepfakes le changement, qui peut avoir d'autres noms, d'autres utilisations, mais tout ce processus de codage de la vision par ordinateur est là pour rester, et il a tendance à augmenter ».

.

.