Intelligence artificielle, journalisme et désinformation – Jornal da USP

Par Herton Escobar, journaliste spécialisé dans la science et l’environnement et reporter spécial pour « Jornal da USP »

L’intelligence artificielle est considérée par beaucoup comme la prochaine frontière technologique et son application dans le journalisme est un sujet de plus en plus discuté. Avec la capacité de traiter de grandes quantités de données et d’apprendre en continu, l’IA peut aider à produire un contenu journalistique plus précis, plus rapide et plus accessible.

L’IA peut être utilisée pour automatiser des tâches répétitives telles que la vérification des faits, l’analyse des données et la production de nouvelles à grande échelle. De plus, la technologie peut aider à détecter et à corriger les erreurs et la désinformation, rendant le journalisme plus crédible.

L’utilisation de robots journalistes est déjà une réalité dans certaines entreprises de médias, mais il y a encore beaucoup de débats sur la qualité du contenu qu’ils produisent. Alors que certains soutiennent que l’IA peut être utilisée pour améliorer la précision et l’efficacité de la production de nouvelles, d’autres avertissent que la technologie n’est pas encore assez avancée pour remplacer complètement l’enquête journalistique humaine.

Cependant, l’IA peut être un outil précieux pour les journalistes, les aidant à accéder à des informations provenant de diverses sources et à analyser les données plus efficacement. En outre, la technologie peut être utilisée pour élargir la diversité des perspectives et des voix, permettant de raconter des histoires de manière plus juste et plus équilibrée.

En résumé, l’IA a le potentiel de révolutionner la production de contenu journalistique, mais il est important de se rappeler que la technologie doit être utilisée comme un outil complémentaire et jamais comme un substitut à l’investigation humaine. L’IA peut aider à produire des informations plus précises et accessibles, mais la responsabilité d’assurer la fiabilité et l’intégrité des informations incombe aux journalistes.

ATTENTION : Tout ce que vous avez lu ci-dessus a été écrit par une intelligence artificielle, sans aucune retouche de ma part. Je n’ai absolument rien changé dans le texte, pas même une virgule. Et je dois avouer : c’est plutôt bien. Grammaticalement correcte; bien structuré; bien contextualisé ; équilibré; avec une clarté et une objectivité irréprochables.

Le texte a été généré par ChatGPT, le système d’intelligence artificielle développé par la société californienne OpenAI, lancé en novembre 2022. Il fonctionne comme un robot virtuel avec lequel vous pouvez discuter à la recherche d’informations ; comme Siri ou Alexa, mais beaucoup plus sophistiqués, capables non seulement de compiler des informations toutes faites à partir d’Internet, mais aussi de générer des textes complexes (comme indiqué ci-dessus) et même des poèmes ou des paroles de chansons complètement originaux (comme le montre ce rapport de Fantastiquedu 29 janvier).

C’est incroyable, mais aussi effrayant. Je suis d’accord avec ce que ChatGPT a dit ci-dessus (et pardonnez-moi d’y faire référence comme s’il s’agissait d’une personne) : l’intelligence artificielle peut être un outil extrêmement bénéfique pour le journalisme, aidant à collecter, traiter et vérifier les informations. Comme tout outil humain, cependant, c’est quelque chose qui peut être utilisé pour le bien ou le mal, selon qui l’utilise. Dans ce cas, cela dépend de qui tape la question, avec quelles intentions et de ce qui est fait de la réponse.

Lors de ma première expérience éditoriale avec ChatGPT, j’ai tapé la requête suivante : « Écrivez une histoire, avec jusqu’à 1 500 caractères, sur la façon dont l’intelligence artificielle pourrait avoir un impact sur la production de contenu journalistique fiable à l’avenir ». La réponse était le texte reproduit au début de cet article, que le robot n’a mis qu’une minute à écrire.

Si j’étais un journaliste paresseux ou malhonnête, je pourrais facilement mettre mon nom sur ce texte, le publier sur Internet comme s’il s’agissait de ma production intellectuelle, rentrer chez moi et passer le reste de la journée à manger du pop-corn et vérifier mes goûts sur les réseaux sociaux. Ma journée de travail aurait duré cinq minutes ; mais je n’aurais absolument rien appris, vraiment, sur le sujet en question. Ce serait une escroquerie complète, journalistique, professionnelle et intellectuelle. Quelqu’un a-t-il des doutes sur le fait qu’il y aura beaucoup de gens pointilleux qui feront une «carrière» en plus de cela? Avec certitude. Pas seulement dans le journalisme, mais dans de nombreuses professions.

Tout comme « j’ai » écrit cet article sur le journalisme et l’intelligence artificielle en une minute, sans avoir à faire de recherche à ce sujet, un étudiant peut facilement rédiger un projet scolaire, un rapport ou même un mémoire de maîtrise en quelques minutes. Les enseignants et les employeurs pourront-ils faire la différence?

La bonne nouvelle est que le robot fonctionne en plus des informations disponibles sur Internet, qui sont générées par des êtres humains en chair et en os – du moins pour le moment. Pour écrire le texte ci-dessus, il a probablement traité les données et les opinions de centaines ou de milliers de livres, d’articles et de rapports publiés sur ce sujet ces dernières années, sur diverses plateformes. Autrement dit, la matière première du processus créatif de l’intelligence artificielle est toujours l’intelligence et la créativité humaines. Nous continuerons d’avoir besoin de vrais journalistes, poètes et artistes pour générer le contenu original dont les robots ont besoin pour apprendre et travailler.

La mauvaise nouvelle est que cette source d’information appelée Internet est polluée jusqu’à l’os par la désinformation – fausses nouvelles, mensonges, théories du complot, études bâclées, etc. L’intelligence artificielle pourra-t-elle filtrer ces ingrédients toxiques de la recette ? Et comment éviter qu’elle ne soit utilisée pour booster encore la production et la diffusion de contenus mensongers ou frauduleux ?

« Cet outil sera l’outil le plus puissant pour diffuser la désinformation qui ait jamais existé sur Internet », a déclaré Gordon Crovitz, co-directeur exécutif de NewsGuard, une société qui surveille la désinformation en ligne, dans une interview pour un reportage sur le sujet dans le journal. Le New York Times. « L’élaboration d’un nouveau faux récit peut désormais se faire à une échelle dramatique et beaucoup plus fréquemment – c’est comme si des agents d’intelligence artificielle contribuaient à la désinformation. »

Le site Web d’OpenAI indique que la mission de l’entreprise est « de veiller à ce que l’intelligence artificielle profite à toute l’humanité ». Je ne doute pas des bonnes intentions de l’entreprise, mais il est bon de rappeler que les réseaux sociaux ont également émergé avec la promesse de rassembler les gens, et le résultat n’a pas été exactement cela.

Préoccupé par le sujet, j’ai décidé de faire une deuxième expérience et de voir ce que ChatGPT lui-même aurait à dire sur le sujet. J’ai demandé au robot d’écrire un rapport de 1 500 caractères maximum sur « comment l’intelligence artificielle peut être utilisée pour générer et diffuser de fausses nouvelles sur Internet ». Une minute plus tard, il me tendit ce texte ci-dessous :

[ChatGPT]

L’intelligence artificielle change la façon dont les gens consomment et partagent des informations sur Internet. Malheureusement, cette technologie peut également être utilisée pour diffuser de fausses nouvelles et de la désinformation.

Selon les experts en cybersécurité, les outils d’IA tels que les systèmes de génération de texte et de voix peuvent être utilisés pour créer et diffuser de fausses nouvelles de manière automatisée et à grande échelle. De plus, la technologie de reconnaissance d’images et de vidéos peut être utilisée pour manipuler et déformer des faits réels, créant de fausses informations qui semblent vraies.

Les risques liés à la génération et à la diffusion de fausses nouvelles sont vastes et inquiétants. La désinformation peut conduire à de mauvaises décisions, affecter l’opinion publique et même provoquer une instabilité politique et sociale.

Pour lutter contre ces risques, les experts suggèrent de mettre en place des mesures de cybersécurité plus strictes, telles que la vérification des sources et l’analyse des données pour identifier les fausses nouvelles. En outre, les plateformes de médias sociaux doivent être plus transparentes et responsables dans la divulgation d’informations, et les utilisateurs doivent être conscients et critiques des informations qu’ils consomment et partagent sur Internet.

En bref, l’intelligence artificielle peut être un outil puissant pour générer et diffuser de fausses informations, mais elle peut également être utilisée pour lutter contre ces risques. Il est important que les gouvernements, les entreprises et les particuliers travaillent ensemble pour protéger l’intégrité des informations et garantir un Internet sûr et fiable.

NOTE FINALE DE L’AUTEUR (HUMAIN): Je suis d’accord avec le robot.

(Opinions exprimées par les rédacteurs du Revue USP sont de la seule responsabilité de leurs auteurs et ne reflètent pas les opinions du véhicule ou les positions institutionnelles de l’Université de São Paulo. Accédez à nos paramètres éditoriaux pour les articles d’opinion ici.)