-
Éric Scherer, directeur du MediaLab de France Télévisions et président du comité News de l’Union européenne de radio-télévision, engagé sur les questions d’éthique et de gouvernance de l’IA ;
-
Stanislas de Livonnière, responsable du service Data et innovation du Parisien, expérimentateur de nouveaux formats narratifs générés par IA ;
-
Bénédicte Mingot et Jérémie Laurent-Kaysen, vérificateurs à France Télévisions, qui explorent au quotidien les usages de l’IA dans la lutte contre la désinformation.
IA : outil, menace ou révélateur ?
-
Quels usages de l’IA sont aujourd’hui intégrés dans les pratiques journalistiques ?
-
Comment éviter que les contenus générés ne deviennent eux-mêmes sources de désinformation ?
-
Et surtout, quels garde-fous éthiques et déontologiques faut-il renforcer pour préserver une information libre, indépendante et vérifiable ?
Pour mieux comprendre (assisté par l'IA)
Qu'est-ce que l'IA générative et comment fonctionne-t-elle ?
L'IA générative est une sous-catégorie de l'intelligence artificielle qui utilise des algorithmes pour produire du contenu nouveau et original, tel que du texte, des images ou de la musique. Elle repose souvent sur des réseaux de neurones profonds, comme les modèles de transformateurs, qui sont entraînés sur de vastes ensembles de données pour apprendre les structures sous-jacentes du langage ou des visuels.
Quels sont les cadres réglementaires existants pour l'utilisation de l'IA dans le journalisme ?
Actuellement, il y a peu de réglementations spécifiques à l'utilisation de l'IA dans le journalisme. Cependant, l'Union Européenne propose des directives générales sur l'IA, comme le Règlement sur l'IA, qui impose des exigences de transparence et de responsabilité. Les lois sur la désinformation, telles que le Digital Services Act, peuvent également influencer l'utilisation de l'IA pour garantir que les contenus générés restent vérifiables et fiables.