Allemagne

[DE] Étude sur l’acceptation de l’usage de l’IA dans le journalisme

IRIS 2024-5:1/22

Christina Etteldorf

Institut du droit européen des médias

Le 21 mars 2024, la Landesanstalt für Medien Nordrhein-Westfalen (office régional des médias de Rhénanie-du-Nord-Westphalie - LfM NRW), l’une des 14 autorités allemandes de régulation des médias, a publié une étude réalisée à sa demande sur l’acceptation par le public de l’usage de l’intelligence artificielle (IA) par les journalistes. Il en ressort que la majeure partie du public est en principe ouverte à l’utilisation de l’IA pour étayer le travail journalistique. Toutefois, comme le souligne l’étude dans sa conclusion sur les expériences menées, le recours à de tels outils doit s’accompagner d’une réglementation transparente afin d’augmenter son acceptation et de lever les réserves.

Les nouveaux procédés technologiques d’automatisation des processus et l’IA offrent un certain nombre d’opportunités inédites aux fournisseurs de médias, notamment en tant qu’aide à la création de contenus éditoriaux. Dans ce contexte, l’enquête de la LfM NRW porte sur la manière dont les utilisateurs de médias perçoivent l’utilisation de procédés automatisés dans la création de contenus, tout en étudiant quelles sont lles mesures à prendre pour lever les réserves éventuelles. L’étude a été réalisée auprès d’un millier d’utilisateurs en ligne âgés d’au moins 14 ans. Le questionnaire portait d’une part sur le mode d’utilisation des médias, et d’autre part sur la perception de contenus créés à l’aide de l’IA et sur leur évaluation. Il en ressort une différence de perception, notamment en ce qui concerne la teneur des contenus : l’utilisation de l’IA est jugée nettement moins légitime pour les informations ou les reportages politiques que pour des sujets tels que le sport et le divertissement. À la question de savoir si l’usage de l’IA dans le journalisme peut aider à rendre les processus plus efficaces, environ 35 % des personnes interrogées répondent par l’affirmative. Un certain potentiel a notamment été identifié dans l’optimisation de la recherche d’émissions audiovisuelles dans les médiathèques, l’aide aux travaux de recherche et l’individualisation des contenus en fonction des préférences des utilisateurs. La préoccupation majeure en matière d’automatisation des processus concerne le risque de suppression d’emplois (51 % des personnes interrogées).

Les personnes interrogées ont également visionné plusieurs vidéos d’aspect similaire : deux avec un présentateur humain et deux uniquement avec un accompagnement vocal, dont respectivement une seule a été réalisée à l’aide de l’IA. En ce qui concerne les critères qualitatifs (par ex. crédible, informatif, divertissant, compréhensible, etc.), les vidéos n’ont guère été perçues différemment, néanmoins le produit de l’IA comportant uniquement un commentaire vocal a été légèrement mieux noté que la vidéo sans IA de même catégorie. Dans les deux catégories, les personnes interrogées n’ont toutefois pas pu identifier clairement la vidéo réalisée à l’aide de l’IA.

Il ressort également de cette enquête que l’acceptation de l’utilisation de l’IA est plus élevée (61 %) lorsque les articles sont créés par de « vrais » journalistes et présentés par de « véritables » présentateurs ou présentatrices avec « seulement » une assistance de l’IA. En revanche, les personnes interrogées sont nettement moins nombreuses (35 %) à approuver les articles journalistiques entièrement créés par l’IA. Interrogées sur les possibilités d’augmenter l’acceptation d’une assistance de l’IA, bon nombre d’entre elles accordent une grande importance (« très important ») à l’obligation de signalisation (53 %), à une obligation contraignante de rendre des comptes (42 %) et à l’obligation de surveillance de l’usage de l’IA, en particulier dans le journalisme (40 %).


Références


Cet article a été publié dans IRIS Observations juridiques de l'Observatoire européen de l'audiovisuel.