Résumé de l’article : Off Radio Krakow a stoppé son projet d’animateurs radio IA, lancé le 22 octobre, après une controverse. Les avatars Alex, Emilia, et Jakub avaient simulé des entretiens avec des figures polonaises décédées, suscitant des critiques éthiques sur la représentation des défunts. Le licenciement préalable de journalistes humains a aussi renforcé les réactions négatives. Michal Rusinek, de la Fondation Szymborska, a reconnu le potentiel culturel de l’IA, mais des voix, dont celle du ministre de la Numérisation, ont souligné la nécessité d’un usage éthique. Ce débat met en lumière les enjeux croissants de régulation de l’IA dans les médias.
J’ai choisi ce sujet car ce cas soulève des questions de responsabilité médiatique, d’acceptabilité sociale et de régulation de l’IA, tout en mettant en lumière l’impact potentiel sur l’emploi des journalistes. Bien que critiquée, l’initiative rappelle aussi que l’IA peut promouvoir la culture, notamment auprès des jeunes. Ce sujet illustre les défis et opportunités liés à l’IA dans le secteur médiatique qui me semble central pour mon futur métier.
L’essor de l’intelligence artificielle (IA) transforme le paysage médiatique en profondeur. Cette veille dresse un panorama complet des défis, des opportunités et des préoccupations autour de l’IA dans les médias.
Dans un premier temps l’IA présente un danger pour la société et le journalisme. Certains professionnels alertent depuis longtemps sur ces risques. Pionnier de l’IA, Geoffrey Hinton met en garde contre quatre grands dangers. Il alerte sur les risques de désinformation, l’impact sur l’emploi, l’autonomie des systèmes IA qui pourrait échapper à notre contrôle, et les conflits sociétaux. Dans le secteur médiatique, ces dangers se manifestent par des contenus difficilement vérifiables, une concurrence accrue pour les journalistes, et le risque de remplacer des emplois humains par des IA génératives. Stephen Hawking, physicien théoricien avait estimé que l’IA pourrait être « la meilleure ou la pire chose » pour l’humanité. Il mettait en avant le risque de conséquences imprévisibles si l’IA venait à évoluer de manière incontrôlée. Son point de vue appuie l’idée de développer des garde-fous robustes pour encadrer l’utilisation de l’IA dans les médias, afin d’éviter des dérives sociétales.
Mais pour cela les médias doivent faire face à de nombreux défis : Selon un rapport de l’Observatoire Européen du Journalisme (EJO), pour mettre l’IA du côté des médias il faut comprendre son fonctionnement (Sortir de la sidération du flux continu que propose l’IA, Baliser les usages de l’IA et former les équipes, Identifier les opportunités de gains de productivité…).
Ce pose aussi la question des pratiques éditoriales et de la question de légitimité. Les articles de la Croix et L’observatoire des médias montrent que l’IA peut enrichir le travail des journalistes en améliorant l’analyse des données et en facilitant la recherche d’informations car les compétences humaines, telles que l’éthique, la créativité et l’interaction sociale, demeurent essentielles pour naviguer dans ce nouvel environnement. Cependant, des organisations comme la CFDT soulignent la nécessité de régulations pour protéger le journalisme humain, notamment pour éviter les abus, comme l’utilisation des IA pour remplacer des journalistes sans transparence. Un appel à témoignage a été lancé pour mieux comprendre ces transformations et défendre les intérêts des journalistes face à ces évolutions technologiques.
L’IA doit en effet être encore perfectionné, D’après une étude de Getty Images, près de 90 % des consommateurs réclament une transparence accrue concernant l’usage de l’IA dans les contenus médiatiques. Ce besoin est confirmé par la réaction du public face au projet d’Off Radio Krakow. Elle est également perfectible sur les cadres et régulations nécessaire à son bon fonctionnement. Selon Challengers et CNNnumérique, l’IA peut renforcer des stéréotypes sociaux et culturels si elle n’est pas correctement encadrée. Ce risque nécessite un encadrement minutieux pour éviter de reproduire ou d’exacerber les biais existants. Margrethe Vestager, responsable de la technologie au sein de l’UE est partage également ce ressenti. Pour beaucoup dont ISO , Harvard Business Review et Le Monde la mise en place d’une éthique construite et clair est donc primordiale.
D’autre part, même si les enjeux de régulation et d’éthique étaient totalement réglé, un enjeu de taille reste : l’impact environnemental de l’IA colossale mais sous-évalué. De quoi rassuré certains comme l’autrice Amélie Nothomb « historiquement ce qui consomme le moins perdure et je consomme extrêmement peu ! »
Même si l’IA peut devenir un atout majeur pour les journalistes, facilitant leur travail, il peut aussi bien les desservir, en créant des vagues de licenciement. Aux Etats-Unis ou encore en Allemagne certains en ont déjà fait les frais. Mais cela ne touche pas uniquement les journalistes, beaucoup de métiers sont touchés par cet enjeu, amenant à la question de motif de licenciement valable ou non.
Contrairement aux opinions alarmistes, Yann Le Cun, autre pionnier de l’IA, voit dans l’IA le potentiel pour un « nouveau siècle des Lumières ». Il milite pour une recherche soutenue sans frein, espérant ainsi atteindre une forme d’intelligence avancée capable de résoudre des défis complexes. Pour les médias, cela signifierait des avancées pour améliorer la qualité et la personnalisation des informations, à condition que les usages restent éthiques et responsables. En sa qualité de chercheur en IA pour Meta, il a instauré des normes pour favoriser un développement éthique et scientifique de l’IA, avec des projets comme JEPA, visant à dépasser les limites des IA actuelles. On peut aussi prendre comme exemple le journal Est Républicain qui avait lancé une expérimentation pour corriger certains de ces articles.
D’autres normes sont en train de se mettre en place comme annoncé par la France et le Canada, un futur « GIEC de l’IA » (G2IA) vise à étudier les impacts de l’IA, à l’instar du GIEC pour le climat. Les membres du Parlement européen viennent de voter en faveur de la loi sur l’intelligence artificielle proposée par l’UE, qui mettra en place un cadre juridique strict pour l’IA, auquel les entreprises devront se conformer. La législation, qui devrait entrer en vigueur en 2025, classe les applications de l’IA en fonction du niveau de risque qu’elles présentent pour les consommateurs.
(Je n’ai pas réussi a trouver des articles parlant du rapport de Getty Image, je cherche peut être mal!)
Salut tu n’es pas dans un exo de revue de presse donc, tu peut integrer des liens vers des sources horpresse.
le blog de Getty par exemple https://newsroom.gettyimages.com/fr/getty-images/nearly-90-of-consumers-want-transparency-on-ai-images-finds-getty-images-report
Tres bon article en dehors de ça qui elargie bien le sujet.