L’intelligence artificielle va-t-elle tuer ou sauver les médias?

Publié le 24 novembre 2023

Les journalistes seront-ils tentés de donner la parole aux intelligences artificielles. Shutterstock

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias.

Laurence Devillers, Sorbonne Université


Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.

Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Des outils puissants au service des journalistes

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

L’apprentissage des IA génératives

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

 

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Un apprentissage qui oublie les sources

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

« Hallucinations » et autres risques

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

  • Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

  • Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

  • Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

  • Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

  • Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

  • Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

  • Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans l’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

  • Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

Laboratoire de l’IA sur les émergences et limites des IA génératives

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.


Cette contribution à The Conversation France prolonge une intervention de l’auteur aux Jéco 2023 qui se sont tenues à Lyon du 14 au 16 novembre 2023.The Conversation

Laurence Devillers, Professeur en Intelligence Artificielle, Sorbonne Université

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

S’abonner
Notification pour
0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires

À lire aussi

Sciences & Technologies

Technobiocide: un crime de guerre comme les autres?

Il est de plus en plus difficile d’ignorer les conséquences de notre dépendance aux hydrocarbures. La guerre au Moyen-Orient les met en avant comme d’ailleurs celles liés à notre dépendance à l’IA, aux centres de données et à leurs fournisseurs hégémoniques. Pourquoi ne pas imaginer et faire vivre d’autres possibles (...)

Solange Ghernaouti
Histoire

Le manuscrit de la fille de Staline au cœur d’une opération secrète dans la presse helvétique

Le 15 août 1967, une antenne du renseignement suisse reçoit une information inhabituelle. Une source codée provenant de Grande-Bretagne l’avertit qu’une opération d’influence est en cours de préparation dans un magazine helvétique. A la manœuvre, on retrouve László Taubinger, l’agent de l’Information Research Department (IRD) décrit dans l’épisode précédent.

Jean-Christophe Emmenegger
PolitiqueAccès libre

La guerre sans visages: le Moyen-Orient à l’heure de la censure de la mort

Il y a quelque chose d’obscène dans la propreté de cette guerre. Depuis que les Etats-Unis et Israël ont lancé leurs premières frappes contre l’Iran, le 28 février dernier, les écrans du monde entier sont remplis de panaches de fumée, de graphiques militaires, de porte-parole en uniforme récitant des bilans (...)

Sid Ahmed Hammouche
Sciences & Technologies

La littérature révélatrice des pièges de l’intelligence artificielle

Regarder le phénomène de société qu’est l’intelligence artificielle au travers du prisme de la littérature permet de questionner le monde dans lequel nous vivons. L’écriture romanesque peut éclairer, entre autres, la complexité des relations individuelles et collectives entretenues avec la politique, l’économie et la technique ainsi que les jeux de (...)

Solange Ghernaouti
Histoire

Comment les services britanniques ont influencé la presse suisse pendant la guerre froide

Pendant des décennies, la Suisse s’est pensée et a été perçue comme un observateur distant de la guerre froide. Neutre, prudente, à l’écart des blocs, elle aurait traversé l’affrontement Est-Ouest sans vraiment y prendre part. Cette représentation rassurante a durablement façonné la mémoire collective helvétique. Les archives racontent une autre (...)

Jean-Christophe Emmenegger
Sciences & Technologies

La fabuleuse histoire du drone Silver

Depuis plusieurs années, les drones envahissent notre quotidien. Certains s’en amusent, d’autres les utilisent pour livrer des colis, surveiller ou encore faire la guerre pour ne citer que quelques finalités de leurs usages civils ou militaires. Plutôt que de commenter l’actualité des conflits où ils sont impliqués, plutôt que d’évoquer (...)

Solange Ghernaouti
Politique, Sciences & Technologies

Et si les réseaux sociaux protégeaient la démocratie?

Alors qu’ils sont l’objet d’attaques verbales virulentes et d’une charge régulatrice coordonnée — notamment par la classe politique et les médias traditionnels —, nous n’avons jamais autant eu besoin des réseaux sociaux et de leur «malinformation» qu’aujourd’hui. Exemples et analyse.

Pierre Gallaz
SociétéAccès libre

La RTS face au désamour

Après le rejet — probable — de l’initiative de l’UDC sur la redevance à 200 francs, le service public de radio-télévision ne sera pas au bout de ses peines. Tout de même contraint de réduire ses coûts. Mis au défi par les critiques qui ont déferlé, même chez nombre de (...)

Jacques Pilet
Economie, Politique, Sciences & Technologies

Comment la Chine est devenue le nouveau leader technologique du monde

A Pékin, des robots humanoïdes exécutent des chorégraphies martiales avec une précision saisissante. Derrière le spectacle du Nouvel An chinois, une réalité s’impose: en deux décennies, la Chine s’est hissée au sommet de la hiérarchie technologique mondiale. Recherche scientifique, intelligence artificielle, transition énergétique, spatial… L’Empire du Milieu ne se contente (...)

Hicheme Lehmici
Sciences & Technologies, PhilosophieAccès libre

Le fossé cognitif s’élargit: l’IA évolue, mais nos questions suivent-elles?  

A mesure que l’intelligence artificielle progresse, elle révèle moins ses propres limites que les nôtres. Un fossé cognitif se creuse entre ceux qui apprennent à questionner, comprendre et gouverner l’outil, et ceux qui s’en remettent à ses réponses. Plus qu’un défi technologique, l’IA impose une transformation profonde de notre rapport (...)

Igor Balanovski
Société

Tataki ou le mépris de la RTS pour les jeunes

La chaîne de la RTS (Radio Télévision Suisse) destinée aux 15-24 ans, diffusée sur les plateformes digitales, a fait parler d’elle avec le départ soudain de son directeur. L’occasion de jeter un œil sur le travail de cette copieuse équipe.

Jacques Pilet
Politique

Epstein était-il vraiment un «agent russe», comme le suggèrent certains médias?

Les documents déclassifiés révèlent des contacts réels entre le financier pédocriminel et des figures russes, dont un ex-vice-ministre proche du FSB et des tentatives répétées de contacts avec Vladimir Poutine et Sergueï Lavrov. Si certains médias occidentaux y voient la marque d’un agent d’influence du Kremlin, les preuves d’une collaboration (...)

Martin Bernard
Sciences & Technologies

Pour un droit fondamental à ne pas être sous dépendance de l’IA et sous surveillance informatique

Le droit à ne pas être dépendant de l’IA va de pair avec celui de ne pas être mis systématiquement sous surveillance informatique. Cela pourrait être un nouveau droit humain fondamental contribuant à faire respecter une dizaine d’autres qui sont inscrits dans la Déclaration universelle des droits de l’homme adoptée (...)

Solange Ghernaouti
Sciences & Technologies

Des géants de la tech donnent désormais la priorité à la quête de sens

A contre-courant des discours focalisés sur la seule performance technologique, certains dirigeants de la Silicon Valley appellent désormais à rééquilibrer l’innovation vers ce qui donne sens à son usage. A mesure que l’intelligence artificielle transforme le travail et les compétences, la valeur se déplacerait vers des qualités longtemps associées aux (...)

Igor Balanovski
Sciences & Technologies

Le marché de l’IA stagne face à son angle mort: la gouvernance de l’usage

Si l’intelligence artificielle gagne en puissance, la valeur qu’elle génère ne suit pas toujours la même trajectoire. Non pas parce que la technologie plafonne, mais parce que nos usages, nos cadres mentaux et notre gouvernance tardent à évoluer. Entre complémentarité humain-machine, littératie numérique et enjeux économiques, une question s’impose: et (...)

Igor Balanovski
Sciences & Technologies

Au-delà des risques et des promesses, la force du grain de sable

Les événements récents, corroborés par la publication des derniers rapports annuels sur les risques, confirment la persistance des menaces existantes, désormais amplifiées par le développement de l’intelligence artificielle. Celles-ci s’inscrivent dans une dynamique de long terme marquée par la fragilisation des sociétés, sous l’effet conjugué des tensions géopolitiques, de l’érosion (...)

Solange Ghernaouti