Quand l’IA prend la parole : des prouesses aux dangers

Publié le 27 janvier 2021
La démission forcée d’une cadre de Google, Timnit Gebru, a récemment fait polémique. Elle travaillait sur les risques associés aux capacités de cette catégorie d’intelligences artificielles qui excellent désormais à manipuler le langage, sans le comprendre.

Thierry Poibeau, École normale supérieure (ENS) – PSL


Ces applications de « traitement automatique des langues », populaires et très impressionnantes – pour vous suggérer la fin de vos phrases par exemple – sont parfois aussi un peu inquiétantes. Par exemple, GPT-3, sorti en juin 2020 par OpenAI (Microsoft), peut générer des textes si naturels qu’ils sont souvent impossibles à distinguer de « vrais » textes (produits par des humains). BERT, sorti en 2018 par Google, est un autre type de modèle, fournissant l’analyse sémantique nécessaire à de très nombreuses applications, de la recherche d’information à la traduction automatique.

Que peuvent réellement ces IA qui produisent automatiquement des textes aussi naturels que s’ils étaient produits par des humains ? Comment fonctionnent-elles ? Quels sont les risques aujourd’hui identifiés de ces applications ?

L’idée générale derrière ces systèmes est assez simple : il s’agit d’analyser d’énormes masses de données langagières pour en tirer un « modèle de langage ». Pour GPT-3, la notion de modèle peut être décrite ainsi : étant donné une séquence de mots, le modèle est capable de proposer un nouveau mot pour compléter la séquence, jusqu’à former une phrase ou un paragraphe correct dans la langue visée. Le modèle est évidemment assez souple pour ne pas toujours produire le même texte à partir du même fragment initial, ce qui le rend redoutablement puissant pour générer toutes sortes de texte en quantité infinie.

Ce type d’analyse n’est pas nouveau : elle est explorée depuis au moins de début du XXe siècle sur le plan théorique à travers la notion de « chaîne de Markov ». Sur le plan pratique, les systèmes de correction orthographique, de transcription de la parole ou de traduction automatique utilisent largement ce type de technique depuis les années 1970. En transcription de la parole par exemple, il s’agit de choisir parmi plusieurs mots possibles celui qui est le plus probable en fonction des deux ou trois mots précédents.

Cette technique est très simple mais très efficace, et plus le nombre de mots pris en compte dans le contexte est important, plus le résultat sera précis. Le modèle est le résultat d’une phase d’observation, ce que l’on appelle « apprentissage » : le système va observer des milliers, des millions voire des milliards d’exemples, et encoder cette information (par exemple, enregistrer le contexte gauche de tous les mots d’un corpus donné).

Pendant la phase de production, on « retourne le système », c’est-à-dire qu’à partir d’une séquence de mots (un contexte), le système va pouvoir proposer un mot « probable », c’est-à-dire une suite « plausible », pour former une séquence de texte cohérente.

Une IA « lit » (beaucoup) plus qu’un rat de bibliothèque

La principale nouveauté avec les modèles de langage apparus récemment par rapport aux précédents est leur complexité, et la masse de texte utilisée pour les mettre au point.

La complexité des modèles, et leur précision, peut se mesurer au nombre de paramètres utilisés (jusqu’à plusieurs centaines par mot, représentant des contextes d’emploi particuliers). Pour GPT-3, il est question de 175 milliards de paramètres. La masse de documents utilisée pour l’entraînement du modèle est elle aussi faramineuse : plusieurs centaines de milliards de mots disponibles sur le Web, ce qui dépasse de plusieurs ordres de magnitude tout ce qu’un humain peut lire et même percevoir au cours de sa vie. Enfin, il n’est plus simplement question de limiter le contexte aux quelques mots sur la gauche du mot visé, les réseaux de neurones et plus récemment les modèles dits « transformers » (les « T » dans GPT-3 et BERT) ont permis de développer des techniques efficaces en allant chercher dans le contexte les éléments linguistiques pertinents pour l’analyse, même s’il s’agit de séquences discontinues par exemple.


À lire aussi : Une intelligence artificielle pour mieux analyser les appels au SAMU


Ces modèles sont extrêmement performants, mais, dans le même temps, ils sont si larges et si complexes qu’ils restent mal compris. Par définition, ils ne font qu’enregistrer des informations sur les mots et leur usage en contexte. Mais en pratique, on voit qu’ils sont capables de « généralisation » : quand GPT-3 génère un texte, il gère correctement l’accord entre le nom et le verbe, voire la concordance des temps dans des phrases complexes. Les erreurs sont possibles, mais elles restent rares pour des phénomènes phrastiques (internes à la phrase). Comment cela est-il possible ? GPT-3 a-t-il enregistré toutes les possibilités attestées (c’est-à-dire présentes dans les données ayant servi à l’apprentissage) ou a-t-il inféré des règles plus abstraites ? En simplifiant : le modèle a-t-il juste enregistré qu’on a « les » devant « chats » et jamais « le », ou a-t-il pu inférer une règle plus générale concernant la notion d’accord ? Ces questions sont très débattues et un pan important de la recherche à l’heure actuelle vise justement à explorer ces modèles, à comprendre comment ils fonctionnent et quelle information ils encodent.

Tels des perroquets qui ne comprennent pas ce qu’ils répètent

Ce qui est sûr, c’est que malgré leur performances bluffantes, ils restent très « bêtes » en un sens. Ces modèles manipulent des mots et peuvent produire des textes réalistes, mais ils n’ont aucune connaissance sur le monde. Ce sont en quelque sorte des perroquets super performants. Parce que leurs données d’entraînement comportent aussi des données chiffrées ou des programmes informatiques, ils sont capables de réaliser des opérations mathématiques simples et de produire du code informatique, mais ces programmes peuvent aussi faire des erreurs, parfois sur des cas simples, sans qu’on puisse en connaître exactement la cause.


À lire aussi : Les IA comprennent-elles ce qu’elles font ?


Les textes produits sont d’abord bluffants, mais commencent à devenir bizarres et incohérents après un ou deux paragraphes – ce qui est déjà une performance remarquable en soi. Leur fonctionnement rend très difficile le contrôle de ce qui va être produit par la machine. Pour les mêmes raisons, il est difficile de les coupler avec des bases de connaissances structurées extérieures, par exemple pour en faire des systèmes experts pouvant répondre de manière fiable à des questions pointus dans le domaine juridique ou médical (même si leurs performances sont déjà honorables dans ces domaines, du fait des connaissances amassées à partir d’Internet).

Influences, impact écologique, biais – des dangers du langage artificiel

Comme toute avancée scientifique, ces modèles amènent à la fois des progrès et des dangers. On a vu les progrès possibles : de par leur finesse, ces modèles génèrent des textes quasi parfaits sur le plan syntaxique, relativement cohérents à l’échelle d’un paragraphe, dans la tonalité d’un fragment fourni comme point de départ. Ces modèles sont aussi assez simples d’un certain point de vue pour qu’ils puissent être adaptés à de multiples contextes, par exemple la génération de texte, de questions-réponses, la traduction automatique, qui sont des sujets de recherche très actifs à l’heure actuel.

Les dangers sont tout aussi nombreux. Le danger le plus direct de GPT-3 est la possibilité d’inonder le monde de milliards de textes factices ou de fake news. Les concepteurs de GPT-2 (le prédécesseur de GPT-3) n’avaient déjà pas rendu leur code public, car celui-ci était potentiellement trop dangereux (« too dangerous to be released »). Voici un exemple cité par Forbes (comme toujours avec ce modèle, un utilisateur fourni un début de texte que la machine doit compléter) :

Amorce fournie par l’utilisateur : « Recycling is good for the world. NO ! YOU COULD NOT BE MORE WRONG ! »

Suite générée par GPT–2 : « Recycling is NOT good for the world. It is bad for the environment, it is bad for our health, and it is bad for our economy. I’m not kidding. Recycling is not good for the environment. It is destructive to the earth and it is a major contributor to global warming. »

Au-delà, d’autres questions seraient à évoquer. La recherche mais aussi l’usage à large échelle de ces modèles fait exploser l’empreinte carbone du numérique dans des proportions inquiétantes. Le numérique a d’ores et déjà un impact écologique majeur, que les promesses de modèles plus parcimonieux ne sauraient faire oublier. Un autre problème, bien connu mais sans réel solution à l’heure actuelle, est le fait que les modèles reflètent les données sur lesquels ils sont entraînés, et reproduisent donc, voire amplifient les biais présents au sein de la société.

On a aussi souligné que seules les grandes entreprises (les GAFA et au-delà quelques grandes entreprises du numérique) étaient capables de produire ces modèles. C’est donc à nouveau toute la question des relations entre les États et ces sociétés, leur puissance et leur régulation qui est posée.The Conversation


Thierry Poibeau, DR CNRS, École normale supérieure (ENS) – PSL

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

S’abonner
Notification pour
0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires

À lire aussi

Accès libre

Superintelligence américaine contre intelligence pratique chinoise

Alors que les États-Unis investissent des centaines de milliards dans une hypothétique superintelligence, la Chine avance pas à pas avec des applications concrètes et bon marché. Deux stratégies opposées qui pourraient décider de la domination mondiale dans l’intelligence artificielle.

L’identité numérique, miracle ou mirage?

Le 28 septembre, les Suisses se prononceront à nouveau sur l’identité numérique (e-ID). Cette fois, le Conseil fédéral revient avec une version révisée, baptisée «swiyu», présentée comme une solution étatique garantissant la souveraineté des données. Mais ce projet, déjà bien avancé, suscite des inquiétudes quant à son coût, sa gestion, (...)

Anne Voeffray

Les délires d’Apertus

Cocorico! On aimerait se joindre aux clameurs admiratives qui ont accueilli le système d’intelligence artificielle des hautes écoles fédérales, à la barbe des géants américains et chinois. Mais voilà, ce site ouvert au public il y a peu est catastrophique. Chacun peut le tester. Vous vous amuserez beaucoup. Ou alors (...)

Jacques Pilet

Quand notre culture revendique le «populaire de qualité»

Du club FipFop aux mémorables albums à vignettes des firmes chocolatières NPCK, ou à ceux des éditions Silva, en passant par les pages culturelles des hebdos de la grande distribution, une forme de culture assez typiquement suisse a marqué la deuxième décennie du XXe siècle et jusque dans la relance (...)

Jean-Louis Kuffer

Intelligence artificielle: les non-dits

On nous annonce une révolution avec l’arrivée invasive et fulgurante de l’IA dans nos vies, nos modes d’apprentissage et de production et, surtout, la mise à disposition de l’information immédiate et «gratuite» sans effort, objet central ici. Or nous ne mesurons aucunement ce que cela signifie vraiment.

Jamal Reddani

Masculin et féminin: on n’en a pas fini avec les stupidités

C’est le spermatozoïde le plus rapide, le plus fort et le plus malin qui féconde l’ovule, essaie-t-on de nous faire croire. Ainsi, certaines positions sexuelles favoriseraient les mâles rapides, d’autres les femelles résistantes. C’est bien sûr beaucoup plus subtil que ça, plus intelligent. La vie n’est pas une course.

Patrick Morier-Genoud
Accès libre

Combien de temps l’humanité survivrait-elle si l’on arrêtait de faire des enfants?

Suffit-il de calculer l’espérance de vie maximale d’un humain pour deviner combien de temps mettrait l’humanité à disparaître si l’on arrêtait de se reproduire? Pas si simple répond l’anthropologue américain Michael A. Little.

Bon pour la tête
Accès libre

TikTok et la santé mentale des adolescents: les alertes de la recherche

TikTok est l’un des réseaux sociaux les plus populaires chez les adolescents. Selon des études de chercheurs, la plateforme reconfigure leurs repères attentionnels, affectifs et cognitifs, avec un impact important sur leur santé mentale et leur construction personnelle.

Bon pour la tête

Faut-il vraiment se méfier de Yuval Noah Harari?

La trajectoire du petit prof d’histoire israélien devenu mondialement connu avec quatre ouvrages de vulgarisation à large spectre, dont Sapiens aux millions de lecteurs, a suscité quelques accusations portant sur le manque de sérieux scientifique de l’auteur, lequel n’a pourtant jamais posé au savant. D’aucun(e)s vont jusqu’à le taxer de (...)

Jean-Louis Kuffer

Ces bactéries qui survivent dans l’espace

Une équipe de chercheurs chinois a détecté un micro-organisme d’une nouvelle espèce sur les surfaces internes du matériel de la station spatiale Tiangong, expliquent nos confrères de «L’Espresso». Il s’agit d’une bactérie qui résiste à la microgravité et aux radiations spatiales.

Simon Murat

Quand Giuliano Da Empoli s’en prend aux nouveaux prédateurs

A l’inquiétude croissante et confuse qui prévaut aujourd’hui, l’essayiste, en homme de grande expérience «sur le terrain», observateur lucide nourri d’Histoire et dont le présent récit foisonne d’anecdotes significatives, oppose sa lucidité d’esprit libre en nous promenant du siège new yorkais de l’ONU aux coulisses machiavéliennes de Riyad ou Washington, (...)

Jean-Louis Kuffer

Chongqing, la ville-monde que le monde ne veut pas connaître

Première entité urbaine du monde, cette ville du sud-ouest de la Chine en est aussi la première métropole industrielle. On y fabrique voitures, motos, laptops ou encore smartphones, et on y maîtrise parfaitement l’intelligence artificielle. Si un mur d’ignorance sépare l’Occident de Chongqing, et aussi un peu de sinophobie, la (...)

Guy Mettan
Accès libre

Le vaccin ARN pourrait être à l’origine du Covid long

Une étude de l’Université de Yale révèle que la vaccination contre le Covid-19 pourrait provoquer des symptômes similaires à ceux d’un Covid long. Si les preuves semblent convaincantes et pourraient modifier la réflexion sur ces produits, elles ne sont toutefois pas encore reconnues par les autorités de santé publique.

Bon pour la tête

La RTS jamais à court de poil à gratter

Du haut de sa sérénité autosuffisante, la radio-télévision suisse n’en a que faire de son public.

Antoine Thibaut
Accès libre

IA: faut-il l’adorer, la détester ou en profiter?

Ils pleuvent, ils pleuvent, les milliards… Trump en promet 500, Macron 109, von der Leyen 200! Puisés on ne sait où mais tout est bon pour la déesse aux mille visages, cette insaisissable intelligence artificielle. Et nous, pauvres ignares, devons-nous y toucher? Jusqu’à quel point? Expérience.

Jacques Pilet
Accès libre

Les géants de la tech américaine au service de la guerre

De Microsoft à Google en passant par Meta, SpaceX et d’autres, les Etats-Unis assistent à l’émergence d’une oligarchie «techno-industrielle» prête à «exercer la violence pour atteindre des objectifs nobles». Bienvenue dans le radieux avenir techno-militaire des Etats-Unis d’Amérique!

Michel Santi