Le fossé cognitif s’élargit: l’IA évolue, mais nos questions suivent-elles?  

Publié le 20 février 2026

© Depositphotos

A mesure que l’intelligence artificielle progresse, elle révèle moins ses propres limites que les nôtres. Un fossé cognitif se creuse entre ceux qui apprennent à questionner, comprendre et gouverner l’outil, et ceux qui s’en remettent à ses réponses. Plus qu’un défi technologique, l’IA impose une transformation profonde de notre rapport au savoir et à la responsabilité.

Se regarder dans un miroir, c’est d’abord se reconnaître, et parfois, ensuite, s’entreprendre. Face à l’IA, cette dynamique fait surface quand l’outil nous renvoie moins une vérité sur le monde qu’un reflet de notre manière de penser. Devant un miroir, nous choisissons de fuir, de nous reconnaître, de nous transformer. Devant l’IA, c’est pareil, mais elle reflète surtout notre manière de questionner — et c’est là que le fossé cognitif se creuse.

La thématique de l’IA s’entrelace autant avec la philosophie qu’avec la technologie elle-même. La différence qui fait toute la différence demeure dans le fait que la philosophie, elle, est une négociation de sens, éprouvée par le dialogue. Dans le monde contemporain, l’UNESCO, la Stanford Encyclopedia of Philosophy,Oxford et d’autres  — convergent sur un point: l’IA est à la fois une construction d’ingénierie et un enjeu philosophique humain. Cela engage directement l’autonomie de nos formulations, notre responsabilité et la supervision humaine — autrement dit, ce que nous choisissons de déléguer à la machine.

Sans une communication efficace et assumée dans toutes nos interactions avec l’IA, les effets peuvent devenir aussi ambigus que vertigineux. D’où cette question fondamentale: faut-il blâmer le miroir, ou serait-il plus cohérent — et moins risqué — de comprendre ce qu’il reflète?

Aux racines de l’information

John McCarthy— pionnier de l’informatique et des sciences cognitives, souvent associé à la naissance officielle du terme «intelligence artificielle» — souligne que l’IA ne se réduit pas à une affaire strictement algorithmique. Dans son ouvrage What Has AI in Common with Philosophy? (IJCAI 1995, Montréal), McCarthy soutient que plus les systèmes raisonnent, plus il devient non négociable d’adopter des «attitudes» philosophiques. Plutôt que d’y voir des abstractions, comprenons que celles-ci obligent à revenir à ce qui fonde l’information elle-même, à préciser ce que l’on appelle une connaissance, sur quoi elle repose, comment elle se corrige et à quelles conditions une conclusion mérite d’être tenue pour valable. Avec Patrick Hayes, dans un essai devenu canonique (Some Philosophical Problems from the Standpoint of Artificial Intelligence, 1969), la perspective change d’échelle. Construire une IA oblige à interroger la manière dont le monde peut être décrit, ce qui compte comme preuve et à reconnaître la différence entre croire, savoir et inférer.

L’IA est un outil puissant, et son imprévisibilité dépend aussi de la manière dont on l’emploie. On touche ici une part du fossé cognitif: ceux qui savent expliciter et gouverner en amont pilotent mieux l’outil que ceux qui se contentent d’en consommer les réponses. Lorsqu’on remonte aux racines de l’information, le brouillard se dissipe.

Le fossé cognitif et la production de savoir

Héraclite, philosophe grec du changement, le rappelle: «On ne se baigne jamais deux fois dans le même fleuve.» Ici, la sagesse n’est pas un mythe mais une pratique. Elle consiste à comprendre les courants et à vivre en accord avec eux. L’écart cognitif à l’âge de l’IA est réel, et il s’accompagne de risques majeurs — notamment lorsque l’on refuse de mettre à jour ses connaissances face au changement. Saisir les enjeux de cette situation demande d’abord une sagesse portée par l’humain, que la machine ne peut ensuite que refléter. Cette compétence devient un rôle, et, comme toute compétence humaine, elle n’est ni interchangeable ni réductible à un simple indicateur — sa valeur, individuelle et collective, se lit dans ce qu’elle produit.

Cette rupture cognitive est souvent discrète, mais elle est très bien documentée, et tandis que les sources s’accumulent, leur importance reste pourtant largement sous-estimée. Les usagers qui choisissent d’investir dans des compétences transférables apprennent à tenir le gouvernail de l’IA et se retrouvent cognitivement avantagés — paradoxalement, en revenant aux fondamentaux de ce qui fait l’humain. A l’inverse, ceux qui choisissent de ne pas aborder l’outil de manière cohérente demeurent dans la confusion vis-à-vis de l’IA et de notre environnement, sans toujours pouvoir reconnaître à quoi ressemble leur propre façon de penser. Apprendre avec une IA, et saisir sa gouvernance dans l’usage, requiert humilité et curiosité — faute d’adopter ces postures en amont, la dérive se profile. Nous les humains, nous apprenons sans cesse pour mieux anticiper les événements qui nous concernent. Sans cette capacité d’anticipation, nous avançons au hasard, faute de sens. Et ce contexte se complique avec le temps, car plus un individu attend pour apprendre à interagir avec une IA de manière cohérente, plus cet apprentissage devient difficile — la technologie évolue et n’attend personne. Plus le temps passe dans l’inaction cognitive en amont, plus l’écart cognitif se creuse.

Cette fracture cognitive n’est pas seulement individuelle. Elle dépend aussi de la capacité des institutions, des gouvernements et des réseaux collectifs à intégrer ces technologies, dont les points d’inflexion à surveiller tiennent à trois leviers. Il s’agit d’abord d’une adoption précoce et efficace des outils d’IA, puis de la capacité d’anticiper leurs effets à court et moyen terme, et enfin de cadres pour apprendre, encadrer et corriger les usages, afin de réduire les risques de polarisation. L’enjeu central reste notre capacité à apprendre et à nous adapter continuellement. Cela suppose de comprendre des systèmes interconnectés et de combiner la maîtrise technique avec une réflexion critique et éthique, dans le but d’orienter l’IA plutôt que d’en subir les conséquences.

La gouvernance de l’IA, priorité absolue

A vrai dire, la gouvernance de l’IA commence avant l’outil. Elle passe d’abord par la gouvernance de soi, plus précisément par nos intentions et par la manière dont nous orientons l’usage. Le point de départ du cycle de gouvernance réside donc dans ces capacités humaines, en amont, et ce cycle reste rétroactif — une discipline à part entière. Dans le contexte actuel, les compétences transversales s’avèrent souvent plus avantageuses parce qu’elles permettent d’apprendre plus vite et de s’adapter plus rapidement. Lorsqu’un outil aussi complexe que l’IA n’est pas porté par des fondations solides, la gouvernance en aval peine à tenir, surtout chez des analystes qui disposent de trop peu de notions liées aux dynamiques des systèmes complexes. Les risques d’un usage surdépendant de l’IA sont bien réels, mais, pourtant, le cadre de gouvernance en amont manque encore.

Pour le voir, il suffit d’observer ce qui se joue dès la formulation d’une question:

Biaisée: «Comment empêcher les élèves de tricher avec l’IA?»
Neutre: « Quels usages de l’IA sont acceptables à l’école, et comment les évaluer sans accuser à tort?»

Biaisée: «Est-ce qu’il serait préférable d’étudier la physique ou l’informatique?»

Neutre: «En février 2026, selon quels critères (intérêts, aptitudes, contraintes, débouchés), et quelles hypothèses sur les 5–10 prochaines années, comparer un cursus en physique et un cursus en informatique? Quels éléments sont factuels, et quelles parts restent incertaines?»

Biaisée: «Comment l’interdiction des téléphones portables à l’école va-t-elle résoudre les problèmes?»
Neutre: «Quels effets probables l’interdiction des téléphones portables à l’école aura-t-elle sur différents groupes, et selon quelles hypothèses?»

Une bonne question n’ordonne pas une conclusion et ne se focalise pas abruptement sur le prompt. Elle précise le contexte, rend explicites les relations et oblige à distinguer faits, hypothèses et incertitudes. En Suisse, des universités comme l’UniNE, l’UNIGE, l’EPFL ou l’ETH Zurich commencent, chacune à leur manière, à introduire une gouvernance «en amont» qui mobilise des compétences transversales (esprit critique, vérification, transparence, responsabilité), mais ces démarches gagneraient encore en efficacité si elles rendaient aussi plus explicitement identifiables les compétences transversales spécifiques qui les sous-tendent.

Tandis que l’obsolescence des compétences et des connaissances s’accélère, la question n’est plus seulement d’acquérir des savoirs, mais également de les mettre à jour en continu. A mesure que les technologies — et en particulier l’IA — transforment les métiers, une part croissante des compétences se déprécie plus vite qu’auparavant: ce qui était valable hier peut devenir partiellement obsolète demain. L’OCDE souligne que les compétences acquises dans l’éducation formelle ou au travail deviennent plus rapidement obsolètes dans un environnement technologique en accélération, ce qui rend l’apprentissage continu indispensable.

Etre humain, c’est quoi?

«Le plus triste aujourd’hui, c’est que la science accumule des connaissances plus vite que la société n’acquiert de sagesse», écrivait Isaac Asimov. En 2026, cela signifie que le vrai retard n’est pas technique mais humain. La sagesse, c’est la capacité collective à donner du sens, à poser les bonnes conditions, à distinguer ce qui est prouvé de ce qui est plausible et à vérifier nos propres tentatives de cohérence. Si elle était mieux cultivée, elle permettrait de tenir la cadence, non pas en «rattrapant» la science, mais en reliant nos connaissances pour rendre cette accumulation compréhensible et gouvernable. De cette façon, la sagesse transforme l’information brute en jugement, en priorités et en décisions porteuses de sens.

Produire du sens devient une tâche à la fois active et collective qui se tisse dans le temps. Chacun le fait à sa manière, mais nous partageons aussi une base commune — et c’est elle qui exige un socle commun. La surabondance d’outils de communication en ligne facilite notre interconnexion mondiale, puisqu’elle dynamise aussi la circulation des connaissances. Cependant, nos intentions face à ces outils colorent les écrans de toutes les teintes possibles, jusqu’aux limites de nos propres biais.

Notre potentiel humain ne manque pas. Ce qui manque, c’est l’effort de le convoquer. Cet effort est conditionnel puisque la motivation humaine ne vient pas du vide; elle naît des constructions de sens que nous élaborons constamment. Quand la curiosité d’apprendre et d’ouvrir de nouveaux horizons s’éveille, la motivation émerge à mesure que le sens se construit. L’humilité, elle, réside dans notre capacité à accepter que nos certitudes puissent parfois s’écrouler — et cela, souvent à la faveur d’une excellente question. D’une certaine façon, ce qui nous rend fondamentalement humains se reconnaît dans l’apprentissage évolutif qui nous permet, en cours de route, de construire et d’ancrer nos échafaudages de sens. Dans cette perspective, le fait que nous aimions des personnes, une profession, des destinations de voyage, le sport ou l’art suggère que l’amour ne se fige pas toujours dans l’inconditionnel. Il émerge et se transforme à la mesure de la qualité du sens que nous produisons, en nous et autour de nous.

S’abonner
Notification pour
2 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires

À lire aussi

Sciences & Technologies

Pour un droit fondamental à ne pas être sous dépendance de l’IA et sous surveillance informatique

Le droit à ne pas être dépendant de l’IA va de pair avec celui de ne pas être mis systématiquement sous surveillance informatique. Cela pourrait être un nouveau droit humain fondamental contribuant à faire respecter une dizaine d’autres qui sont inscrits dans la Déclaration universelle des droits de l’homme adoptée (...)

Solange Ghernaouti
Sciences & Technologies

Des géants de la tech donnent désormais la priorité à la quête de sens

A contre-courant des discours focalisés sur la seule performance technologique, certains dirigeants de la Silicon Valley appellent désormais à rééquilibrer l’innovation vers ce qui donne sens à son usage. A mesure que l’intelligence artificielle transforme le travail et les compétences, la valeur se déplacerait vers des qualités longtemps associées aux (...)

Igor Balanovski
Sciences & Technologies

Le marché de l’IA stagne face à son angle mort: la gouvernance de l’usage

Si l’intelligence artificielle gagne en puissance, la valeur qu’elle génère ne suit pas toujours la même trajectoire. Non pas parce que la technologie plafonne, mais parce que nos usages, nos cadres mentaux et notre gouvernance tardent à évoluer. Entre complémentarité humain-machine, littératie numérique et enjeux économiques, une question s’impose: et (...)

Igor Balanovski
Sciences & Technologies

Au-delà des risques et des promesses, la force du grain de sable

Les événements récents, corroborés par la publication des derniers rapports annuels sur les risques, confirment la persistance des menaces existantes, désormais amplifiées par le développement de l’intelligence artificielle. Celles-ci s’inscrivent dans une dynamique de long terme marquée par la fragilisation des sociétés, sous l’effet conjugué des tensions géopolitiques, de l’érosion (...)

Solange Ghernaouti
Sciences & Technologies

Les limites du contrôle dans le monde multipolaire

Dans un monde multipolaire de plus en plus interconnecté, la tentation du contrôle total se heurte aux lois de la complexité. A mesure que les systèmes gagnent en densité et en vitesse, les stratégies de domination révèlent leurs limites, exposant les acteurs les plus centralisateurs à des effets de retour (...)

Igor Balanovski
Sciences & Technologies

L’IA fossoyeuse de la démocratie et du politique

Dans un monde hyperconnecté, à l’heure de la dépendance informatique, les opérations d’influence et de désinformation ajoutées à la cybercriminalité et aux dysfonctionnements informatiques sont de plus en plus dévastatrices. L’intelligence artificielle comme les réseaux sociaux, leurs natures, modes de fonctionnement et les modèles économiques qui les sous-tendent, sont au (...)

Solange Ghernaouti
Sciences & Technologies

IA générative et travail: libération ou nouvelle aliénation?

L’avènement de l’intelligence artificielle, en particulier les modèles génératifs comme ChatGPT, semble annoncer une importante transformation de l’économie mondiale. Plus en profondeur, elle questionne le sens même du travail et de notre humanité. Tour d’horizon des enjeux humains, environnementaux et éducatifs de cette révolution numérique.

Jonathan Steimer
Sciences & Technologies

Intelligence artificielle: quelle place pour la liberté de la presse et le quatrième pouvoir?

Exercer son esprit critique alors que les promesses de facilité et de rapidité des systèmes d’IA nous invitent à l’endormir et à la paresse intellectuelle devient une nécessité vitale pour chacun d’entre nous. S’interroger sur ce que fait l’IA à la presse et aux médias est tout aussi impératif. Cela (...)

Solange Ghernaouti
Sciences & Technologies

Economie de la connaissance: un tournant éthique pour notre temps?

L’interconnexion mondiale a transformé l’économie. La valeur ne se crée plus seulement par les ressources ou la force de travail, mais par des systèmes qui apprennent, s’adaptent et utilisent l’information de manière intelligente. Autrement dit savoir apprendre, relier, contextualiser, interpréter, transmettre et créer du sens utilisable dans un environnement complexe. (...)

Igor Balanovski
Sciences & Technologies

Dossier médical et soins informatisés, la grande soumission 

Les douze hôpitaux du canton de Vaud (Suisse) ont attribué à Epic Systems Corporation le remplacement du dossier patient informatisé. Derrière les arguments d’efficacité avancés pour justifier ce choix technique et organisationnel, l’opacité des coûts et la dépendance croissante aux solutions d’intelligence artificielle laissent présager une maîtrise toujours plus incertaine (...)

Solange Ghernaouti
Sciences & Technologies

Quand l’innovation vous pousse à mourir

L’innovation est devenue un impératif de survie plus qu’un moteur de progrès. Aucun dirigeant n’incarne mieux cette tension qu’Elon Musk, dont l’écosystème, mêlant voitures, satellites, robots et IA, fonctionne comme une machine à repousser l’effondrement et où chaque avancée devient une dette envers la suivante. Un cas d’école pour comprendre (...)

Tarik Lamkarfed
Histoire

80 ans de l’ONU: le multilatéralisme à l’épreuve de l’ère algorithmique

L’Organisation des Nations unies affronte un double défi: restaurer la confiance entre Etats et encadrer une intelligence artificielle qui recompose les rapports de pouvoir. Une équation inédite dans l’histoire du multilatéralisme. La gouvernance technologique est aujourd’hui un champ de coopération — ou de fracture — décisif pour l’avenir de l’ordre (...)

Igor Balanovski
Sciences & TechnologiesAccès libre

Compétences indispensables et professions émergentes pour un futur responsable avec l’IA

L’Histoire éclaire le présent et préfigure les futurs possibles. Les conférences de Macy (1946 1953) montrent comment le dialogue entre disciplines comble les angles morts de la connaissance et pose les bases de l’intelligence artificielle. Des enseignements essentiels pour guider l’utilisation responsable de celle-ci dans un monde où tout s’influence (...)

Igor Balanovski
Sciences & TechnologiesAccès libre

Comment naviguer dans un monde en perpétuelle mutation

Dans un océan d’informations, nos choix dépendent moins de ce que nous savons que de notre capacité à relier et organiser nos connaissances. Entre philosophie, psychologie et intelligence artificielle, découvrez comment naviguer dans un monde qui se reconfigure sans cesse afin de tirer parti du chaos et transformer l’incertitude en (...)

Igor Balanovski
Sciences & Technologies

Des risques structurels liés à l’e-ID incompatibles avec des promesses de sécurité

La Confédération propose des conditions d’utilisation de l’application Swiyu liée à l’e-ID qui semblent éloignées des promesses d’«exigences les plus élevées en matière de sécurité, de protection des données et de fiabilité» avancées par l’Administration fédérale.

Solange Ghernaouti
PhilosophieAccès libre

Quand l’IA gagne en puissance, la philosophie gagne en nécessité

A l’heure où les machines imitent nos mots, nos gestes et nos doutes, la frontière entre intelligence artificielle et intelligence humaine se brouille. L’IA, miroir de nos structures mentales, amplifie nos forces autant que nos dérives. Face à cette accélération, la philosophie s’impose: elle éclaire les liens, les contextes, les (...)

Igor Balanovski