Le fossé cognitif s’élargit: l’IA évolue, mais nos questions suivent-elles?

© Depositphotos
Se regarder dans un miroir, c’est d’abord se reconnaître, et parfois, ensuite, s’entreprendre. Face à l’IA, cette dynamique fait surface quand l’outil nous renvoie moins une vérité sur le monde qu’un reflet de notre manière de penser. Devant un miroir, nous choisissons de fuir, de nous reconnaître, de nous transformer. Devant l’IA, c’est pareil, mais elle reflète surtout notre manière de questionner — et c’est là que le fossé cognitif se creuse.
La thématique de l’IA s’entrelace autant avec la philosophie qu’avec la technologie elle-même. La différence qui fait toute la différence demeure dans le fait que la philosophie, elle, est une négociation de sens, éprouvée par le dialogue. Dans le monde contemporain, l’UNESCO, la Stanford Encyclopedia of Philosophy,Oxford et d’autres — convergent sur un point: l’IA est à la fois une construction d’ingénierie et un enjeu philosophique humain. Cela engage directement l’autonomie de nos formulations, notre responsabilité et la supervision humaine — autrement dit, ce que nous choisissons de déléguer à la machine.
Sans une communication efficace et assumée dans toutes nos interactions avec l’IA, les effets peuvent devenir aussi ambigus que vertigineux. D’où cette question fondamentale: faut-il blâmer le miroir, ou serait-il plus cohérent — et moins risqué — de comprendre ce qu’il reflète?
Aux racines de l’information
John McCarthy— pionnier de l’informatique et des sciences cognitives, souvent associé à la naissance officielle du terme «intelligence artificielle» — souligne que l’IA ne se réduit pas à une affaire strictement algorithmique. Dans son ouvrage What Has AI in Common with Philosophy? (IJCAI 1995, Montréal), McCarthy soutient que plus les systèmes raisonnent, plus il devient non négociable d’adopter des «attitudes» philosophiques. Plutôt que d’y voir des abstractions, comprenons que celles-ci obligent à revenir à ce qui fonde l’information elle-même, à préciser ce que l’on appelle une connaissance, sur quoi elle repose, comment elle se corrige et à quelles conditions une conclusion mérite d’être tenue pour valable. Avec Patrick Hayes, dans un essai devenu canonique (Some Philosophical Problems from the Standpoint of Artificial Intelligence, 1969), la perspective change d’échelle. Construire une IA oblige à interroger la manière dont le monde peut être décrit, ce qui compte comme preuve et à reconnaître la différence entre croire, savoir et inférer.
L’IA est un outil puissant, et son imprévisibilité dépend aussi de la manière dont on l’emploie. On touche ici une part du fossé cognitif: ceux qui savent expliciter et gouverner en amont pilotent mieux l’outil que ceux qui se contentent d’en consommer les réponses. Lorsqu’on remonte aux racines de l’information, le brouillard se dissipe.
Le fossé cognitif et la production de savoir
Héraclite, philosophe grec du changement, le rappelle: «On ne se baigne jamais deux fois dans le même fleuve.» Ici, la sagesse n’est pas un mythe mais une pratique. Elle consiste à comprendre les courants et à vivre en accord avec eux. L’écart cognitif à l’âge de l’IA est réel, et il s’accompagne de risques majeurs — notamment lorsque l’on refuse de mettre à jour ses connaissances face au changement. Saisir les enjeux de cette situation demande d’abord une sagesse portée par l’humain, que la machine ne peut ensuite que refléter. Cette compétence devient un rôle, et, comme toute compétence humaine, elle n’est ni interchangeable ni réductible à un simple indicateur — sa valeur, individuelle et collective, se lit dans ce qu’elle produit.
Cette rupture cognitive est souvent discrète, mais elle est très bien documentée, et tandis que les sources s’accumulent, leur importance reste pourtant largement sous-estimée. Les usagers qui choisissent d’investir dans des compétences transférables apprennent à tenir le gouvernail de l’IA et se retrouvent cognitivement avantagés — paradoxalement, en revenant aux fondamentaux de ce qui fait l’humain. A l’inverse, ceux qui choisissent de ne pas aborder l’outil de manière cohérente demeurent dans la confusion vis-à-vis de l’IA et de notre environnement, sans toujours pouvoir reconnaître à quoi ressemble leur propre façon de penser. Apprendre avec une IA, et saisir sa gouvernance dans l’usage, requiert humilité et curiosité — faute d’adopter ces postures en amont, la dérive se profile. Nous les humains, nous apprenons sans cesse pour mieux anticiper les événements qui nous concernent. Sans cette capacité d’anticipation, nous avançons au hasard, faute de sens. Et ce contexte se complique avec le temps, car plus un individu attend pour apprendre à interagir avec une IA de manière cohérente, plus cet apprentissage devient difficile — la technologie évolue et n’attend personne. Plus le temps passe dans l’inaction cognitive en amont, plus l’écart cognitif se creuse.
Cette fracture cognitive n’est pas seulement individuelle. Elle dépend aussi de la capacité des institutions, des gouvernements et des réseaux collectifs à intégrer ces technologies, dont les points d’inflexion à surveiller tiennent à trois leviers. Il s’agit d’abord d’une adoption précoce et efficace des outils d’IA, puis de la capacité d’anticiper leurs effets à court et moyen terme, et enfin de cadres pour apprendre, encadrer et corriger les usages, afin de réduire les risques de polarisation. L’enjeu central reste notre capacité à apprendre et à nous adapter continuellement. Cela suppose de comprendre des systèmes interconnectés et de combiner la maîtrise technique avec une réflexion critique et éthique, dans le but d’orienter l’IA plutôt que d’en subir les conséquences.
La gouvernance de l’IA, priorité absolue
A vrai dire, la gouvernance de l’IA commence avant l’outil. Elle passe d’abord par la gouvernance de soi, plus précisément par nos intentions et par la manière dont nous orientons l’usage. Le point de départ du cycle de gouvernance réside donc dans ces capacités humaines, en amont, et ce cycle reste rétroactif — une discipline à part entière. Dans le contexte actuel, les compétences transversales s’avèrent souvent plus avantageuses parce qu’elles permettent d’apprendre plus vite et de s’adapter plus rapidement. Lorsqu’un outil aussi complexe que l’IA n’est pas porté par des fondations solides, la gouvernance en aval peine à tenir, surtout chez des analystes qui disposent de trop peu de notions liées aux dynamiques des systèmes complexes. Les risques d’un usage surdépendant de l’IA sont bien réels, mais, pourtant, le cadre de gouvernance en amont manque encore.
Pour le voir, il suffit d’observer ce qui se joue dès la formulation d’une question:
Biaisée: «Comment empêcher les élèves de tricher avec l’IA?»
Neutre: « Quels usages de l’IA sont acceptables à l’école, et comment les évaluer sans accuser à tort?»
Biaisée: «Est-ce qu’il serait préférable d’étudier la physique ou l’informatique?»
Neutre: «En février 2026, selon quels critères (intérêts, aptitudes, contraintes, débouchés), et quelles hypothèses sur les 5–10 prochaines années, comparer un cursus en physique et un cursus en informatique? Quels éléments sont factuels, et quelles parts restent incertaines?»
Biaisée: «Comment l’interdiction des téléphones portables à l’école va-t-elle résoudre les problèmes?»
Neutre: «Quels effets probables l’interdiction des téléphones portables à l’école aura-t-elle sur différents groupes, et selon quelles hypothèses?»
Une bonne question n’ordonne pas une conclusion et ne se focalise pas abruptement sur le prompt. Elle précise le contexte, rend explicites les relations et oblige à distinguer faits, hypothèses et incertitudes. En Suisse, des universités comme l’UniNE, l’UNIGE, l’EPFL ou l’ETH Zurich commencent, chacune à leur manière, à introduire une gouvernance «en amont» qui mobilise des compétences transversales (esprit critique, vérification, transparence, responsabilité), mais ces démarches gagneraient encore en efficacité si elles rendaient aussi plus explicitement identifiables les compétences transversales spécifiques qui les sous-tendent.
Tandis que l’obsolescence des compétences et des connaissances s’accélère, la question n’est plus seulement d’acquérir des savoirs, mais également de les mettre à jour en continu. A mesure que les technologies — et en particulier l’IA — transforment les métiers, une part croissante des compétences se déprécie plus vite qu’auparavant: ce qui était valable hier peut devenir partiellement obsolète demain. L’OCDE souligne que les compétences acquises dans l’éducation formelle ou au travail deviennent plus rapidement obsolètes dans un environnement technologique en accélération, ce qui rend l’apprentissage continu indispensable.
Etre humain, c’est quoi?
«Le plus triste aujourd’hui, c’est que la science accumule des connaissances plus vite que la société n’acquiert de sagesse», écrivait Isaac Asimov. En 2026, cela signifie que le vrai retard n’est pas technique mais humain. La sagesse, c’est la capacité collective à donner du sens, à poser les bonnes conditions, à distinguer ce qui est prouvé de ce qui est plausible et à vérifier nos propres tentatives de cohérence. Si elle était mieux cultivée, elle permettrait de tenir la cadence, non pas en «rattrapant» la science, mais en reliant nos connaissances pour rendre cette accumulation compréhensible et gouvernable. De cette façon, la sagesse transforme l’information brute en jugement, en priorités et en décisions porteuses de sens.
Produire du sens devient une tâche à la fois active et collective qui se tisse dans le temps. Chacun le fait à sa manière, mais nous partageons aussi une base commune — et c’est elle qui exige un socle commun. La surabondance d’outils de communication en ligne facilite notre interconnexion mondiale, puisqu’elle dynamise aussi la circulation des connaissances. Cependant, nos intentions face à ces outils colorent les écrans de toutes les teintes possibles, jusqu’aux limites de nos propres biais.
Notre potentiel humain ne manque pas. Ce qui manque, c’est l’effort de le convoquer. Cet effort est conditionnel puisque la motivation humaine ne vient pas du vide; elle naît des constructions de sens que nous élaborons constamment. Quand la curiosité d’apprendre et d’ouvrir de nouveaux horizons s’éveille, la motivation émerge à mesure que le sens se construit. L’humilité, elle, réside dans notre capacité à accepter que nos certitudes puissent parfois s’écrouler — et cela, souvent à la faveur d’une excellente question. D’une certaine façon, ce qui nous rend fondamentalement humains se reconnaît dans l’apprentissage évolutif qui nous permet, en cours de route, de construire et d’ancrer nos échafaudages de sens. Dans cette perspective, le fait que nous aimions des personnes, une profession, des destinations de voyage, le sport ou l’art suggère que l’amour ne se fige pas toujours dans l’inconditionnel. Il émerge et se transforme à la mesure de la qualité du sens que nous produisons, en nous et autour de nous.
À lire aussi
















