« L’IA ne pense pas : elle nous oblige à penser autrement ». Entre vigilance et optimisme raisonné, le physicien et philosophe nous invite à dépasser le réflexe de fascination technologique pour retrouver une posture plus active : celle d’un compagnonnage lucide entre l’intelligence humaine et la puissance des machines.
Q : L’intelligence artificielle s’impose désormais dans tous les domaines. Faut-il la considérer comme un tournant technologique ou comme un tournant de civilisation ?
Étienne Klein : Les deux, sans doute. L’IA n’est pas qu’un nouvel outil : elle modifie la manière dont nous produisons, diffusons et validons la connaissance. C’est un bouleversement anthropologique : pour la première fois, des machines participent à la fabrication du sens. Or notre cerveau, lui, reste soumis à ses vieux réflexes : il préfère ce qui le conforte à ce qui le contredit. Dans l’univers numérique, où toutes les thèses coexistent, cela favorise ce que j’appelle la « force du faux » : le faux, plus spectaculaire que le vrai, circule dix fois plus vite. L’enjeu n’est donc pas seulement technique : c’est une révolution de la pensée critique.
Q : Dans un monde technologique où tout s’accélère, existe-t-il encore une place pour la réflexion ?
E.K. : Oui, mais à condition de la cultiver. Je le vois avec mes étudiants et chacun peut le constater à son échelle : ceux qui prennent le temps de réfléchir avant d’interroger une IA en tirent un vrai bénéfice intellectuel. Les autres délèguent tout à la machine et « démusclent » leur cerveau. L’IA ne doit pas être une béquille, mais un prolongement de la pensée ; sinon, elle appauvrit notre rapport à la connaissance. Il y a de l’effort de comprendre une joie humaine de l’intellect, c’est-à-dire une satisfaction profonde de trouver par soi-même, qui laisse une trace durable dans la mémoire. C’est cette joie-là qu’il faut préserver, car elle fait partie de notre humanité.
Q : Chaque grande révolution technique bouleverse notre rapport au monde. En quoi l’IA nous oblige-t-elle, nous aussi, à nous réinventer ?
E.K. : L’histoire montre que les ruptures technologiques ne détruisent pas la créativité humaine, elles la déplacent. J’aime faire le parallèle avec la naissance de la photographie : lorsque l’appareil photo est apparu, les peintres ont cru leur art menacé. Et c’est en réaction à cette peur qu’ils ont inventé l’abstraction : un essor de l’esprit vers ce que la machine ne pouvait pas faire. L’IA nous met aujourd’hui devant le même défi : à nous d’inventer ce que la machine ne sait pas encore penser.
Q : Cette alliance homme-machine pose néanmoins la question de la confiance. Peut-on vraiment « croire » une IA ?
E.K. : Le mot « intelligence » dans intelligence artificielle est trompeur. En anglais, intelligence signifie d’abord traitement de l’information, pas raison. Les machines traitent des données ; elles ne comprennent pas. Quand une IA donne un résultat, elle ne dit pas par quel cheminement elle y est parvenue. Face à cela, notre esprit critique devient inopérant : soit on croit, soit on doute, sans pouvoir arbitrer. C’est un enjeu majeur pour toutes les décisions qui engagent des vies humaines ou des choix collectifs.
Je le vois par exemple au CEA, où nous surveillons les alertes aux tsunamis en Méditerranée. L’IA peut signaler une vague anormale… mais sur quels critères ? Personne ne sait exactement. Or une fausse alerte provoque la panique ; une alerte manquée peut être dramatique. Dans de tels cas, la confiance aveugle est impossible : il faut des géophysiciens pour interpréter, argumenter, juger. L’IA n’est donc pas un oracle ; elle reste un outil, précieux mais fragile, qui exige que nous gardions la main sur le sens et la décision.
Q : Vous évoquez aussi une « fatigue de l’intelligence » chez les jeunes ingénieurs. Qu’entendez-vous par là ?
E.K. : En France, nous observons que beaucoup de jeunes, pourtant brillants en physique ou en mathématiques, ne veulent plus exercer le métier d’ingénieur : ils partent vers la finance ou le conseil. Ils se sentent dépassés par la complexité technique. Plus la technologie devient performante, moins on comprend comment elle fonctionne. Cette opacité crée un sentiment d’impuissance : on admire la machine, mais on ne sait plus la maîtriser. C’est une « honte prométhéenne » : la fierté d’avoir conçu des outils puissants mêlée à la peur de ne plus les comprendre. Dans un monde où les systèmes deviennent des boîtes noires, la première urgence est de réapprendre à expliquer.
Q : Comment réintroduire cette culture de la compréhension, dans l’entreprise comme dans la vie quotidienne ?
E.K. : Par la pédagogie et l’expérience. À Centrale, nous avons lancé des ateliers d’écriture sans aucun support numérique. Les étudiants redécouvrent la joie de formuler, de penser ensemble. Ce n’est pas de la nostalgie : c’est une façon de réancrer l’intelligence humaine dans l’exercice de la pensée.
Dans les entreprises aussi, c’est la même logique : il faut apprendre à comprendre ce qu’on utilise. Former à l’IA, ce n’est pas seulement enseigner des outils, c’est enseigner une méthode : apprendre à questionner les résultats, à douter, à argumenter. Ce sont ces compétences critiques qui feront la différence entre un utilisateur passif et un professionnel augmenté. Il faut former, expérimenter, débattre : c’est ainsi qu’on évite de devenir de simples consommateurs d’intelligence artificielle.
Q : On connaît votre admiration pour Albert Einstein. Qu’aurait-il dit sur l’IA d’après vous ?
E.K. : Je pense qu’Einstein ne se sentirait pas concurrencé par l’IA, et à mon avis, il aurait raison (comme souvent). Lorsqu’en 1915 il publia sa théorie de la relativité générale, les physiciens disposaient d’infiniment moins de données qu’aujourd’hui et, pourtant, il a trouvé les bonnes équations. Imaginons maintenant que nous soyons dans un monde où nous aurions toutes les données dont les physiciens disposent aujourd’hui, mais où la théorie de la relativité générale n’aurait pas été découverte. Les meilleurs algorithmes, nourris avec toutes ces données, seraient-ils capables, par une sorte d’induction théorique, de formaliser les bons concepts et de reconstituer par eux-mêmes les équations d’Einstein ? La réponse est : non.
Q : Si vous deviez laisser une question ouverte à nos lecteurs – dirigeants et professionnels de l’IT – quelle serait-elle ?
E.K. : Je leur demanderais : jusqu’où voulons-nous déléguer notre intelligence ? La vraie modernité ne consiste pas à confier nos décisions aux algorithmes, mais à comprendre comment ils transforment notre manière de penser. L’IA n’est pas là pour nous remplacer, mais pour nous obliger à redécouvrir ce que penser veut dire. C’est peut-être là, paradoxalement, sa plus grande vertu : nous ramener à l’essentiel, à savoir la part de discernement, de créativité et de joie intellectuelle que rien ne pourra jamais automatiser.
[EN SAVOIR PLUS SUR ETIENNE KLEIN]
Etienne Klein est physicien et philosophe des sciences, membre de l’Académie des Technologies. Il dirige le Laboratoire de Recherche sur les Sciences de la
Matière du CEA, dont les travaux portent sur la philosophie de la physique et l’éthique appliquée. Il enseigne la philosophie des sciences à CentraleSupélec et intervient toutes les semaines sur France-Culture dans l’émission La conversation scientifique.
Il a récemment publié L’éternité béante (Futuropolis, 2024) et Transports physiques (Gallimard, 2025).
Ce contenu est dans notre Symbiotique Magazine.
Retrouvez l’intégralité de tous nos contenus :
https://www.everience.com/wp-content/uploads/2025/10/Symbiotic-Magazine-n%C2%B01.pdf?x26457&x36834