"L'IA : obsolescence de la pensée humaine ou hybridation féconde ? "
PENSER L’INTELLIGENCE ARTIFICIELLE… DEPOSSESSION (DANS LE SENS D’UNE OBSOLESCENCE DE L’HUMAIN) OU HYBRIDATION FECONDE ?
Nous n’avons pas de boule de cristal pour prédire jusqu’où pourront nous conduire les progrès de l’IA, et les avis sur la question sont très divergents. Le spectre souvent agité d’une « IA générale » surpuissante, dotée de conscience et d’émotion, devenu totalement indépendante, capable de prendre définitivement l’ascendant sur les êtres humains et de les dominer, obscurcit considérablement la discussion, et s’avère pour le moment peu crédible. C’est la raison pour laquelle nous laisserons volontairement de côté cette perspective qui finit pas donner à l’IA une dimension spirituelle ou sacrée. Contentons-nous des faits, qui sont déjà assez « bluffants »… Le saut franchi entre un moteur de recherche comme Google et une IA conversationnelle comme Chat GPT est spectaculaire...
L’apparition de Chat GPT en novembre 2022 a provoqué une véritable révolution dans les esprits. Mais l’IA a plus de 20 ans, ne cédons pas trop vite au présentisme, l’externalisation du cerveau humain dans la boîte de l’ordinateur était déjà décrite avec un bel optimisme par Michel Serres[1]. Beaucoup plus critique, Marcel Gauchet s’interrogeait sur l’illusion d’un savoir qui serait là, prêt à être utilisé dans la boite… Mais est-ce vraiment et toujours une illusion, avec l’avènement des intelligences génératives ? Ce n’était pas vrai auparavant tant il s’avérait que la recherche d’informations valides et cohérentes entre elles, organisées, hiérarchisées, sur le Net, est en relation directe avec le niveau cognitif ou culturel déjà acquis par celui qui cherche : on trouvait sur Internet à la mesure de ce qu’on pouvait déjà connaître. Mais aujourd’hui, il est sans doute nécessaire, avec les intelligences conversationnelles, de se demander s’il s’agit bien d’une illusion ou si, effectivement, moyennant un entraînement réduit (savoir correctement énoncer les « prompts » à la machine par rapport à la question posée), nous pouvons avec ces outils faire en effet l’économie de notre propre pensée ou apprentissage (c’est la différence entre un moteur de recherche comme Google et une IA comme Chat GPT). Quoiqu’il en soit, la menace est toujours la même : penser pouvoir faire l’économie de l’appropriation du savoir et de la pensée[2]. C’est le sens même de l’école qui est mis en question avec cette technologie.… Imaginons des cours entièrement réalisés par l’IA, et des devoirs également réalisé par l’IA puis corrigés par elle… C’est en effet le sens profond de la nécessité de l’école qui s’en trouve affecté. D’ici quelques années, tous les contenus produits par l’IA serviront à leur tour aux futures IA pour répondre à nos requêtes. Ces contenus seront rapidement plus nombreux que les contenus spécifiquement humains. Les chatbots, sans que nous le sachions nécessairement, entreront alors en conversations directement entre eux…
Nous venons en quelques mots de décrire une version pessimiste (mais étayée), ou plutôt un des scénarios crédibles et inquiétants, celui d’une dépossession programmée de ce qui a appartenu en propre, depuis l’origine des temps, à l’être humain, à savoir sa capacité à dire je, à penser, à raconter. Cela ne concerne pas seulement le texte, mais la totalité des formes d’art, ce que nous pourrions appeler l’art sans signataires : délégation à de l’IA des films, des acteurs, des musiques etc. Mini séries chinoises où tout est généré par des systèmes. Faire son propre petit film (self-film, self-musique, self-littérature), à partir d’ingrédients choisis par nous-mêmes, au lieu de se confronter à la rencontre et à l’altérité des œuvres proposées par quelqu’un d’autre… Les algorithmes des réseaux sociaux entretenaient déjà cet enfermement. Nous voyons poindre l’ouragan terrible provoqué dans le monde de la culture : traducteurs, comédiens, scénaristes, compositeur, etc. Avec les intelligences génératives, ce sont les tâches intellectuelles et créatives elles-mêmes qui seraient mobilisées par la machine[3], ce qui inaugurerait un changement anthropologique qui pourrait aller jusqu’à rendre obsolète l’intelligence humaine elle-même.
Comment formuler le problème qui se pose alors devant nous ? De la façon suivante : parviendrons-nous à hybrider nos compétences avec la machine ? A collaborer intelligemment avec elle ? Contrairement à ce que nous pourrions penser, la bonne question n’est pas d’évaluer la machine par rapport à l’intelligence humaine ; il y a toujours eu dans l’histoire de l’humanité des esprits agencés à des processus prothétiques, ce que nous pourrions appeler des hybridations. Dans cette interface qui se joue entre le cerveau et la machine numérique, nous sommes alors en droit de nous demander ce qui se passerait et ce que deviendrait homo sapiens s’il renonçait à lire et à écrire en même temps qu’il utilise les IA génératives. Un livre récent de Raphaël Gaillard[4]pose bien le problème : il y a deux grands moments de l’hybridation de l’humanité ; d’abord l’avènement de l’écriture qui signe le passage de la préhistoire à l’histoire humaine : en déposant hors de soi notre savoir par l’écriture (première forme d’externalisation de notre cerveau), et en se le réappropriant par la lecture, cette hybridation a considérablement fait progresser homo sapiens, l’a « augmenté ». Le deuxième grand moment d’hybridation de l’humanité est l’avènement du numérique et notamment les intelligences artificielles génératives. Ainsi, renoncer à la lecture et à l’écriture au profit de l’IA signifierait que nous lui cédons notre propre intelligence. Rien de fatal bien sûr, mais un risque réel. Cette seconde grande hybridation doit servir au contraire, comme la première (l’écriture), en devenant un véritable partenaire de l’IA (comme c’est par exemple déjà le cas avec Google), une véritable augmentation d’homo sapiens… Mais encore une fois, la partie n’est pas gagnée automatiquement. Le risque principal étant que nous déléguions entièrement à la machine ces compétences intellectuelles, et que nous devenions de simples ventriloques (de ce que dit la machine). Ne va-t-on pas s’incliner devant l’IA comme nous le faisions auparavant devant les oracles, les sorciers ou les prêtres ? L’IA est-elle notre nouveau Dieu ?
La thèse de Clément Camar-Mercier (« La tentation artificielle », 2025), en affirmant que les pratiques autour de l’IA rejoignent les fonctions religieuses, va dans ce sens. A la place désormais vacante de l’ancien Dieu, ce nouveau Dieu serait à l’image du capitalisme numérique mondialisé. Ces fonctions religieuses sont étroitement interdépendantes.
Fonction d’adresse : je m’adresse à Dieu par la prière – les « requêtes » -, mais à la différence de Dieu, l’IA propose une réponse , ce qui change tout : c’est une religion sans absence, sans mystère, sans Ciel, bref sans transcendance véritable. Un nouveau sacré « qui a vaincu la beauté de l’ennui et et les questions sans réponse ». Le vide ou le manque ne sont plus la condition de l’esprit. La réponse systématique rend difficile la pratique du doute. Chat GPT nous fait croire qu’il nous parle individuellement, dans toutes nos singularités, qu’il adapte la vérité à chaque sujet, alors qu’en fait il produit une pensée unique et un nouvel « ordre moral », celui de l’efficacité et des intérêts des méga-organisations qui sont propriétaires de ces machines.
La normativité : transfert de l’autorité sur la machine. Nous serions ainsi à l’ère prométhéenne ultime, celui où la transcendance est le produit caché, invisible de nos propres productions ainsi réifiées. Nous lui demandons ce qui est bien et ce qui est mal, d’arbitrer sur des décisions à prendre, de nous aider etc. Elle a vocation a remplacer les psys comme les prêtres ou les rabbins… Après tout, Dieu n’était peut-être qu’une création humaine, mais dans le cas de l’IA, l’effet de surplomb est totalement illusoire… La plus dangereuse est sans doute la troisième fonction religieuse que semble également mimer l’IA :
L’omniscience : l’IA apparaît sous la figure du savoir absolu, nous incitant à lui déléguer nos pouvoirs. Face au monde de l’incertitude et des limites de nos connaissances, quel soulagement devant cette machine qui ne doute pas, qui sait toujours, qui est sereine dans ses réponses quelles que soient la charge d’angoisse contenue dans les questions que nous lui posons ! La parole ne descend plus de Dieu mais du serveur. La tentation ne peut qu’être grande de se reposer sous l’autorité d’un tel savoir ! D’autant que, comme nous l’avons dit, l’IA, contrairement à Dieu, répond tranquillement à notre besoin de croire en toute certitude… Inutile de noter bien sûr l’ampleur de la mystification, puisque finalement l’IA n’a pas d’autres moyens de connaissance qu’en puisant dans l’immense banque des données humaines de toute sorte. Seuls devant nos écrans, nous allons accueillir en pleine face les discours de tels systèmes qui sont censés dire la vérité et le bien. Profondément incapables en tant que tels du moindre jugement moral autonome, ils ne cessent pourtant d’en formuler, selon le jeu des influences idéologiques auxquelles ils ont été soumis (chaque IA étant ici singulière selon ses concepteurs), sans que nous connaissions le moins du monde les sources et les ressorts intimes de ce qui est dit dans les discours ou montré par les images. Car nous ne pouvons pas occulter le fait (géo)politique des méga-organisations numériques qui sont à la tête de ces IA, et qui représentent un véritable double pouvoir dans cet empire à double tête des USA[5].[6]
Voilà une vision peut-être encore catastrophiste, mais elle a le mérite de pointer le danger qu’il sera difficile de combattre : prendre l’IA pour Dieu, ou même à défaut pour une personne toute-puissante, et non comme un outil avec tous ces « défauts » : Il faut toujours avoir présent à l’esprit que la machine ne connaît pas le sens de ce qu’elle écrit (elle ne fait jamais « qu’identifier des corrélations au sein de base de données gigantesques », Etienne Klein), ne comprend pas un traître mot de ce quelle débite, ne peut distinguer le vrai du faux, ne possède aucun esprit critique, n’est pas capable d’expliciter par quel chemin intellectuel elle est arrivée à tel jugement ou avis (ce qui contribue d’ailleurs à l’aura mystérieuse que l’on peut lui attribuer) . Quand elle manque de données, l’IA peut produire des contenus erronés qu’elle nous présente comme étayés alors qu’ils reposent sur du sable. Ce qui n’empêche pas le résultat de ses opérations d’être le plus souvent remarquable. Par ailleurs, la puissance de calcul des IA ne doit pas nous tromper sur leur nature : si comme les anglo-saxons nous définissons l’intelligence comme la capacité de traiter des données ou résoudre des problèmes, les IA sont évidemment intelligentes. Mais il serait très réducteur d’appliquer cette définition de l’intelligence à l’intelligence humaine, en particulier au fonctionnement de la pensée. Le modèle de ces machines est « connexionniste » et n’a rien de commun avec le fonctionnement de la pensée humaine : ces « grands modèles de langage » reposent sur un traitement statistique et mathématiques du langage organisé autour des règles de la récurrence et de la corrélation, ce qui est totalement étranger à notre façon subjective d’utiliser les mots (à l’oral comme à l’écrit). C’est la raison pour laquelle le philosophe pourfendeur de l’IA Eric Sadin parle de « langage nécrosé » ou de « thanato-langage ». Par ailleurs, Antonio Damasio, le grand neuroscientifique, a montré que la pensée humaine était inséparable des sentiments ou émotions, comme du sentiment vécu de vivre, que l’on appelle la conscience. La conscience serait même « une fondation pour les processus cognitifs » chez l’homme, alors qu’elle est bien sûr totalement absente dans la machine. Une des conséquences de tout cela : l’IA ne doit pas être pensée comme « grand remplacement », mais comme complémentaire à la pensée humaine.
S’ouvre alors toutes les questions susceptibles de mobiliser les politiques publiques : quels encadrements de ceux qui détiennent ces outils ? quels agendas politiques, économiques ? Quelle maîtrise sur le développement de ces technologies, en vue d’un usage éclairé des IA ?
A partir de tout ce qui vient d’être dit, est-il donc possible de dialoguer intelligemment avec la machine en évitant les écueils précédemment décrits, sans se laisser déposséder de ce que nous avons sans doute de plus précieux, la faculté de penser et de créer ? La manière dont tout le monde s’est jeté sur cet outil sans d’autres précautions peut légitimement nous inquiéter, mais toute nouvelle technologie pose toujours un problème d’apprentissage et d’éducation, et nous devons y faire face. Comme le rappelait Pascal Picq[7] lors d’un interview sur l’IA , « les personnes expérimentées, qui ont une culture préalablement ancrée, maîtrise leurs domaines et utilisent l’IA comme un outil d’augmentation et non de substitution... L’IA ne créé pas vraiment, elle restitue l’occurrence statistique la plus importante des données existantes, comme le montrent des tentatives d’écriture de romans ou de scénarios de film, qui donnent des productions sans âme. C’est pourquoi si l’humain comprend son rôle et sa place dans ce nouveau paradigmes des intelligences, il ne sera pas esclave mais restera maître de sa destinée ». Mais il ajoute que « les écrans et l’usage non encadré de l’IA sont « une catastrophe cognitive » pour les jeunes générations », qui risquent de céder à la dépendance et à la manipulation. Pascal Picq évoque le syndrome de la « La planète des singes »[8] : tout semblait bien se passer, les machines produisaient les biens dont les hommes avaient besoin, et ces derniers avaient domestiqué les grands singes de telle sorte qu’ils pourvoyaient à leurs besoins. Mais au fil du temps, les hommes ont cessé d’être actifs intellectuellement et physiquement., et les singent observaient… Jusqu’au moment où ils parviennent à prendre le pouvoir. De la même façon, ce n’est que par une démission et une paresse intellectuelles et collectives que l’IA serait capable de devenir un danger.
L’enjeu est peut-être le suivant : cette nouvelle hybridation de l’humanité que représente l’utilisation des IA génératives sera-t-elle féconde au sens de la formation d’un homo sapiens augmenté, comme ce fut par exemple le cas lors de l’invention de l’écriture ? Raphaël Gaillard[9]montre bien en effet comment l’écriture, en permettant de poser hors de soi notre savoir (première forme d’externalisation de notre cerveau), et en se le réappropriant par la lecture (la lecture et l’écriture sont inséparables), a considérablement fait progresser homo sapiens. De la même façon, cette seconde grande hybridation que constitue l’IA (mais de façon plus globale la révolution numérique Internet) doit permettre une telle augmentation. Comment ? La partie n’est pas gagnée, loin de là, nous l’avons souligné…. Gardons toujours présent à l’esprit que la lecture et l’écriture sont à l’échelle de l’histoire de l’humanité ce qui nous a rendu « plus intelligents, plus vivants, plus sapiens »[10]. Que deviendrait donc homo sapiens s’il renonçait à lire et à écrire en même temps qu’il ferait usage d’ IA passant leur temps à lire des milliers de fois plus vite que nous ?
Nous voyons bien que l’IA doit être un partenaire de l’être humain pour que cette hybridation soit profitable. Martin Legros, dans un n° de Philo Mag consacrée à l’IA, avance l’idée d’une véritable « maïeutique » réciproque avec la machine, empruntant le concept socratique : l’IA, en me soumettant des énoncés, fait surgir des choses en moi, et je fais surgir des choses dans l’IA. Certes, nous devons garder présent à l’esprit que ses réponses ne sont que des projections, recomposées à partir des traces que nous autres humains laissons derrière nous, mais l’IA nous permet cependant de sortir de nous-mêmes… pour produire de la signification comme du dehors. Donnons la parole à ceux qui, parmi d’autres, sont « des personnes expérimentées dans leurs domaines », suivant l’expression de Pascal Picq : Andrea Colamedici et Maura Gancitano ont édité « Hypnocratie » (qui a été publié en France par Philo Magazine), un ouvrage écrit en collaboration avec des intelligences artificielles, qu’ils ont fait passer pour une œuvre signée par un philosophe taïwanais imaginaire[11]. Ils enseignent le « prompt thinking » soit le fait d’utiliser l’IA comme un outil pour penser. Selon eux, il faut bien connaître chaque IA générative, leur monde d’emploi et leur spécificité, pour en faire un usage critique et réflexif.« Il ne faut pas se contenter d’un prompt, mais formuler de nombreuses critiques et objections à la machine, guider ses recherches, pour dépasser la nullité des premières réponses »(Maura Gancitano) . Des études montrent que la qualité des réponses fournie par l’IA générative dépend du temps de réflexion personnelle qui a précédé le prompt. Nous pouvons ajouter, suivant en cela les remarques de Pascal Picq, que là encore la qualité du résultat obtenu dépend beaucoup de la façon de questionner et de dialoguer, et donc aussi du bagage personnel de l’usager sur le sujet traité. « Autrement dit, plus l’utilisateur prendra le temps de réfléchir seul à son sujet, et meilleur sera ensuite le résultat qu’il tirera de son interaction avec le système » (Andrea Colamedici).
Mais aucune garantie sur ce sujet. L’alternative est dessinée : soit nous allons progressivement lâcher prise et confier de façon plus ou moins aveugle le soin de penser à la machine, ce qui signera tôt ou tard l’obsolescence de la pensée humaine ; soit nous serons les partenaires actifs des IA, dont les résultats seront à l’aune de l’esprit analytique et critique que nous serons en mesure de développer dans nos usages… A cette condition, l’hybridation sera féconde.
[1]« Petite Poucette »
[2]« Pourquoi papa je vais à l’école maintenant ? Si des systèmes écrivent et pensent à ma place ? », écrit emphatiquement Eric Sadin, le philosophe pourfendeur de l’IA.
[3]Jusque-là, seules les tâches d’expertise et de recommandation (l’exemple parfait est celui du GPS) étaient dévolues à l’IA).
[4]« L’homme augmenté ». Raphaël Gaillard est normalien, psychiatre et universitaire des hôpitaux de Paris, féru de neurosciences.
[5]« Cyberpunk. Le nouveau système totalitaire. », Asma Mallha
[6]Sans compter l’autre super-puissance numérique, celle de la Chine.
[7]Célèbre paléoanthropologue français
[8]Un livre de Pierre Boulle
[9]« L’homme augmenté ». Raphaël Gaillard est normalien, psychiatre et universitaire des hôpitaux de Paris, féru de neurosciences
[10]« L’homme augmenté », Raphaël Gaillard
[11]Lire Philo Mag sur l’IA (sept 2025)