Table of Contents / Table des matières
ToggleIA versus IB ou la drôle expérience de la chambre chinoise.
Que voyons nous, que comparons nous ?
Nous sommes toujours à la recherche d’une raison de penser que l’IA ne pourra jamais atteindre le niveau de notre intelligence biologique, IB, dite Humaine; et ce qu’elle soit générative, agentielle, faible ou forte, relevant de l’AGI (Artificial General Intelligence) ou non.
Et pour cause , elles n’ont rien à voir , si ce n’est la possibilité de mesurer leur performance respective sur des tests et énigmes classiques.
Elles n’ont rien à voir parce qu’elles sont intrinsèquement, par construction, différentes et qu’elles ne sont pas adaptées aux mêmes objectifs.
L’intelligence humaine se définit dans son contexte d’émergence et nulle part ailleurs. Elle est animale et donc biologique. Son but , ses capacités sont orientées sur la survie, la relation et l’altérité, et elle s’est sur-développée dans un contexte biologique et sociétal.
L’intelligence des machines, l’IA, est d’une autre nature: elle est mécanique en quelque sorte , elle ressort d’un agencement de programmes et d’algorithmes.
Ces algorithmes et ces programmes peuvent atteindre une sophistication et une performance que l’intelligence humaine ne peut pas toujours atteindre. Elle n’a pas vraiment d’orientation, elle sert à quelque chose que l’humain définit. Et selon la complexité des actions qu’on lui demandera d’accomplir, l’humain la dotera de capacités algorithmiques, quelquefois supérieures aux siennes , parce que justement elle doit servir à augmenter les capacités humaines, non de façon générale, mais pour des buts et objectifs précis.
Vouloir comparer les deux globalement pour en définir l’une supérieur à l’autre n’a pas de sens. A un moment dans un domaine, doté de ces pouvoirs propres, l’intelligence humaine ou l’intelligence dite artificielle marqueront, chacune leur tour, une supériorité apparente.
Vouloir totalement imiter une intelligence humaine est impossible, c’est le problème de la carte d’Alexandre , dont on voit les traces parfois dans le désert, et qui entouré d’un océan se heurte à l’impossibilité de connaitre l’intégralité du monde monde et désespère Alexandre.
Cette forme d’intelligence résulte d’une conception biologique en 9 mois et son apprentissage dure une vie.
Comparer la vitesse de calcul d’un homme et d’une machine reste possible.
Comparer les capacités de résolution de problèmes d’un humain et d’une machine dotée d’une IA est possible dans le cadre d’une problématique ou d’un type de problématique.
Rendre une machine capable de création est possible.
Doter ainsi une machine de capacités ordinaire comparable à celles des humains, se retrouver dans l’espace et le temps, analyser un texte, proposer une résolution de problème, imaginer ou réaliser une création artistique est possible.
Pour autant ce ne sera jamais un humain, et donc jamais une intelligence humaine.
Ces performances peuvent être plus grandes, domaine après domaine, mais quel intérêt y aurait-il à vouloir à tout prix faire une intelligence humaine avec une machine ?
Il y a donc une intelligence non humaine , algorithmique, que l’on pourra doter de multiples capacités, jusqu’à lui donner des capacités créatrices, imaginatives par des disruptions statistiques, et dont nous constaterons que le comportement, ces capacités peuvent s’apparenter aux capacités de l’intelligence humaine, et la surpasser.
Il peut alors être question de savoir si une forme d’intelligence est possible pour une machine.
Pour entrer plus profondément dans cette interrogation, Turing a établi en 1947, un processus, protocole d’expérience, entre un ordinateur et un humain pour démontrer qu’une machine était ou non dotée d’une intelligence et d’une pensée comparables à celles des humains au point de ne pas permettre de les distinguer. Ce test fut longuement débattu et amélioré.
Mais c’est pour dépasser cette approche de Turing, qu’un philosophe américain, John Searle, a imaginé une expérience de pensée remarquable et à mon sens plus forte.
En analysant cette expérience nous pouvons comprendre le fond de ce débat tel qu’il apparait aujourd’hui.
Son expérience s’appelle « La chambre chinoise », ChatGpt, bon joueur, m’a aidé à vous la décrire.
La Chambre chinoise de John Searle : pertinence contemporaine d’une expérience de pensée
1. Introduction : une intuition fondatrice
En 1980, John Searle publie dans Behavioral and Brain Sciences un article devenu classique : Minds, Brains, and Programs. Il y introduit une expérience de pensée — la “Chambre chinoise” — pour réfuter ce qu’il appelle l’intelligence artificielle forte, selon laquelle un programme informatique correctement conçu ne se contenterait pas de simuler la pensée, mais penserait réellement.
L’intuition de Searle est simple : la syntaxe n’implique pas la sémantique. Manipuler des symboles selon des règles ne suffit pas pour comprendre leur signification. Ce geste conceptuel, à la fois linguistique et phénoménologique, oppose deux régimes du sens : la manipulation formelle et l’intentionnalité vécue.
2. L’expérience de pensée : description et conclusion
Searle imagine un anglophone enfermé dans une pièce. Par une fente, on lui transmet des symboles chinois ; il dispose de manuels lui indiquant quelles réponses produire selon des règles purement formelles. À l’extérieur, les locuteurs chinois reçoivent des réponses cohérentes : ils croient dialoguer avec un sinophone.
Or, l’individu dans la pièce ne comprend pas un mot de chinois. Il exécute des instructions sans saisir la signification des symboles. Searle conclut :
“Les programmes informatiques sont purement syntaxiques ; les esprits humains ont une sémantique.” (Minds, Brains, and Programs, 1980, p. 423)
Ainsi, aucune manipulation symbolique ne saurait suffire à la compréhension, laquelle requiert une forme d’intentionnalité intrinsèque — propriété des états mentaux qui “portent sur” quelque chose dans le monde.
3. L’objectif de Searle : réfuter l’intelligence artificielle forte
La Chambre chinoise s’inscrit contre l’idée que la pensée est un calcul. Selon les tenants de l’IA forte (McCarthy, Newell, Simon), tout système exécutant un programme adéquat posséderait une “esprit” au même titre qu’un humain.
Searle distingue alors deux thèses :
- IA faible : la machine simule des processus cognitifs, utile pour la recherche.
- IA forte : le programme est littéralement un esprit.
C’est cette seconde thèse que Searle rejette, en affirmant qu’aucun programme ne peut produire la compréhension ou la conscience.
Personnellement, je cherche l’innovation de rupture qui permettra d’accéder à l’IA forte, comme pour le jeu de GO qui a sorti l’IA de son schéma classique en lui faisant accepter une stratégie minoritaire déstabilisante.
Dans ce contexte des stratégies d’adaptation et de simulation de l’intelligence humaine ont abouti à de vraies ruptures il en est une particulièrement que j’appelle « Le coup 37 » d’AlphaGo contre Lee Sedol, où « l’adoption d’une stratégie minoritaire par une IA ».
- Contexte : Lors de la 2ème partie contre Lee Sedol (2016), AlphaGo a joué un coup inattendu (le « coup 37 »), que les commentateurs ont d’abord jugé erroné.
- Analyse : Ce coup était minoritaire au sens où il sortait des joseki (Séquences stratégiques connues) classiques.
- Il a déstabilisé Lee Sedol, qui a passé 15 minutes à réfléchir, et a finalement conduit à une victoire d’AlphaGo.
- Leçon : Même au Go, un coup « minoritaires » (non conventionnel) peut être gagnant s’il exploite les faiblesses de l’adversaire ou ses attentes.
Cela veut dire que nous pouvons grâce aux algorithmes, venir à bout des meilleurs stratégies de la pensée humaine.
4. De la syntaxe à la sémantique : où passe la frontière ?
L’argument de Searle pose une question fondamentale : qu’est-ce que comprendre ?
Deux niveaux se dégagent :
- Compréhension fonctionnelle : aptitude à produire des réponses cohérentes, à apprendre, à corriger.
- Compréhension intentionnelle ou phénoménale : expérience consciente du sens, orientation vers le monde.
Searle soutient que seule la compréhension intentionnelle ou phénoménale mérite le nom de compréhension véritable. Les critiques fonctionnalistes, eux, jugent que la première suffit à fonder une “intelligence artificielle” pragmatique.
Pour reprendre cette idée, disons que l’IA agit un peu comme si elle construisait intentionnellement son apprentissage.
On en vient alors à doter les IA de moteurs « vitaux » ou stratégiques. C’est-à-dire introduire des règles d’intentionnalités. Règles qui seraient prises en compte de façon autonome par l’IA. Un peu comme quand nous avons faim, nous cherchons à manger. Dans ce cas les IA auraient une règle d’intentionnalité qui serait par exemple « créer de nouvelles fonctions ». Cette règle lui permettrait d’accroître ses compétences / fonctionnalités. L’IA aurait donc une intention pour elle-même. Un pas de plus. Aurait-elle pour autant une sémantique ?
5. Les modèles de langage contemporains (LLM) : comprendre sans conscience ?
Les modèles de langage de grande échelle (Large Language Models, LLM) représentent aujourd’hui la forme la plus avancée d’intelligence artificielle linguistique. Leur architecture repose sur des réseaux neuronaux profonds capables d’apprendre les régularités statistiques du langage à partir de milliards de textes.
Ces modèles, tels que GPT-4/5 (OpenAI), Claude (Anthropic) ou Gemini (Google DeepMind), ne contiennent pas de dictionnaires ni de grammaires explicites : ils apprennent à prédire le mot suivant à partir de contextes, capturant ainsi des corrélations extrêmement fines entre formes linguistiques, concepts et usages.
Pourtant, selon la perspective de Searle, ils demeurent des systèmes purement syntaxiques : leur “compréhension” n’est qu’une simulation de compréhension. Ils manipulent des symboles et génèrent du sens apparent, sans avoir d’accès direct à la réalité ni d’intentionnalité vécue.
Cependant, leur efficacité pratique et leur adaptabilité soulèvent une question philosophique cruciale : faut-il être conscient pour comprendre ?
1° Deux types de compréhension
Critères | Compréhension opérationnelle | Compréhension phénoménale (ou intentionnelle) |
Définition | Capacité à produire des réponses cohérentes, contextualisées et correctes. | Expérience vécue du sens, conscience de ce que signifient les symboles. |
Type d’intelligence | Fonctionnelle, comportementale. | Expérientielle, consciente, incarnée. |
Référence au monde | Indirecte (par données, textes, représentations). | Directe (par perception, intention, vécu corporel). |
Mécanisme cognitif | Corrélations statistiques, apprentissage profond, raisonnement simulé. | Intentionnalité biologique, ancrage sensorimoteur et expérience subjective. |
Exemples typiques | GPT-5 explique le paradoxe de Zénon*, code un algorithme, ou résume un article. | Un humain comprend Zénon en visualisant le mouvement, en y projetant son expérience corporelle. |
Type d’erreurs | “Hallucinations”, confusions de faits, raisonnement non fondé. | Interprétation erronée, biais perceptifs, illusions cognitives. |
Critère de succès | Pertinence pragmatique (réussite de la tâche). | Compréhension vécue du sens et de ses implications. |
Modèle de référence | Test de Turing, approche fonctionnaliste (Dennett). | Phénoménologie et naturalisme biologique (Searle, Varela). |
*Paradoxe de Zénon, philosophe grec (IV siècle avant JC) qui peut s’exprimer ainsi « la flèche n’atteint jamais sa cible , puisqu’il lui reste toujours à parcourir au moins la moitié de la distance à la cible. »
2. Exemples concrets
- Traduction automatique
- LLM (opérationnel) : traduit correctement la phrase “La neige est blanche” en chinois.
- Humain (phénoménal) : comprend la blancheur comme une expérience sensorielle et culturelle.
- Débat moral
- LLM : reformule les arguments utilitaristes et déontologiques.
- Humain : ressent un conflit moral, en saisit la portée émotionnelle et existentielle.
- Raisonnement scientifique
- LLM : déduit des relations causales à partir d’exemples appris.
- Chercheur humain : expérimente, doute, contextualise le résultat dans une histoire du savoir.
6. De la conscience à la responsabilité
L’argument de Searle garde une portée éthique et politique. En rappelant que les machines ne comprennent pas au sens fort, il invite à :
- ne pas anthropomorphiser les systèmes, c’est le principal risque.
- concevoir des protocoles de vérification et de traçabilité du sens, C’est indispensables pour contrôler le résultat final.
- repenser la responsabilité humaine dans l’usage de l’IA, c’est un outil puissant, mais c’est un outil, nous sommes donc responsable de son usage, comme de celui d’un marteau.
L’illusion de la compréhension peut devenir un risque : croire qu’un modèle “pense” peut conduire à lui déléguer des décisions qu’il ne comprend pas.
Cette absent de compréhension du sens , peut être à l’origine d’erreur très grave , notamment lors de décisions confiées à la machine dont les résultats peuvent porter atteintes aux hommes.
7. Conclusion : De la chambre chinoise à l’intelligence.
La Chambre chinoise n’est pas seulement une objection technique ; c’est un repère conceptuel.
Elle rappelle que la différence entre traitement de l’information et compréhension vécue demeure, pour l’heure, infranchie.
Mais elle n’interdit pas d’explorer des voies hybrides : ancrage symbolique, cognition incarnée, architectures intégrées.
Dans le cadre de notre réflexion sur la comparaison des intelligences Artificielle et Humaine-Biologique, j’opte pour deux intelligences différentes, même si je conçois l’importance de cette réalité de conscience et de sens que connaît l’IB. C’est donc de la responsabilité humaine, qui doit prendre l’ascendant, de dire le sens, de vérifier le sens.
La question devient qu’est ce que le sens ? Ou comment l’IB crée et donne un sens qu’elle utilise ensuite.
Pourquoi ne pas admettre que l’IA est une autre forme d’intelligence qui rend illusoire toutes tentatives de la rendre parfaitement comparable et équivalente à une intelligence biologique, même si elle est en concurrence avec elle.
L’IA se développe et continuera à être développée par les hommes et peut être un jour par elle-même.
Toutes tentatives de trouver si elle a une « intelligence humaine », n’est qu’un anthropomorphisme vulgaire. Elle, l’ensemble des programmes et des algorithmes qui la constitue, ne ressentira jamais comme les hommes, elle ne peut accéder à une conscience biologique humaine, elle n’a pas de processus sémantique qui caractérise la prise de conscience humaine et qui, au sens littéral, constitue l’intelligence humaine. Elle a sa propre intelligence « artificielle », puisqu’on l’appelle ainsi.
A ce jour elle peine à acquérir une dimension sémantique qui pourrait bien lui rester définitivement inaccessible.
La vraie question est donc plutôt de savoir quels domaines, quels pouvoirs nous lui déléguons ? Comment limite t-on les risques ?
Et de nous interroger aussi sur ce que dit ce développement fulgurant dans nos sociétés.
Comment transforme t’elle notre rapport au monde et nous même in fine ?
Comme pour tous les grandes technologies que nous avons conçus, que se cache t’il derrière, qui la domine , ou vers quel monde nous conduit-elle ?
Une coopération est-elle possible, sans atrophier ou perdre nos capacités humaines ?

« La trahison des images », René Magritte 1929- Musée d’art du comté de Los Angeles.
Paul de l’isle. (Nov 2025)
Voir aussi du même auteur :
Une machine peut-elle être intelligente ? (Article en deux parties)
Bibliographie commentée
- Searle, J. R. (1980). Minds, Brains, and Programs. Behavioral and Brain Sciences, 3(3), 417–457.
→ Texte fondateur. Distingue IA forte (machine consciente) et IA faible (simulation de l’intelligence). Introduit l’argument de la chambre chinoise : la manipulation de symboles ne suffit pas à la compréhension. - Dennett, D. (1991). Consciousness Explained. Boston: Little, Brown.
→ Défense fonctionnaliste. La “compréhension” est définie par le comportement global du système, sans besoin de recourir à une conscience phénoménale. - Churchland, P. & Churchland, P. (1990). Could a Machine Think? Scientific American, 262(1).
→ Critique du symbolisme au profit des réseaux de neurones (connexionnisme) pour modéliser la cognition. - Harnad, S. (1990). The Symbol Grounding Problem. Physica D, 42(1–3), 335–346.
→ Propose la notion d’“ancrage” reliant symboles et monde perçu. : les symboles doivent être reliés à des expériences perceptives pour avoir un sens. - Varela, F., Thompson, E., & Rosch, E. (1991). The Embodied Mind: Cognitive Science and Human Experience. MIT Press.
→ Défense de l’enactivisme : la cognition est une action incarnée, indissociable du corps et de l’environnement. - Block, N. (1981). Psychologism and Behaviorism. Philosophical Review, 90(1), 5–43.
→ Distingue intelligence fonctionnelle (comportementale) et conscience phénoménale (expérience subjective) - Haugeland, J. (1985). Artificial Intelligence: The Very Idea. MIT Press.
→ Analyse critique des limites de l’IA symbolique et de ses promesses, en soulignant l’importance du contexte et de l’incarnation. - Turing, A. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433–460.
→ Point de départ du débat : le test de Turing comme critère comportemental pour évaluer l’intelligence d’une machine. Questionne la possibilité pour une machine de penser. - Floridi, L. (2019). The Logic of Information: A Theory of Philosophy as Conceptual Design. Oxford University Press.
→ Approche contemporaine du sens et de la sémantique à l’ère de l’information. Propose une théorie de la philosophie comme design conceptuel, en réévaluant le sens et la sémantique à l’ère numérique.
En savoir plus sur Some-ideas ou Quelques idées
Subscribe to get the latest posts sent to your email.
