Les ordinateurs ne comprennent rien
Un ordinateur, c'est à dire une machine à calculer universelle, ne peut pas comprendre, il ne peut pas manier des significations, ni faire émerger une conscience. Ce n'est pas un problème de niveau technologique. Aucun progrès technologique ne pourra changer quoi que ce soit à cela. La signification n'est pas un ensemble de règles d'association de signes. John Searle l'a démontré extrêmement simplement grâce à une expérience de pensée nommée "Expérience de la Chambre Chinoise". J'aimerais ici la résumer rapidement, et simplement.
L'expérience de la Chambre Chinoise est une expérience de pensée, qui va vous faire comprendre intuitivement le travail d'un ordinateur, qui se contente d'associer des 0 et des 1 selon des règles déterminées.
Imaginez que l'on vous place dans une pièce sombre, devant un bureau, avec une petite lampe, des feuilles de papiers, un crayon, et un catalogue de règles en français. Ces règles sont du type : « si vous lisez telle suite de caractères chinois, alors, derrière, répondez telle suite de caractères chinois ». Par exemple, si vous lisez la suite : "Ching Chang Chong", répondez "Chang Choung Chen". Bien entendu, vous ne parlez pas un mot de chinois, et vous ne savez pas ce que cela veut dire. (les chinois me pardonneront ces exemples à la 4chan)
La pièce est fermée par une porte avec une boite à lettre. Derrière la porte, se situe un chinois, à qui on demande d’écrire sur des feuilles de papier des phrases en chinois du type : « salut, comment ça va ? » (qui en chinois à la 4chan se dit : « ching chang chong »). Il glisse ensuite la feuille de papier dans la boite au lettre.
Vous allez chercher la lettre dans la boite au lettre, vous l’ouvrez : c’est écrit en chinois, vous ne comprennez rien. Vous prenez donc le catalogue de règles qui vous indique : « à la phrase "ching chang chong", répondez la phrase "chang choung chen" ». Cela veut dire « je vais bien et toi ? », mais vous n’en savez rien. Vous ne comprenez ni ce qui est écrit sur la feuille, ni ce que vous écrivez en réponse. Vous avez juste appliqué les règles d’association de signes.
Vous prenez la feuille de papier où vous avez écrit « chang choung chen » (« je vais bien et toi ? »), vous la glissez dans la boite au lettre. le chinois la consulte et se dit : « super ! derrière la porte, il y a quelqu’un qui parle chinois ! » Pourtant, vous ne comprennez rien au chinois, vous avez juste appliqué des règles d’association de signes dépourvus de signification pour vous.
Un ordinateur ne fait que cela, et strictement rien d'autre. Il associe des 0 et de 1 qui pour lui sont dépourvu de signification, en fonction de règles écrites par les programmeurs. A aucun moment donné, ce processus ne permet de créer de la signification. Vous n'apprendrez JAMAIS à parler Chinois en appliquant la méthode décrite ci-dessus. De la même manière, jamais un ordinateur ne comprendra le Chinois ou une quelquonque langue humaine, même si il peut en donner l'illusion.
L'ordinateur n'a donc pas accès à des significations, qui sont le produit d'une activité neuronale. De même, l'ordinateur ne voit pas de couleur, il reçoit des suites de 0 et de 1 en provenance de capteurs de lumières et applique des règles d'association. Il n'entend pas plus des sons, il reçoit des suites de 0 et de 1 en provenance de capteurs de sons auxquelles il applique des règles d'association. De manière générale, tout ce qui compose votre vécu subjectif, les significations, les sons, les odeurs, les sensations, les couleurs, les sentiments, ce qu'on nomme en général le "vécu conscient" échappe totalement à l'ordinateur. Lui ne fait qu'appliquer des règles sur des suites de 0 et de 1 dépourvu de signification. Or, quand vous comprenez la signification d'un mot, que vous voyez une couleur, ou sentez une odeur, vous ne faites pas qu'appliquer bêtement des régles d'associations comme dans la chambre chinoise. Vous avez une activité BIOLOGIQUE, NEURONALE, extrêmement complexe, qui produit ce vécu conscient. La simulation informatique d'un pis de vache ne permet pas de créer du vrai lait. De la même manière, la simulation des processus cognitif ne permet pas de créer de la conscience.
PS : Nous ne sommes pas sûr que ce soit le cerveau qui produise le vécu conscient, et jamais aucune description du cerveau ne permettra de le prouver. C'est une autre expérience de pensée, qui se nomme : "What is it like to be a bat ?", de Thomas Nagel... Mais c'est une autre histoire.