samedi 20 décembre 2014 - par lsga

Les ordinateurs ne comprennent rien

Un ordinateur, c'est à dire une machine à calculer universelle, ne peut pas comprendre, il ne peut pas manier des significations, ni faire émerger une conscience. Ce n'est pas un problème de niveau technologique. Aucun progrès technologique ne pourra changer quoi que ce soit à cela. La signification n'est pas un ensemble de règles d'association de signes. John Searle l'a démontré extrêmement simplement grâce à une expérience de pensée nommée "Expérience de la Chambre Chinoise". J'aimerais ici la résumer rapidement, et simplement.

L'expérience de la Chambre Chinoise est une expérience de pensée, qui va vous faire comprendre intuitivement le travail d'un ordinateur, qui se contente d'associer des 0 et des 1 selon des règles déterminées.

Imaginez que l'on vous place dans une pièce sombre, devant un bureau, avec une petite lampe, des feuilles de papiers, un crayon, et un catalogue de règles en français. Ces règles sont du type : « si vous lisez telle suite de caractères chinois, alors, derrière, répondez telle suite de caractères chinois  ». Par exemple, si vous lisez la suite : "Ching Chang Chong", répondez "Chang Choung Chen". Bien entendu, vous ne parlez pas un mot de chinois, et vous ne savez pas ce que cela veut dire. (les chinois me pardonneront ces exemples à la 4chan)

 
La pièce est fermée par une porte avec une boite à lettre. Derrière la porte, se situe un chinois, à qui on demande d’écrire sur des feuilles de papier des phrases en chinois du type : « salut, comment ça va ? » (qui en chinois à la 4chan se dit : « ching chang chong »). Il glisse ensuite la feuille de papier dans la boite au lettre.

 Vous allez chercher la lettre dans la boite au lettre, vous l’ouvrez : c’est écrit en chinois, vous ne comprennez rien. Vous prenez donc le catalogue de règles qui vous indique : « à la phrase "ching chang chong", répondez la phrase "chang choung chen" ». Cela veut dire «  je vais bien et toi ?  », mais vous n’en savez rien. Vous ne comprenez ni ce qui est écrit sur la feuille, ni ce que vous écrivez en réponse. Vous avez juste appliqué les règles d’association de signes.

Vous prenez la feuille de papier où vous avez écrit «  chang choung chen » (« je vais bien et toi ? »), vous la glissez dans la boite au lettre. le chinois la consulte et se dit : « super ! derrière la porte, il y a quelqu’un qui parle chinois ! » Pourtant, vous ne comprennez rien au chinois, vous avez juste appliqué des règles d’association de signes dépourvus de signification pour vous.

Un ordinateur ne fait que cela, et strictement rien d'autre. Il associe des 0 et de 1 qui pour lui sont dépourvu de signification, en fonction de règles écrites par les programmeurs. A aucun moment donné, ce processus ne permet de créer de la signification. Vous n'apprendrez JAMAIS à parler Chinois en appliquant la méthode décrite ci-dessus. De la même manière, jamais un ordinateur ne comprendra le Chinois ou une quelquonque langue humaine, même si il peut en donner l'illusion

L'ordinateur n'a donc pas accès à des significations, qui sont le produit d'une activité neuronale. De même, l'ordinateur ne voit pas de couleur, il reçoit des suites de 0 et de 1 en provenance de capteurs de lumières et applique des règles d'association. Il n'entend pas plus des sons, il reçoit des suites de 0 et de 1 en provenance de capteurs de sons auxquelles il applique des règles d'association. De manière générale, tout ce qui compose votre vécu subjectif, les significations, les sons, les odeurs, les sensations, les couleurs, les sentiments, ce qu'on nomme en général le "vécu conscient" échappe totalement à l'ordinateur. Lui ne fait qu'appliquer des règles sur des suites de 0 et de 1 dépourvu de signification. Or, quand vous comprenez la signification d'un mot, que vous voyez une couleur, ou sentez une odeur, vous ne faites pas qu'appliquer bêtement des régles d'associations comme dans la chambre chinoise. Vous avez une activité BIOLOGIQUE, NEURONALE, extrêmement complexe, qui produit ce vécu conscient. La simulation informatique d'un pis de vache ne permet pas de créer du vrai lait. De la même manière, la simulation des processus cognitif ne permet pas de créer de la conscience.

Voilà, vous avez progressé en philosophie de l'informatique, vous en savez désormais plus que Stephen Hawkins lui-même.

 

PS : Nous ne sommes pas sûr que ce soit le cerveau qui produise le vécu conscient, et jamais aucune description du cerveau ne permettra de le prouver. C'est une autre expérience de pensée, qui se nomme : "What is it like to be a bat ?", de Thomas Nagel... Mais c'est une autre histoire.



124 réactions


  • Le p’tit Charles 20 décembre 2014 08:29

    Un ordinateur est le prolongement de la pensée humaine rien d’autre...c’est pour cela que la plupart du temps il raconte n’importe quoi...


    • lsga lsga 20 décembre 2014 11:10

      Pour ceux qui se demandent pourquoi j’ai écrit un tel article, et quel rapport avec le communisme :
       
      La théorie du Terminator, de l’ordinateur intelligent qui va détruire l’être humain, qui est défendu y compris par Stephen Hawkins (qui visiblement n’est pas aussi bon en philosophie de l’informatique qu’en physique), est la théorie contemporaine la plus réactionnaire, la plus anti-progressiste. Cette théorie potentiellement sera le support mythologique du fascisme du 21ème siècle. 
       
      L’informatique, comme dit le p’t’it charles, est le prolongement de la pensée humaine. Le cerveau n’est pas une machine de Turing, et ce qu’une machine de Turing fait très facilement (ex : extraire la racine cubique de 212), le cerveau humain le fait très difficilement. Cela ne veut pas dire que l’ordinateur nous est supérieur : l’ordinateur n’a pas de conscience, et est incapable de faire ce que le cerveau humain fait : produire des significations et des vécus subjectifs. Cela veut dire que l’Ordinateur permet à l’humanité de progresser bien plus rapidement.
       
      Bon et sinon, le ptitcharles : c’est quand que tu arrêtes d’être un gros réac et que tu deviens progressiste ?


    • lsga lsga 21 décembre 2014 00:18

      et sachant que sur ce site, comme dans la vie, je passe mon temps à agresser tout le monde, de ceux qui se prétendent d’extrême gauche (et qui ne le sont pas) à ceux qui refusent d’admettre qu’ils sont d’extrême droite en passant par tous les conservateurs qui veulent juste qu’on leur fiche la paix : je tiens encore une fois à remercier la communauté d’avoir publié mon article smiley

       
      Mais ça ne m’amadouera pas : bande de sales réacs ! smiley

  • Massada Massada 20 décembre 2014 08:48

    Un ordinateur, c’est à dire une machine à calculer universelle, ne peut pas comprendre, il ne peut pas manier des significations, ni faire émerger une conscience.


    La conscience est une propriété intrinsèque de la matière, tout comme la masse ou l’énergie. Organisez la matière de la bonne façon, comme dans le cerveau mammifère et la conscience émerge.

    Si vous construisiez un ordinateur de façon appropriée, comme un ordinateur neuromorphique, il pourrait être conscient. La conscience survient toujours sur du physique.


    • lsga lsga 20 décembre 2014 10:15

      Est un ordinateur est une machine de Turing, rien d’autre.
       
      Ce que vous appelez « ordinateur neuromorphique » n’est simplement pas un ordinateur.


    • reptile cyrus 20 décembre 2014 15:44

      Somme nous autre chose qu’ un algorithme biologique d’ information ?
      des règle de la matière découle l’ ADN , de l’ ADN le corps et le principe d’ évolution vers la complexité ...
      de cette complexité est né l’ humain et un épiphénomène qu’ on appelle conscience .
      de cette conscience est venu une maîtrise de l’ environnement , la science qui cherche aujourd’hui a s’ auto-reproduire par un outils de pensée transposer dans l’ informatique et l’ électronique se fourvoient peut être dans une impasse « de moyen de realisation » et non pas de creer un epiphenomene en dehors de son espece. L’ outils sera peut etre la transposition de l’ electronique dans la manipulation de l’ adn.

      merci pour cette article lsga.


    • lsga lsga 20 décembre 2014 21:44

      vous utilisez le terme algorithme dans un sens métaphorique. Un algorithme, c’est un calcul, une fonction récursive primitive, une opération mécanisable. 

       
      Vous parlez d’épiphénomène. Comprenez bien : quelque soit le temps que vous passez dans la chambre chinoise, quelque soit la complexité des règles appliqués, vous n’apprendrez JAMAIS le chinois. Il n’y a pas un épiphénomène magique, une émergence miraculeuse, qui fera que d’un coup vous apprendrez le chinois. La signification n’émerge pas des règles. Elle n’est pas un épiphénomène. Elle est le plus probablement le produit d’une activité biologique. 

    • e=mc2 e=mc2 6 novembre 2018 12:21

      @Massada


  • gruni gruni 20 décembre 2014 09:01

    Si un jour l’homme réussissait à créer un ordinateur réellement intelligent, il faudrait se poser des question sur son intelligence. Avant de disparaître définitivement de la surface de la planète ou de devenir esclave. 


    Merci pour l’article

    • lsga lsga 20 décembre 2014 10:33

      en fait : on ne peut pas créer un ordinateur « intelligent », dans le sens conscient ou capable de comprendre quelque chose. C’est le coeur de l’article : ce n’est pas une question de progrès technologique, c’est impossible pour une raison logique. La conscience, la compréhension, la signification : cela ne se résume pas à appliquer des règles sur des signes.
       
      Si un jour on créé une véritable intelligence artificielle, ce ne sera pas un ordinateur, mais autre chose, qui fait autre chose que ce que vous faites dans la chambre chinoise. 


    • sleeping-zombie 20 décembre 2014 17:31

      si un jour on crée une intelligence artificielle, ce sera probablement par hasard, et on sera incapable de communiquer avec elle, à cause des différences de nos univers. Exactement comme on est incapable de communiquer avec l’ensemble du monde animal, à quelques très rares exceptions...


  • amiaplacidus amiaplacidus 20 décembre 2014 10:07

    Mais, Isga, c’est un vrai génie de l’épistémologie.

    Ou encore : « L’art d’enfoncer des portes ouvertes en 5000 caractères ».


    • lsga lsga 20 décembre 2014 10:20

      4740 caractères
      Le génie, c’est Searl. Être capable de faire comprendre intuitivement à n’importe qui le travail d’un ordinateur tient en effet du génie.


  • Daniel Roux Daniel Roux 20 décembre 2014 10:15

    Qu’est-ce que la conscience ?

    Ce que nous savons c’est que la conscience est le résultat d’un processus non conscient. La conscience nous permet de savoir que nous existons. C’est déjà bien mais ce n’est pas tout.

    Ce processus est complexe puisqu’il fait intervenir une machine bio-chimio-électro-logique et un nombre très élevés de connexions. Les différents types de mémoire interviennent dans le processus.

    Si l’on s’en tient à un a priori strictement matérialiste, la différence entre un ordinateur et un cerveau porte uniquement sur la nature des matériaux et sur la complexité des processus.

    Le premier est fait de matériaux fabriqués et assemblés par l’homme suivant un plan et des théories qu’il a conçu en fonction de ses connaissances. Les processus sont déterminés par une volonté dans le but de répondre à un besoin et qui ne sera reproduit qu’en cas de succès.

    Le second est fait par la nature, c’est à dire par l’élaboration pendant presque deux milliards d’années d’une complexité qui suit les lois du hasard et de la nécessité. Les processus sont déterminés par ces mêmes lois qui ne seront validés et reproduit qu’en cas de succès.

    Rien ne permet d’affirmer que le génie humain n’arrivera pas à concevoir des machines capables d’atteindre un niveau de complexité produisant des résultats imitant parfaitement la conscience.


    • lsga lsga 20 décembre 2014 10:29

      1. J’ai utilisé la conscience dans son sens intentionnel : « conscience de quelque chose », vécu subjectif, etc. Le fait de voir du rouge, de sentir des odeurs, d’avoir accès à des significations
       
      2. Le cerveau n’a absolument RIEN À VOIR avec un ordinateur. Je vous invite à aller lire le livre de Von Neuman sur le sujet (le créateur de l’ordinateur moderne). Pour faire court : quand bien même on filerait la métaphore du cerveau ordinateur, le cerveau serait un ordinateur analogique massivement parallèle, alors que nos ordinateurs sont numériques et sériels. Et encore, ce n’est qu’une métaphore. Le bout de chair que l’on a dans le crane fonctionne de manière extrêmement chaotique, c’est une vraie bouillie électro-chimique où le hasard à toute sa place, et la sélection entre réseaux de neurones se fait selon des lois évolutionnistes (voir Edelmann). Bref, ce sont deux objets totalement différents.
       
      En effet, rien ne garantit qu’on arrive un jour à créer des machines conscientes.


    • Daniel Roux Daniel Roux 20 décembre 2014 17:00

      Que le cerveau et l’ordinateur soient deux objets totalement différends, tout le monde en est d’accord mais ce n’est pas là-dessus que porte l’article, sauf erreur, mais sur la conscience, non ?

      D’où l’importance de définir ce qu’est la conscience, puis quel processus la fait émerger et si ce processus peut ou non, être reproduit artificiellement.


    • lsga lsga 20 décembre 2014 21:42

      c’est une question différente. Le fait est que si on reproduit la conscience artificiellement, ce ne sera pas grâce à une machine de turing, aussi complexe soit-elle. On peut simuler l’intelligence avec une machine de turing (faire croire qu’on parle chinois), mais on ne peut pas la reproduire. 


  • marmor 20 décembre 2014 11:07

    C’est bien la première fois que le bonnet rouge ne délire pas ! Vous avez arrêté de fumer la moquette ? Ca vous fait le plus grand bien, car on s’aperçoit que vous êtes capable de nous interesser.


  • wesson wesson 20 décembre 2014 11:38

    Bonjour l’auteur, 


    Sur le fond, l’article, il est assez sensé mais enfonce quelques portes ouvertes : ben oui, un ordinateur n’est pas un cerveau, et n’en possède ni la plasticité ni l’élasticité. Et il en est à des lieux de la conscience. On pourrait même éventuellement disserter sur le fait qu’un jour peut-être on arrivera à donner (ou coder) une forme de conscience, pour ma part, j’ai quelques doutes.

    Sur la forme pour illustrer votre propos, vous utilisez un mémé clairement raciste, et je doit avouer que ça me gène quand même un peu. as-t’on besoin d’aller racler 4chan dans ce que l’on y trouve de plus abject pour illustrer son propos ? Je ne suis pas certain. Et encore moins dans le cadre du sujet que vous traitez.

    Le propos est important, mais l’image également, et vous savez qu’un bon nombre de « lecteurs » ne conserveront de votre propos que l’image que vous avez proposée.

    Si vous l’avez fait inconsciemment c’est malheureux. Si vous l’avez fait pour vous attirer du lectorat, c’est pervers.

    • lsga lsga 20 décembre 2014 21:46

      alors, l’article de John Searle (je me suis contenté de le vulgariser) démontre précisément qu’on ne peut pas coder une conscience. Comprenez bien : vous pourrez passer autant de temps que vous voulez dans la chambre chinoise, les règles pourraient être aussi complexe que possible : JAMAIS vous ne finiriez par comprendre le chinois. 

       
      Après, comme les chinois sont une race inférieure aux aryens, ce n’est pas très grave smiley (plus prosaïquement : quand on n’est pas raciste, on peut rire du racisme.)

  • Francis, agnotologue JL 20 décembre 2014 11:59

    Vous me décevez, Isga : le niveau de cet article est très en dessous des prétentions scientifiques dont vous vous parez sous les articles de Dugué.

    le catalogue de règles dont vous parlez ici aurait eu sa place dans un contexte de systèmes experts. Et vous n’avez même pas abordé les algorithmes génétiques, ce qui serait quand même un chemin plus crédible pour parler de la conscience des machines, même si c’est pour conclure qu’elles n’en ont pas.


    • reptile cyrus 20 décembre 2014 15:49

      c’ est au contraire , un bon travail de vulgarisation du concept , qu’ on peut ensuite approfondir ou objecter « facilement » çà permet de lancer le débat au début avant de se mouiller a tenter d’ approfondir , je trouve cette méthode saine et plus constructive que de lancer tout de suite une querelle d’ expert .


    • Francis, agnotologue JL 20 décembre 2014 19:18

      En effet, cyrus, c’est une bonne vulgarisation.

      En postant, je n’avais pas considéré l’étendue de l’ignorance du public en la matière, même sur Agoravox.


    • lsga lsga 20 décembre 2014 21:53

      vous avez du rater un passage : Bernard Dugué est bien plus compétent que moi en physique, et je n’ai jamais prétendu le contraire. J’ai plutôt un bon niveau en épistémologie et en philosophie des sciences : voilà tout. Comme il prétend créer une nouvelle science, il est très facile pour n’importe qui ayant un petit bagage en épistémologie de rapidement voir les limites de son procédé. 

       
      Toutefois, si vous lisez les derniers commentaires que j’ai posté sur ces articles : je lui souhaite sincèrement de réussir à formaliser sa monadologie quantique.
       
      Pour ce qui est de cet article : il n’est pas de moi, mais de John Searl. 
       
      Enfin, concernant les algorithmes génétiques, si vous avez trouvé par quel process mécanique on passe d’un gène en 2D à une protéine en 3D : pensez à postuler au prix Nobel.
       
      À titre perso, comme Bernard Dugué d’ailleurs, je suis assez séduit par les théories de Penrose sur l’émergence quantique de la conscience à partir du cytosquelette des cellules. D’où le postscriptum mystérieux de l’article. Mais encore une fois : ce n’était pas le sujet. En plus : ce ne sont que des théories. 

    • Francis, agnotologue JL 22 décembre 2014 10:05

      Isga,

      ce fil est intéressant, et vous avez eu une riche idée de le publier. Ce sont les articles les plus simples mais qui tournent autour d’une seule et bonne idée qui sont les plus féconds, puisque ce qui fait tout l’intérêt de ce site, n’en déplaise à ceux qui ’postent leur crotte et s’en vont (ainsi Dugué qui ne répond plus jamais), c’est la discussion.

      Avant d’en finir ici, je voudrais dire ceci :

      La science avance, et l’on a parfois dit que plus nous en savons et plus nous découvrons l’étendue de notre ignorance. De la même façon, il est probable que l’on saura faire des consciences artificielles de plus en plus crédibles : votre chambre jaune est aux expériences de pensée que nous ferons demain sur ce sujet ce que la mécanographie d’hier est aux ordinateurs d’aujourd’hui. Elle est déjà dépassée, et c’est ce qui ressort à la lecture de ce fil, même si cette expérience est encore utile pour la majorité de la population.

      Je crois que la conscience artificielle fera encore et toujours des progrès, et cette croyance à pour corolaire que ladite conscience ne sera jamais équivalente à la conscience organique qui s’est bâtie toute seule et sur le principe d’Occam : c’est cela qui fera toujours la différence indépassable entre un artefact et son modèle.

      Mais cela ne me rassure pas du tout, bien au contraire.


  • Gollum Gollum 20 décembre 2014 12:25

    Ben dis donc… Le Grand Schtroumpf ne dit pas que des conneries des fois.. smiley


     Vous avez une activité BIOLOGIQUE, NEURONALE, extrêmement complexe, qui produit ce vécu conscient. La simulation informatique d’un pis de vache ne permet pas de créer du vrai lait. De la même manière, la simulation des processus cognitif ne permet pas de créer de la conscience.

    Bien vu à un détail près. C’est que ce n’est pas l’activité biologique qui produit le vécu conscient mais probablement l’inverse, c’est-à-dire que l’activité biologique est précédée par une activité au niveau quantique lequel niveau quantique inscrit son origine au niveau spirituel, niveau déjà là depuis les origines du monde.

    C’est la raison d’ailleurs pour laquelle les NDE sont possibles. 

    • lsga lsga 20 décembre 2014 21:53

      Pourquoi pas, c’est une théorie qui n’est étayée par rien, qui sent l’idéalisme à plein nez... mais pourquoi pas... En tout cas, ce n’est pas le sujet de l’article, et vous avez compris le fond de l’article. 


  • Qaspard Delanuit Qaspard Delanuit 20 décembre 2014 14:08

    Je trouve ce article bien fait et utile. Sa thèse paraîtra évidente à beaucoup, mais il existe malheureusement des gens qui croient encore que la conscience résulte d’une certaine puissance de capacité de traitement de l’information. La conscience relève d’une autre dimension que celle du calcul mécanique. C’est d’ailleurs pour cela qu’un débile profond incapable de compter jusqu’à 5 a malgré tout plus de conscience que l’ordinateur le plus puissant que l’on puisse concevoir. L’ordinateur n’est pas une personne. Une personne n’est pas une machine à calculer. 


  • SamAgora95 SamAgora95 20 décembre 2014 14:32

    A moins de savoir de façon absolue que la conscience n’est pas le produit d’interaction d’unités de calcul que sont les neurones, il est impossible d’affirmer qu’une machine ne sera jamais capable d’égaler l’esprit humain voir d’accéder à la conscience.


    Mais partons du principe que la conscience est réservée au vivant, si la boite qui parle Chinois (dépourvue de conscience) nous permettait d’avoir une conversation sensée, un véritable échange, des réponses cohérentes a tel point qu’on ne puisse pas affirmer que nous n’avons pas affaire à un humain, alors dans ce cas quel est l’intérêt de savoir si ce boite fait l’expérience de la conscience ou non ? Absolument aucun, puisque de tout façon nous n’avons aucun moyen de vérifier que notre expérience subjective de la conscience est présente chez les autres.

    Dire que l’ordinateur n’est qu’une interaction de 0 et de 1 et qu’il obéi à des ordres programmés est vrai pour une calculatrice ou pour nos ordinateur de bureau, mais cela est faux pour un programme basé sur des réseaux de neurones par exemple, ce dernier est capable d’apprendre par l’expérience, les réponse aux simulies ne sont pas programmés.

    Exemple d’application de réseaux de neurones artificiels :



    • reptile cyrus 20 décembre 2014 16:02

      l’ informatique et ses algorithme peut aussi se concevoir indépendamment du support


    • lsga lsga 20 décembre 2014 21:59

      bon une réponse intéressante, qui demanderait un peu de temps pour répondre, et là je manque d’énergie. Toutefois, avez vous bien compris que quelque soit le temps passé dans la chambre chinoise, et quelque soit la complexité des règles : vous ne comprendrez jamais le chinois ? 

       
      Les réseaux de neurones artificiels portent mal leur nom. Je vous invite à étudier les perceptrons, c’est pas très compliqué. Il s’agit d’une modélisation, très simplifié, et très mécanisé, du fonctionnement des neurones, pas de véritables neurones artificiels. 
       
      Les neurones ne sont pas des machines de Turing. Pas plus que le pis d’une vache, qu’on peut aussi pourtant modéliser de manière simplifiée. Il ne faut pas confondre la modélisation abstraite et la réalité biologique. 

    • SamAgora95 SamAgora95 20 décembre 2014 22:41

      Je ne suis pas totalement novice en la matière, ça fait plus de 20 ans que le sujet me passionne, le fait que je ne rentre pas dans les détail ne signifie pas que je n’ai pas les notions de base. J’ai étudié le perceptron, j’ai même été amené à concevoir un traitement de reconnaissance de forme avec ce type de réseau.


      Je ne suis pas ici pour étaler mes connaissances, mais simplement rebondir sur une affirmation qui me parait fausse, selon laquelle l’ordinateur ne serait qu’un calculateur bête et méchant, ne faisant qu’exécuter des ordres de son programmateur, les personnes totalement étrangère à ce domaine pourraient le croire en se référent à ce qu’elles connaissent à savoir qu’un ordinateur est forcément programmé avec des instructions de type SI ALORS etc... cette notion est dépassé depuis longtemps.

      Je comprends parfaitement ce que vous dites, un circuit aussi complexe soit-il ne peut pas créer de la conscience, ou alors il faudrait définir à quel moment et où est logée cette conscience, dans les unités de calcule ? dans le transfert de l’information entre ces unités ? 

      Etant donnée que nous sommes incapable de modéliser convenable ne serait-ce qu’un neurone, qui pourrait s’avéré être le QUBIT d’un ordinateur quantique, alors par conséquent le plus complexe de nos ordinateur actuel ne pourrait même pas simuler de façon fidèle la complexité d’un cerveau d’un ver de terre.

      Pour moi, dans la nature 1+1 ne font pas toujours deux, il semble que des phénomène non matériels liés à l’information immerge de systèmes complexes, comme l’auto-organisation par exemple, la conscience pourrait en faire partie.


    • lsga lsga 20 décembre 2014 23:09

      bon tout d’abord : désolé, j’aimerais vous répondre mieux, je ne suis pas au top de ma forme ce soir (je suis exténué...).

       
      Bon : même si l’ensemble de règles se modifie lui-même, ce n’est pas pour autant que vous comprendrez le chinois. Cela reste un ensemble de règles, avec des règles servant à générer d’autres règles. Fondamentalement, cela ne change absolument rien à la question de la génération de la signification.
       
      En fait, l’idée est qu’une modélisation dans une machine de turing reste une modélisation, et rien d’autre. Encore une fois : la modélisation parfaite d’un pis de vache ne permet pas de créer du vrai lait. 
       
      Aujourd’hui, nous ignorons ce qu’est la conscience, le vécu subjectif, les significations, les sensations, etc. Nous les expérimentons quotidiennement, on arrive à déterminer leur rapport avec certaines activités biologiques, mais nous ne les avons pas réduites à des phénomènes biologiques (allez lire le What is like to be bat, ça va vous passionner). En tout cas, on n’a pas besoin de savoir précisément ce qu’elles sont ou comment elles sont générées pour pouvoir affirmer qu’elles ne sont pas un simple ensemble de règles de langages. Elles sont plus que des mots et des règles sur des mots.
       
      L’émergence (pas l’imergence) est le miracle du fonctionnalisme. Cela revient dire : si on passe suffisamment de temps dans la chambre chinoise, ou si les règles sont suffisamment complexes alors on finira par comprendre le chinois. C’est intuitivement faux. Vous réalisez bien que vous ne comprendrez jamais le chinois par cette méthode.


      La conscience émerge bien de quelque chose (à moins qu’elle ne soit une propriété fondamentale de la matière, ce qui devient de plus en plus mon point de vue...), en tout cas, elle n’émerge pas du langage, ni de règle de langage. Elle émerge d’un substrat matériel, que ce soit à une niveau quantique (allez voir du côté de Penrose et de ses théories sur les propriétés quantique du cytosquellette des cellule, ça va vous plaire), ou chimico-électrique (le tas de chair qu’on a dans le crâne). Elle n’émerge pas de règles d’association de symboles.
       
      En tout cas, merci encore, c’est bien pour débattre avec vous que j’ai écrit cet article. 

       

    • foufouille foufouille 21 décembre 2014 12:14

      « bon tout d’abord : désolé, j’aimerais vous répondre mieux, je ne suis pas au top de ma forme ce soir (je suis exténué...). »
       smiley
       smiley


    • le castor 21 décembre 2014 13:20

      Bonjour Isga,


      Article interessant mais je n’ai malheureusement pas trop vu ou vous vouliez en venir...

      Je vous ferai donc deux objections principales.

      La premiere, vous voulez parler ’philosophie’ mais on voit bien que sur ce plan votre analyse est assez superficielle. L’article n’est pas de vous, mais vous l’approuvez. Je reconnais que c’est intelligemment vulgarise mais si vous voulez elever un peu le debat, les arguments de SamAgora95 vous devancent nettement. En effet, vous dites que les ordinateurs ne comprennent rien et n’auront jamais de conscience... mais vous ne pouvez pas en etre certain en ce qui concerne les humains non plus. Et c’est bien la le drame ! Si vous avez bien une conscience, c’est la seule chose dont vous pouvez etre certain et alors il faut accepter le fait qu’il est possible que vous soyez le seul. Je comprends qu’il est plus ’confortable’ de penser que notre Maman nous aime d’un amour aussi conscient que celui que nous lui portons mais la philosophie exige des traumatismes. Et sur ce sujet, quel serait le sens de s’interdire de tomber amoureux d’une machine (cf blade runner) si l’illusion qu’elle donne de sa ’comprehension’ ne vous permet pas de deduire si elle a une conscience ou non ?
      Bref, le veritable ’probleme’ reside dans la certitude, vous etes certain que les ordinateurs n’ont pas de conscience (sans remettre en question leur existence meme) alors qu’il est possible, et meme sans doute probable, que vos potes en ont une, et ca fait toute la difference.

      La deuxieme objection concerne la raison (politique) pour laquelle vous dites vouloir diffusez votre theorie. Il y reside un paradoxe. Vous dites vouloir combattre « la théorie du Terminator [...] la plus anti-progressiste (qui) potentiellement sera le support mythologique du fascisme du 21ème siècle » mais vous admettez d’un autre cote qu’il est pas impossible qu’une conscience emerge un jour d’autre chose (d’articiel) qui ne soit pas un ordinateur... ou est la difference ? Et qui nous dit que cet ’autre chose’ ne voudra pas nous exterminer ? smiley

  • non667 20 décembre 2014 14:45

    tout ça ne me dit pas ce que je vais faire à manger demain ! smiley smiley smiley


  • alinea alinea 20 décembre 2014 14:59

    Oui, c’est sûr qu’il y en a beaucoup qui ont cru qu’on pouvait, non pas mettre Paris en bouteille, mais le monde en binaire ! Cela a déteint partout ; la pensée binaire : pour/contre ; le goût binaire, j’aime/j’aime pas ; bref un monde d’une pauvreté hallucinante parce que de grands gamins ont été émerveillés par leurs joujoux de Noël !!


    • Enabomber Enabomber 21 décembre 2014 17:06

      Certains ont une conception du monde encore plus stérile : ce n’est plus j’aime/j’aime pas, mais j’aime/je ne m’exprime pas. Fessebouc quoi.


  • Pyrathome Pyrathome 20 décembre 2014 15:18

    Boujour Isga,

    C’est une lapalissade ton article, un ordinateur ne peut en aucun cas être intelligent puisqu’il ne vit pas......Là est toute la différence....On pourra faire aussi sophistiqué qu’on veut ou qu’on peut, une machine ne vivra jamais, même à « l’interfacer » directement sur les neurones , n’en déplaise aux transhumanistes....
    Maintenant, on attend le même article pour « définir » ce qu’est la vie ?
    Oui, je sais, ça va être beaucoup plus dur.....


    • Nestor 20 décembre 2014 16:16

      Salut Pyra,

      « C’est une lapalissade ton article, un ordinateur ne peut en aucun cas être intelligent puisqu’il ne vit pas. »

      Viens pas casser le premier grand pas en avant de ce cher Isga ... Il vient juste de comprendre que ça ne servait à rien de donner à bouffer à son ordi ... Laissons-le évoluer à sa vitesse ... smiley


    • Gasty Gasty 20 décembre 2014 19:08

      Bah ! Ils y en a qui ne savent pas vivre, alors qu’est-ce qu’ils ont de mieux que 0 1. Oui Non ? quelle belle affaire ! si la réponse est inadéquate ça bug, ça se met en boucle et ça chauffe.


    • Gasty Gasty 20 décembre 2014 19:26

      Des 0 et des 1 on peut en trouver pas mal :

      avec ou sans

      pour ou contre

      t’es con ou quoi

      gauche ou droite ( politiquement)

      stop ou encore


    • Gasty Gasty 20 décembre 2014 19:29

      Il suffit d’en savoir le contexte, exactement comme ce « Ching chang chong ».


    • gnozd gnozd 22 décembre 2014 09:31

      Bonjour.

      La Vie ! On est plongés dedans alors on trouve ça extraordinaire et on a tendance à en faire le but ultime de toutes les recherches. Exemple, en recherche spatiale, on voudrait bien trouver une planète capable de générer la vie.

      La vie, jusqu’à preuve du contraire, c’est ni plus ni moins que la propriété particulière de la chimie du carbone à s’auto-perpétuer, depuis que la première protéine a bouffé sa voisine d’à côté.
      C’est donc un phénomène purement local, terrestre, récent en rapport de l’existence de l’univers, et y’a franchement pas de quoi, à l’observation de ce que nous en faisons, de la vie, sauter au plafond.
      Et ça ne résoud pas la question de la conscience. Ce serait faire preuve d’un anthropocentrisme et d’un géocentrisme aigus que d’imaginer que la conscience soit apparue avec la vie, et sur terre.

      Question : un bébé qui naîtrait sourd, aveugle, et insensible au toucher serait-il conscient ?


  • Claude Simon Gandalf 20 décembre 2014 16:09

    Il y a quand même telle équipe scientifique (autrichienne il me semble) qui tente d’élever des cerveaux en laboratoire, telle équipe américaine qui a greffé un neurone sur un circuit électronique.

    La première expérience est un échec.

    Si on accepte la transcendance que semble démontrer les NDE, la conscience dont on dispose semble effectivement hors d’atteinte du transhumanisme, qui ne serait qu’un travestissement progressiste et matérialiste. Autant pratiquer la transhumance.

    Si l’ordinateur classique est un formidable outil de calcul, il n’est que cela.
    On pourrait, avec les pérégrinations de la science, tomber sur une autre aptitude cérébrale qui nous deviendrait inutile. Mais cela, ceux sont les laboratoires qui le diront.
    Il n’y a pas de technologie qui produise de conscience de son existence, qui ne produise d’idées.

    Quoiqu’il en soit, étant donné la plasticité du cerveau, il est à espérer que rien ne vienne remplacer l’homme.



    • alinea alinea 20 décembre 2014 16:14

      Rien ne pourra remplacer la Vie !!


    • lsga lsga 20 décembre 2014 22:05

      ah mais : greffer des neurones biologiques, ou produire artificiellement des neurones biologiques : ce n’est déjà plus se contenter de les modéliser dans une machine de turing. Donc oui, un ordinateur avec des neurones biologiques pourrait peut-être avoir une conscience. Ce serait improuvable de toute façon. 


    • Nestor 21 décembre 2014 01:46

    • gnozd gnozd 22 décembre 2014 09:33

      Exact. Si on veut fabriquer un être intelligent et conscient, il suffit de faire un enfant. C’est même plutôt agréable.


    • reptile cyrus 22 décembre 2014 17:31

      « il y a aussi des humain qui réagissent exactement comme ta chambre chinoise ,
      doit t’ on leur refusé leur ressenti sur leur expérience de conscience comme etant illusoire ? ... on arrive vite a des philosophie pâs tres saine (nazisme , totalitarisme communisme , ou impérialisme capitaliste.

       »Ce serait improuvable de toute façon« , c’ est bien l’ inconvénient .
      Comment reconaitrais t’ on une forme de vie consciente »radicalement etrangere« , il y a fort a parier qu’ en appliquant »nos preconcus« on loupe justement la découverte ;) car la conscience n’ est pas forcement l’ appanage de l’ humain , alors que bien sur la conscience »humaine" l’ est .

      Avant même de la recherché sous une autre forme ne faudrait t’ il pas déjà etre sur de la reconnaître ?


  • bakerstreet bakerstreet 20 décembre 2014 17:18

    Je mes souviens d’un nouvelle de Brown, il y a très longtemps lu :


    Un type met en connexion tous les ordinateurs du monde, pour avoir une puissance inédite de calcul.
     Ensuite, il pose la question qui fâche à l’unité centrale

    « Dieu existe t’il ? »

    La machine ronronne, et rapidement sort la ’réponse :
    « Maintenant, oui ! »

  • COVADONGA722 COVADONGA722 20 décembre 2014 17:44

    yep , un peu du genre de celle ci dans une anto de Sadoul deux information débarquent au tibet installer un Bull et le moine local leur annonce que c’est pour connaitre les 500 milliards de noms de dieu cette connaissance amènera la fin du monde ,les gus hilare monte la bécane lance le programme et remonte en avion deux heures après leur pilote leur signale que les étoiles s’éteignent une à une ......


    asinus

    • reptile cyrus 20 décembre 2014 18:18

      très bonne nouvelle très philosophique , par contre me semble que tu fait référence a celle-ci plutôt


    • lsga lsga 20 décembre 2014 23:36

      C Clark est un de mes grands manque en SF, je n’ai encore jamais rien lu de lui. Faut que je m’y mette... et en lisant l’article wikipedia en lien, je m’en rend compte que par contre j’ai lu le matin de magiciens de Pauwells.... j’ai honte. 


  • COVADONGA722 COVADONGA722 20 décembre 2014 17:45

    pardons deux informaticiens ....


  • COVADONGA722 COVADONGA722 20 décembre 2014 18:24

    yep ma mémoire n’étant qu’humaine elle a transformé quelques peu un truc lu il y a 40/50 ans 

     

  • boblansky boblansky 20 décembre 2014 18:49

    Voilà une vision quelque peu archaïque de l’informatique, très rassurante


    Dire que « Un ordinateur associe des 0 et de 1 en fonction de règles écrites par les programmeurs » est une vérité de La Palice lorsque l’on considère l’ordinateur comme un système auto-suffisant, ce qui était vrai dans les années 1970.

    Cependant, nous ne pouvons plus considérer un ordinateur en le dissociant du réseau et de la personne derrière l’écran. Derrière chaque terminal se trouvent un ou plusieurs utilisateurs qui aujourd’hui peuvent définir très simplement la manière dont est traitée et/ou le résultat à une entrée donnée. La règle ’Ching Chang Chong’ donne ’Chang Choung Chen’ est aujourd’hui devenue malléable, dans les mains des personnes qui sont au bout des terminaux (vous, moi, les programmeurs, etc.). Une réaction, un clic à un moment précis, ou un upload d’image va modifier les données et la manière dont se comporte le système en temps réel. Imaginez donc maintenant 3 milliards d’individus agissant et interopérant en définissant des règles et des comportements, et nous pouvons de là voir émerger une « intelligence » via le système informatique (système = ensemble des éléments, donc ordinateurs + réseau + utilisateurs).

    Et c’est, à mon humble avis, cette intelligence « globale » qui risque d’échapper à notre contrôle, celle de l’information. 

    • lsga lsga 20 décembre 2014 22:03

      Une idée qui m’a souvent traversé l’esprit. Nous sommes le ghost in the shell ^^


    • lsga lsga 20 décembre 2014 22:18

      vous me confondez avec John Searl. 


  • Donbar 20 décembre 2014 20:08

    La conscience, la compréhension et la signification sont des concepts idéalistes, donc bourgeois. Isga se laisse aller, le matérialisme est foutu.


    • lsga lsga 20 décembre 2014 22:09

      lol, c’est assez vrai... D’ailleurs la neurologie n’a pas à se soumettre à ces concepts là (c’est le matérialisme éliminativiste de Churchland). En revanche, on expérimente bien directement notre vécu conscient, qui pour nous même est bien matériel. 


    • lsga lsga 20 décembre 2014 23:43

      bon je suis exténué ce soir, mais j’ai un peu mieux répondu plus haut à samAgora (et puis votre post ici était drôle).

       
       La position matérialiste concernant la conscience, c’est qu’elle est le produit de la matière, et non pas l’inverse (comme le prétendait Hegel). Je vous copie / colle ici le bout de réponse posté plus haut à Samagora : 
       
      La conscience émerge bien de quelque chose (à moins qu’elle ne soit une propriété fondamentale de la matière, ce qui devient de plus en plus mon point de vue...), en tout cas, elle n’émerge pas du langage, ni de règle de langage (position IDÉALISTE). Elle émerge d’un substrat matériel, que ce soit à une niveau quantique ou chimico-électrique (le tas de chair qu’on a dans le crâne). Elle n’émerge pas de règles d’association de symboles.(position MATÉRIALISTE)

  • jjwaDal jjwaDal 20 décembre 2014 21:18

    Vous dites des bêtises car vous n’y entendez pas grand chose sur le sujet...
    Stephen Hawking est bien un signataire d’un article sur le sujet de l’arrivée potentielle de l’AI, mais vous devriez considérer les 3 signatures qui l’accompagnent qui ont aussi une opinion plus étayée sur le sujet.
    D’une : vu la façon dont fonctionnent nos ordinateurs récents on n’a aucune raison de postuler que notre mémoire et même notre intelligence seraient supportées par autres choses que des microstructures et nanostructures biologiques,inventées au cours de l’évolution.
    Ensuite que nos « ordinateurs » n’aient pas plus d’« intelligence » que celle que nous leur avons donné tient du fait que chronologiquement les premiers n’avaient pas de sens pour interagir avec leur environnement comme le premier insecte, la première bactérie venue le font.
    Alors oui, bientôt un ordinateur pilotera une automobile en environnement routier réel sans aucune assistance parce qu’on lui aura appris...
    La belle affaire, on ne vous a rien appris à vous ? C’est parce que le monde est plein de gens pensant encore que la vie est faite de vie et la matière de matière (des fonctionnements) et que l’intelligence est un « don divin » (un miracle non reproductible) que de telles mises en garde tombent dans le vide. On voit ce qu’on est équipé pour voir et surtout envisager, rien d’autre. Pas un signe d’intelligence je dirais...


    • lsga lsga 20 décembre 2014 22:09

      vous n’avez pas compris l’article. Relisez le.


    • COVADONGA722 COVADONGA722 20 décembre 2014 23:13

      Alors oui, bientôt un ordinateur pilotera une automobile en environnement routier réel sans aucune assistance parce qu’on lui aura appris..

      oui bonsoir , placée devant le dilemme écraser un piéton pour sauver son passager,
      ou tuer son passager pour sauver le piéton : elle choisiras quoi et comment la machine ? 

    • Gasty Gasty 21 décembre 2014 05:56

      @Covadonga

      Ce sera sous doute la première aplication des trois lois de Isaac Asimov.

      1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
      2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
      3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

    • COVADONGA722 COVADONGA722 21 décembre 2014 07:45

      yep Gasty fan de sf c’est bien évidemment aux lois robotique d’Asimov que je faisais allusion reste que le dilemme demeure entier pour une AI , il est des situation ou 1 et 2 sont antagonistes.




      asinus 

    • jjwaDal jjwaDal 21 décembre 2014 09:53

      Je quitte Bill Joy à l’instant (Ted talks) et je le pense bien mieux placé que vous (l’auteur du fameux « Why the future doesn’t need us ») pour juger si l’AI est concevable et une menace potentielle ou pas. Oui je vous ai lu. Vous semblez oublier qu’il y a un gouffre entre l’intelligence opérationnelle d’un moustique (qui rassemble dans moins d’un mm3 et les capteurs et l’outil de traitement de l’information pour éviter les obstacles, survivre, trouver un partenaire sexuel, etc.. et un être humain. La nature a mis 4 milliards d’années pour aboutir à notre forme d’intelligence probablement parce qu’il fallait une combinaison de capteurs/effecteurs et un outil de traitement des données qui n’existait pas auparavant pour percevoir/traiter les informations intérieures et surtout extérieures. Le tout sans projet (postulat scientifique).
      Maintenant sortez un enfant actuel (le dernier cri en la matière) et plongez-le au coeur du paléolithique, que sera son intelligence et sa culture comparée à une existence durant ce siècle disons dans ce pays ?
      Les capteurs miniaturisés sont là, la possibilité de les intégrer dans une structure qui peux interagir avec son environnement aussi (pas sans apprentissage initial, mais souvenez-vous de vos jeunes années...), il nous manque les « algorythmes » hiérarchisés pour pouvoir concrètement faire de l’apprentissage. Imaginez une « loi » erronée issue de l’apprentissage initial (à la fabrication) disant que quand on lâche un objet sans support à un mètre du sol il flotte dans l’air. Au premier essai la machine verra que la « loi » est inexacte. A la « Asimov » on peut imaginer une « loi » plus primitive (programmée comme « plus fondamentale » et donc moins modifiable) disant que toute inexactitude entre une loi et le retour du monde réel doit la pondérer. Tout désaccord systématique avec l’expérience doit l’invalider par une nouvelle loi du même ordre reflétant ce que le monde réel dit. Je pense que notre intelligence est issue de processus de ce type et est copiable en AI. Ces simples boucles de rétroactions confinent à de l’apprentissage et je vous fiche mon billet qu’avec des « zéros » et des « uns » on peut s’en sortir...
      Sinon d’accord sur le fait que mon ordinateur actuel a zéro chance de devenir « conscient » de m’avoir sur le dos en permanence smiley


    • eresse eresse 22 décembre 2014 02:09

      @covadonga722
      Referez vous au « dilemme du tramway » et vous verrez que la réponse n’est peut être pas aussi claire que vous le pensez.


    • COVADONGA722 COVADONGA722 22 décembre 2014 07:22

      @eresse 

      un grand merci pour la piste quelques heures de lecture me laisse tout autant dubitatif mais plus informé.
      Et c’est justement parce que contrairement à l’auteur et quelques uns de ses détracteurs que pour moi rien n’est clair que j’ai posé la question.
      Je travaille depuis presque 40 ans sur des machines outils j’ai vus robotique et domotique clairsemer les rangs de mes pareils .Par productivistes interposés les machines ont fait à mon monde une guerre impitoyable leurs victimes peuplent pole emploi .Seule petite lumière , elles ordonnent décident ou cadencent mais rien de ses trois décisions n’est encore supérieur à ma clé de douze et quand les « les filles » dernière extension humaine protestent en bout de chaîne .Celle ci me permet de rappeler à des bécanes Deutsch Kalitat que même si je suis un peu plus habilis que sapiens sapiens J’ordonne Décide et Cadence...
      cdtl
      asinus:ne varietur

    • gnozd gnozd 22 décembre 2014 09:51

      Ca va être vachement utile un robot qui conduira une bagnole.

      Au départ la bagnole c’est pour transporter des gens, non ?

      J’ai dit une connerie ?


    • COVADONGA722 COVADONGA722 22 décembre 2014 11:56

      bonjour gnodz 

      je crois que j’ai initié la question en ces termes
       bientôt un ordinateur pilotera une automobile


      cdtl

      asinus

    • gnozd gnozd 22 décembre 2014 17:50

      J’avais bien compris. J’avais juste envie d’extrapoler un peu.
      Certaines boites japonaises trippent sur des robots humanoïdes, genre qui vont aider les personnes âgées ou les handicapés dans leur quotidien (alors qu’il y a partout de VRAIS chômeurs). Je voulais juste pousser l’absurdité au bout : des machines (bagnoles) conduites par d’autres machines (ordi). Voilà. L’idée me faisait juste marrer.
      Jaune.


  • Zeb_66 20 décembre 2014 21:33

    Drôlement attardé lsga !
    Il y a longtemps que les 0 et les 1 ne servent plus qu’à transporter
    et stocker l’information.
    La logique qui utilise ces informations est infiniment plus subtile
    aujourd’hui, le plus ancien des concepts d’Intelligence Artificielle
    est ce que l’on appelle « logique floue » imaginée par Lofti Zadeh
    en 1965, eh oui, c’est pas jeune hein ?
    Ce concept est aujourd’hui utilisé dans toutes les branches de
    l’activité humaine et s’il savait ce que les machines peuvent déjà
    faire avec ça, il en tomberait sur le cu... et ce concept est depuis
    largement dépassé, ce qui commence à poser de sérieuses questions
    d’éthique aux chercheurs impliqués dans l’IA.
    Pour ceux qui veulent aller un peu plus loin que la logique Booléenne
    de Isga :
    http://fr.wikipedia.org/wiki/Logique_floue


    • lsga lsga 20 décembre 2014 22:09

      la fuzzy logic ne change rien au propos de l’article. 


    • Jean Keim Jean Keim 22 décembre 2014 07:48

      Même dans le plus subtil traitement de l’information il y a des 0 et des 1, il n’y a pas d’intelligence il n’y a que d l’ingéniosité. 

      Cela a commencé avec les boucles réroactives introduites dans les premiers programmes et ensuite la complexité s’est amplifiée mais ce ne sont que des opérations logiques, avec l’augmentation faramineuse des cadences des processeurs cela parait presque « vivant » mais c’est bien de la quincaillerie sans aucun doute et je ne confierais pas nos enfants à des enseignants robotisés. 
      Un ordinateur ne peut pas sortir de sa condition même si les programmes les plus complexes permettent à ces mêmes programmes d’évoluer, autrement dit ils peuvent à l’instar des êtres humains enrichir leurs savoir mais restituer un savoir comme dans un jeu télévisé n’est pas de l’intelligence, juste de la mémoire et de l’érudition.

  • Jean Keim Jean Keim 20 décembre 2014 22:15

    Je trouve Isga que vos chinoiseries expliquent parfaitement le fonctionnement d’un ordinateur et il est probable (je n’ai aucun doute la-dessus) que personne n’arrivera jamais à expliquer ce qu’est l’intelligence. 

    L’explication d’une chose fut-elle un concept abstrait est un mouvement mental, un processus qui inclus la pensée qui puise dans un savoir emmagasiné dans des mémoires et qui ainsi s’exprime uniquement dans un domaine limité au connu. La capacité d’associer des données pour obtenir de nouvelles combinaisons est de l’ingéniosité qui, si elles sont décomposées en unités logiques, sont réalisables pae des ordinateurs.
    Google derrière lequel se trouvent des serveurs informatiques eux mêmes commandés par des opérateurs humains est capable de faire des découvertes scientifiques en collationnant d’énormes quantités de données. Cet exemple est intéressant car nous trouvons des automatismes en œuvre dans une structure pilotée par une « intervenant » en position supérieure mais si une intelligence participe à l’ensemble, le déroulement du processus est en soi dépourvu d’intelligence. 
    L’intelligence est un état d’être et non pas un contenu dans un contenant, elle se manifeste par surprise, par un éclair de compréhension et nous fait avancer par bonds ( que certains seront tentés de qualifié de quantique ). Le résultat quand il est « digéré » vient enrichir des savoirs réutilisés éventuellement dans un contexte dépourvu de toute intelligence.
    L’intelligence ne peut pas être définie, ni expliquée, elle échappe à toute tentative d’enfermement dans un savoir que pourtant elle a contribué à enrichir. 
    Nous ne pouvons pas dire ce qu’est l’intelligence, nous pouvons dire ce qu’elle n’est pas, nous pouvons dire de l’ordinateur le plus puissant, le plus rapide et le plus complexe de la terre qu’il n’est pas intelligent, il est néanmoins la manifestation d’une intelligence ni quantifiable, ni localisable.


    • lsga lsga 20 décembre 2014 23:13

      allez lire le « What is like to be bat ? » de Thomas Nagel, cela démontre via une expérience de pensée simple pourquoi on ne pourra jamais réduire (expliquer) la conscience. 

       
      La science a des limites, qu’elle sait précisément délimiter. Le théorème d’incomplétude de Godel est le plus bel exemple de cette nouvelle dynamique des sciences qui cherchent à définir leurs propres limites. 

    • Jean Keim Jean Keim 21 décembre 2014 09:37

      Par méprise de ma part, mea-culpa, mon commentaire parle plus de l’intelligence que de la conscience qui n’est qu’un contenu celui que nous générons par notre activité mentale de l’instant dont la pensée qui se pense en train de penser. 

      Il est possible par exemple de penser que la conscience est un faculté qui nous est donnée par une entité supérieure ou qu’elle est une fraction d’un ensemble plus vaste ou bien encore qu’elle n’est qu’une organisation particulière de la matière, il est également possible, dans une variation infinie, de penser que ce que j’écris est vrai ou faux ou possible etc., etc., tout cela est la conscience, tout cela est un contenu.
      Une machine peut-elle se penser en activité, peut-elle penser qu’elle est une machine ce qui la distingue de son créateur ou du fait de ses pensée ne pas se sentir différente de lui ? Pour résoudre ces dilemmes il faut l’intervention de l’intelligence smiley

  • Vipère Vipère 20 décembre 2014 22:28


    En somme, l’ordinateur est l’outil qui décuple l’intelligence humaine ? 

     

    • lsga lsga 20 décembre 2014 23:17

      mais qui ne la remplace pas.


    • Vipère Vipère 20 décembre 2014 23:38

      « mais qui ne la remplace pas. »


      Evidemment, c’est comme le hache, il y a forcément quelqu’un qui tient le manche, sans quoi, on n’est pas prêt d’avoir des bûches taillées à 50 cm !


  • Freehuxald 20 décembre 2014 22:29

    De très nombreuses confusions et incompréhensions dans cet article.

    Pour le fond, la réponse de Massada est excellente.

    Ensuite, il est tout à fait envisageable de faire émerger une conscience en passant par un ordinateur, et je vais le montrer par un exemple simple : un ordinateur peut simuler les choses.

    Dès lors que l’on aura une connaissance suffisante du cerveau humain pour en comprendre son organisation ainsi que les éléments qui le composent, il sera alors possible de simuler chacun de ces éléments et les interactions qui existent entre eux. Une conscience humaine émergera, avec pour seule différence avec la nôtre le support physique.

    Le seul obstacle qui pourrait exister, c’est l’existence d’une caractéristique non matérielle ou « divine » nécessaire à la conscience.

    Sur un autre plan, votre article essaie de montrer qu’un ordinateur (que vous associez à la machine de turing) ne peut pas être le support d’une conscience. Cette question est sans importance, on s’en fout tous de savoir si ce type particulier de machine, qui n’existera probablement plus dans quelques décennies, peut ou ne peut pas. Ce qui est important, c’est de savoir si l’homme pourra un jour créer une IA consciente, qu’importe le support.

    Et c’est également pour cela que vous n’en savez pas plus que Stephen Hawkins qui ne parle ni d’ordinateur ni de conscience, mais d’intelligence artificielle.


    • lsga lsga 20 décembre 2014 23:19

      vous n’avez rien compris à l’article. Ce n’est pas parce que vous faites parfaitement semblant de comprendre le chinois (vous simulez parfaitement le chinois) que vous comprenez le chinois.


    • lsga lsga 20 décembre 2014 23:49

      la machine n’a aucune perception du monde. Pour elle, le rouge et les sons ne sont que d’autres 0 et d’autres 1 auxquelles elle applique des règles. Elle ne voit pas plus de rouge qu’elle ne comprend le chinois. 


    • Vipère Vipère 21 décembre 2014 00:02


      Percevoir le monde et la perception de soi, sont l’apanage du vivant !

      Un chat a conscience d’exister, lorsqu’il se voit dans un mirroir, la première fois, il croit que c’est un autre chat, il fait le tour du miroir pour voir son congénère et puis par déduction, issue de l’intelligence, il finit par comprende que dans le miroir, c’est lui.

    • Freehuxald 21 décembre 2014 00:10

      Vous êtes vraiment à la ramasse sur ce sujet. smiley
      De A à Z.

      Je ne vois pas au nom de quoi un cerveau humain simulé ne ferait que semblant de comprendre alors qu’un cerveau humain avec comme support un tas de neurones physiques, lui, comprendrait vraiment. Sauf si, encore une fois, la conscience vient d’une élection divine.

      http://fr.wikipedia.org/wiki/Cerveau_artificiel

      Si un jour on arrive effectivement à télécharger un cerveau et que vous servez de cobaye, votre double numérique sera fort vexé que vous ne reconnaissiez pas en lui un être conscient !

      Pour les gens intéressés, je vous invite à aller lire la série de SF « Il sera... », le sujet y est très longuement abordé, en poussant le concept très loin et de manière ludique. On touche là à des possibilités immenses qui, quand on les comprend vraiment, peuvent effectivement laisser penser que le genre humain est potentiellement menacé.


    • lsga lsga 21 décembre 2014 00:10

      On ne sait pas de quelle manière sont produit les « qualias » (le vécu conscient). En revanche, on peut en effet assez sereinement penser qu’ils sont le produit de l’activité biologique (quand bien même certains les font descendre à un niveau quantique). Quoi qu’il en soit, ce que permet de saisir l’expérience de la chambre chinoise, c’est qu’ils ne se résument pas à des mots et des règles sur des mots. La conscience n’est pas du langage, ou en tout cas pas que du langage : c’est tout ce que démontre cette expérience de pensée, rien d’autre. 

       
      Vous avez compris que dans la chambre chinoise, vous ne compreniez pas le chinois ? Très bien. Pour les couleurs, c’est pareil. Imaginez que le chinois, quand il voit du rouge, écrit rouge en chinois sur un bout de papier, vous l’envoie, vous répondez alors un truc en rapport avec le rouge sur un bout de papier (sans savoir ce que cela veut dire), que vous renvoyez au chinois. Il va croire que vous avez vu du rouge, ce n’est pas le cas. Le microprocesseur reçoit des suites de 0 et de 1, auquel il applique des règles de calculs, c’est tout. Il ne « sait pas » que ces 0 et ces 1 viennent d’un récepteur photosensibles ou d’un micro ou de quoi que ce soit d’autre. 
       
      Comment l’ensemble chimico-physique qui constitue l’oeil et le cerveaux génèrent la représentation consciente du rouge : c’est un immense mystère. En tout cas, c’est plus que des mots et des règles sur des mots. 
       


    • Freehuxald 21 décembre 2014 00:12

      PS : je répondais à Isga


    • lsga lsga 21 décembre 2014 00:13

      freehuxaid : ce n’est pas parceque vous faites parfaitement semblant de comprendre le chinois que vous comprenez le chinois, c’est aussi simple que cela. 


    • Vipère Vipère 21 décembre 2014 00:15


      Deux cerveaux humains peuvent être reliés comme ceci :


    • lsga lsga 21 décembre 2014 00:22

      free et vipère : vos commentaires sont intéressants, mais là, Tall posait des questions très précises, très bien exprimées, très claires, auxquelles il est difficile de répondre. N’hésitez pas à ouvrir d’autres thread plus bas. 


    • Freehuxald 21 décembre 2014 00:26

      Et de toute évidence, vous ne comprenez ni le chinois, ni ce qu’est un cerveau simulé, ellesga.


    • lsga lsga 21 décembre 2014 09:46

      Bon, une bonne nuit de sommeil ça fait du bien.
       
      Vous proposiez que la référence fasse émerger la signification : au fur et à mesure que l’ordinateur associerait les mots de chinois sans signification à ses « expériences ». Je vous ai répondu que l’ordinateur n’a pas d’expérience de quoi que ce soit, et j’ai tenté de vous donner une nouvelle expérience de pensée pour le rouge.
       
      En fait, c’est beaucoup plus simple : vous pouvez rajouter dans le glossaire des règles du type : « Thching Tchang Tchong Doung Doung » (ce qui veut dire : « tchinh tchang correspond à tel objet, à telle exéprience passée ») ; ce n’est pas pour autant que vous comprendrez la signification cette phrase. Pour vous, « tching tchang tchong doung doung » n’a aucune signification, et le fait d’avoir ajouter cette règle ne vous permet pas d’accéder à la signification de « Tchin Tchang Tchong ». Vous aurez juste rajouté une règle en plus à votre glossaire, rien de plus.
       
      (mais encore une fois, vos contre arguments sont les meilleurs des différents commentaires. L’émergence de la signification par référence est en effet un des grands dada des fonctionnalistes)
       
      Concernant votre dernier post, allez lire le « WHat is like to be a bat ? » de Thomas Nagel, c’est très proche de ce que vous dites. 


    • eresse eresse 22 décembre 2014 02:31

      @Isga
      "Le microprocesseur reçoit des suites de 0 et de 1, auquel il applique des règles de calculs, c’est tout. Il ne « sait pas » que ces 0 et ces 1 viennent d’un récepteur photosensibles ou d’un micro ou de quoi que ce soit d’autre.« 
      A première vue, vous n’avez jamais approché de près ou de loin un »ordinateur« ou peut être un univac II il y a fort longtemps.
      Vous comparez le couple »oeil cerveau" a un microprocesseur.
      Votre connaissance approximative et votre incapacité à faire une analogie correcte met hors course votre article.
      Le seul fait de vous croire supérieur a une IA aujourd’hui ou dans 10 ans vous met déjà en position d’infériorité. On en reparle dans une décennie ?


    • gnozd gnozd 22 décembre 2014 09:58

      En fait la question est de savoir si un jour, un ordi sera capable de dire : « je ».


Réagir