mardi 3 février 2015 - par Bernard Dugué

Ni Shannon, Turing, ni Boltzmann. Les lois naturelles de l’information

1. L’information est devenue centrale pour notre époque. D’après le physicien Paul Davies, l’information au « sens scientifique » est à notre ère du numérique et de l’Internet ce que la mécanique rationnelle et la thermodynamique représentaient en « connivence » avec la société industrielle du 19ème siècle et ses machines. Mais de quelle information s’agit-il ? En vérité, l’information, ou la forme, se situe partout dans le monde et à toutes les échelles, particules, atomes, second principe de la thermodynamique, systèmes vivants, conscience, états mentaux, société, technologie, cosmos. Avec deux volets, la transmission des informations et les calculs effectués sur les informations, sans oublier les processus cognitifs et/ou sémantiques produits par le « cerveau humain ». A notre époque, les inquiétudes portent plutôt l’excès que le manque d’information. Nous serions submergés par les flux d’information illimités transitant par les appareils numériques alors que pour d’autres, ce sont les systèmes de calculs, les machines artificiellement intelligentes qui représentent une menace, comme l’ont déclaré Stephen Hawking ou Bill Gates. Voilà donc un tableau associant les impacts sociologiques de l’information et le volet épistémologique explicitant comment l’information prend place dans les représentations scientifique en supplantant les flux de matières, les mécanismes et les énergies figurant dans le paradigme hérité du 19ème siècle. Le physicien Seth Lloyd livre aussi un constat édifiant sur l’information qui au 21ème siècle se situe sur un pied d’égalité avec l’énergie sur l’échelle universelle des concepts fondamentaux de la physique. Et toujours cette question. Quid de l’information et quid de la computation ?

A partir de cette question, je formule un postulat fondamental concernant ce concept central. Il faut distinguer deux « sciences de l’information », les unes sont en quelque sorte artificielles et les autres naturelles. Cette distinction est la conséquence de l’avancement actuel des travaux qui sont suffisamment diversifiés pour engendrer des confusions mais aussi se prêter à des clarifications d’ordre épistémologique et ontologique. Il apparaîtra de plus en plus évident que parmi les représentations utilisant la notion d’information, de computation, ainsi que la quantité d’informations, sont des approximations de la réalité ou du moins, des théories portant sur des réalités incomplètes, partielles voire superficielles et certainement « atomisées ». Ces théories couvrent la thermodynamique de Boltzmann et son entropie statistique, la théorie de la transmission élaborée par Shannon et le paradigme de la computation issue des travaux de Turing. L’application de ces théories à la compréhension de la matière, de la vie, et des processus cérébraux, a conduit vers une vision artificielle et erronée de ces réalités telles qu’elles sont et se transforment dans la Nature.


2. De Turing au cognitivisme et « computérisme ». On considère Turing comme le père fondateur de la science de l’informatique et on lui doit notamment un concept central ayant joué un rôle heuristique dans de multiples champs qui ne se limitent pas à la science des computers. Ce concept c’est la machine de Turing, utilisé en informatique théorique mais aussi comme expérience de pensée. En ce cas, la machine est universelle et elle a comme particularité la capacité à simuler le comportement de toute machine de Turing. Tous les problèmes formulés avec un algorithme peuvent être résolus par cette machine universelle qui a servi pour formuler une expérience épistémologique consistant à faire dialoguer un individu avec une machine de Turing censée pouvoir répondre avec un minimum de raison à toute question posée. On se demande alors si cette machine est capable de duper l’homme en se faisant passer pour un individu doté d’un cerveau humain. Malgré sa nouveauté, cette expérience de pensée est calquée sur les réflexions menées pendant le 18ème siècle sur les automates de Vaucanson dont la précision les faisait passer pour des êtres animés. De cette expérience, le philosophe matérialiste La Mettrie en a tiré la thèse de l’homme machine. On comprend que l’expérience de Turing fonctionne dans un sens similaire, aboutissant à la thèse de l’homme computer ou plutôt du cerveau computer.

Cette thèse est développée dans le cadre du cognitivisme qui représente l’un des grands courants scientifiques dans le domaine des sciences du cerveau et de la cognition. Avec comme postulat fondamental et cadre théorique la thèse d’une assimilation de la pensée humaine et des processus mentaux à un ensemble de procédés de calculs formels et de manipulation de symboles avec des règles bien définies. Le cognitivisme s’inscrit résolument dans le paradigme moderniste mais avec une variante contemporaine qui nous autorise à parler d’une seconde modernité, le « Computérisme » ayant succédé au Mécanisme. Les machines modernes ont des rouages mécaniques, les systèmes contemporains sont fondés sur des algorithmes et des processus de calcul. Le développement de l’organisme à partir de l’œuf est compris par nombre de biologiste sous l’angle d’un programme contenu dans l’ADN pour être ensuite exécutés avec des milliards et des milliards d’instructions géniques.

Une des questions philosophiques essentielles pour notre époque interroge ces orientations scientifiques orchestrées autour du paradigme associant information, computer et algorithme. Ce paradigme constitue-t-il la base de la compréhension complète de la nature ou bien est-ce la source de représentations partielles, superficielles et réductrices ? Une seule certitude, la science de l’informatique et des computers est bien une science qui permet de fabriquer des machines calculantes tout en livrant une vision réductrice et approchée de la Nature. Depuis une ou deux décennies, des physiciens prennent des distances avec la science de l’informatique érigée en paradigme. Leurs investigations se focalisent sur la physique quantique qui inclut une science de l’information mais aussi ouvre la voie vers une notion nouvelle, celle de computer quantique. Dans un article de synthèse, Seth Lloyd propose de concevoir l’univers comme un computer quantique, seule issue permettant de comprendre (par delà les lois connues de la physique) comment la Nature est composée d’un mélange de processus chaotiques et de phénomènes ordonnés (S. Lloyd, The universe as a quantum computer, arXiv : 1312.4455, 2013).

On voit clairement se dessiner une alternative entre deux paradigmes, celui de la machine de Turing et celui du computer quantique (que je définis pour ma part comme gravito-quantique). Cette alternative met face à face deux sciences de l’information. Une science basée sur les machines artificielles et construites de l’extérieur et une science qui porte sur les informations naturelles et les principes et règles permettant à ces informations de se transmettre et de s’ordonner au sein même des systèmes qui les utilisent. Cette alternative est également opérationnelle dans le domaine des sciences de la vie et de la cognition. On comprend que l’idée d’une naturalisation de l’esprit élaborée avec comme fondements les réseaux interactifs et les mécanismes physico-chimique n’a rien de naturel mais emprunte beaucoup aux sciences de l’information artificielle. La véritable naturalisation de l’esprit est aussi une « spiritualisation » de la matière. Son modèle est le computer gravito-quantique.


3. Boltzmann et Shannon, une bien curieuse confusion. Avec la formule de Boltzmann, on accède à la formalisation stricte mais « aventureuse » de l’énigmatique entropie qui d’après le second principe, ne peut qu’augmenter dans un système fermé, ce qui fait intervenir la non moins énigmatique flèche du temps. Une analyse poussée des formalismes de la thermodynamique remet en cause nombre de certitudes parmi lesquelles la signification physique de l’entropie, quantité quasi magique qui apparaît et disparaît et n’a rien de commun avec ce que l’on connaît de l’énergie au sens de la mécanique rationnelle. La formulation statistique de Boltzmann vise à calculer l’entropie en partant des éléments du système. Elle fait intervenir un logarithme, tout comme la formule de Shannon qui a pour objectif de théoriser la transmission de signaux plus ou moins fréquents dans une voie de communication. L’analogie entre les deux formules ne permet pas de tirer une quelconque conclusion mettant en relation entropie et information. Ces thèses sont développées dans un livre pas très connu publié il y a un quart de siècle (J. Tonnelat, Thermodynamique probabiliste, un refus des dogmes, Masson, 1991).

On voit se dessiner à nouveau cette interrogation fondamentale sur l’alternative entre les sciences de l’information artificielle et les sciences de l’information naturelle. La formule de Shannon ne s’applique pas à la biologie, domaine où elle est inopérante, contrairement à ce que quelques travaux originaux et imaginatifs ont laissé accroire. Pourtant, l’illusion moderniste continue à fonctionner mais pas pour longtemps. La critique et le dépassement de la modernité ne se fera pas en niant la modernité pour adopter quelque posture « spiritualiste » ou pire, fondamentaliste, mais en travaillant au sein même de la science pour en extraire une science des informations naturelles. Après la physique quantique et la cosmologie, il est temps de questionner la physique statistique pour aller ensuite attaquer avec une « connaiscience » solide le vivant et la conscience.

Quelques pistes sont déjà dans ma tête. Je ne vais pas tout vous divulguer

Tout un programme de recherche qui peut conduire vers une nouvelle science et qui sait, des applications pratiques. Ce billet est une présentation d’une recherche et un appel d’offre destiné à ceux qui veulent participer à ce programme.



9 réactions


  • Gollum Gollum 3 février 2015 09:07

    J’ai toujours trouvé cette notion d’information comme une épine dans le pied de la science moderne. Car elle n’a de sens que par rapport à cette chose impalpable, non mesurable, et que pourtant tout le monde constate, la conscience.


    Appeler information un alignement de bits, alternativement 0 et 1, sur un support quelconque est en effet un non sens. C’est d’ailleurs cette matérialisation qui entraîne la tentative désespérée de réduire l’information au quantitatif et donc au matériel.

    Or la notion d’information est par elle-même éminemment qualitative. Elle suppose à la fois le qualitatif et la conscience. Il en est de même de la notion de néguentropie.

    En fait, information comme néguentropie supposent le monde des Intelligibles de Platon et Plotin, éminemment régi par les Nombres et les structures.

    Dans le monde de la Tradition, la Kabbale, la Création s’oppose au monde de la Formation. Et en est l’aspect complémentaire. La Création possède une information latente, non visible, d’où l’aspect informe et vide de la Création. La Formation voit cette information devenir patente et visible, ce qui entraîne des objets porteurs de sens, avec une harmonie visible à la clé.

    La Création est opérée par la lettre Beith, de valeur 4. Assurément en réduisant l’information à un alignement binaire de bits, la science fait fausse route. Elle n’en conserve que la moitié, l’autre moitié étant l’aspect véritablement néguentropique de l’information. C’est à dire l’aspect réellement créateur. Je renvoie ici à l’idéogramme du Tai Chi avec ses 4 pôles : 2 pôles Yin et 2 pôles Yang.

    Les alignements de bits d’un disque dur ne conservant que les deux pôles Yin du Tai Chi chinois.

  • Mohammed MADJOUR (Dit Arezki MADJOUR) Mohammed MADJOUR 3 février 2015 10:35

    J’ai expliqué ce qu’est « l’information » dans «  »RECHERCHE SCIENTIFIQUE ET ÉPISTÉMOLOGIE«  » de 2001, puis développé les explications nécessaires en les envoyant aux journaux français ! Mais la France a choisi de mettre en œuvre et d’utiliser les plus grandes nuisances de la science et de la pratique de l’information en développant notamment ses médias qui sont aujourd’hui premiers utilisateurs des nouvelles technologies à des fins criminelles !

    La France croit pouvoir polluer les esprits en répandant abondamment une information morte ou une désinformation nocive, elle se goure profondément et je rappelle qu’en dotant son « Ministère de la propagande qui surveille le monde entier » par l’octroi d’un budget colossal, elle ne récoltera rien  et même que par une vertu scientifique que la France ignore, le boomerang sera toujours prêt à rendre à la France ce qui appartient a la France !


  • lsga lsga 3 février 2015 12:41

    Hey mais en fait : vous n’avez rien compris à Turing !


    Vous êtes sûr de faire des maths ? Parceque là, vous mélangez tous les mots dans n’importe quel ordre.
     
    Donc, pour rappel : 


    1. Church découvre les fonctions récursives primitives (dans le cadre du programme de Hilbert)
     
    2. Il délimite l’ensemble des fonctions récursives primitives FINIES. Il démontre qu’on peut égrainer un à un cet ensemble par récursivité.
     
    3. Turing, l’élève favoris de Church, « démontre » (pas tout à fait en fait) que cet ensemble est équivalent à l’ensemble des opérations mécanisables (c’est à dire des algorithmes)
     
    4. Là où au par avant on avait une machine pour faire un type d’opération donnée (par exemple une machine pour faire des additions, une autre des soustractions), Turing démontre que sa machine permet d’égrainer un à un tous les algorithmes, cad : elle est la machine à calculer universel, elle peut calculer tout ce qui est calculable. 
     
    Quelqu’un comme vous, qui s’intéresse à la notion de conscience, devrait connaître PAR COEUR le débat Frege / Kant (mathématiques synthétique apriori d’après Kant, et donc impliquant l’intuition et la conscience ; strictement analytique pour Frege, et donc juste des règles sur des signes sans significations) ; l’entreprise analytique, le programme de Hilbert (qui n’est QUE la continuation du programme de Frege), la révolution de Church et Turing. Pour rappel, ce programme a abouti sur 2 échecs : le théorème d’incomplétude de Godel (qui d’après Hao Wang démontre que Kant avait raison) et le second théorème de turing (l’activité de démonstration n’est pas mécanisable. Démontrer : ce n’est pas calculer). 
     
    La connaissance de ce pan FONDAMENTAL de l’Histoire des sciences et de la philosophie de la pensée est nécessaire. Ça vous évitera de répéter les imbécillités de Bill Gates et de Hawking. Tout le débat entre Kant et Frege sur la nature de la pensée mathématique et le rôle de l’intuition et de la conscience, a amené Frege a créer la Logique moderne, a amené Hilbert à poser son programme analytique, et a amené Church à étudier la calculabilité. Finalement, Turing va démontrer que les mathématiques, et la pensée mathématique ne se limitent pas au calcul, et cette preuve, c’est précisément sa machine et son second théorème. Un ordinateur ne fait rien d’autre que CALCULER. Le mathématicien fait beaucoup plus que simplement calculer : il sait démontrer. Bref : si vous n’avez pas compris ça : VOUS N’AVEZ RIEN COMPRIS
     
    L’Histoire du test de Turing est une blague de potache, tout à fait secondaire dans cette Histoire. Turing après avoir démontré qu’un ordinateur ne peut pas faire ce qu’un mathématicien fait, reprend la veille angoisse des automates de Descartes, et se demande si un jour, on sera capable de faire la différence entre ces machines DÉPOURVUES DE CONSCIENCE et des machines conscientes. Pour l’instant, le cerveau est toujours capable de faire la différence. Turing en posant son test posait l’Hypothèse que ce sera TOUJOURS le cas. JAMAIS la simulation ne sera parfaite à 100%. Ex : aujourd’hui, une image de synthèse en 4k est parfaite, pourtant, votre cerveau sait immédiatement qu’il s’agit d’une fausse image. Si vous n’avez pas compris que le but du test de Turing était précisément d’interroger les limites d’une simulation : VOUS N’AVEZ RIEN COMPRIS. 

    Sinon, votre définition d’information n’en est pas une. 
    Pour rappel, celle de Shanon et Weaver et formalisée. Faite donc de même. 
     
    La Formalisation de la cosmonadologie : ça avance ? 

    • L'enfoiré L’enfoiré 3 février 2015 18:51

      Il faut conseiller de lire le livre «  »Alan Turing : The Enigma :«  ou de voir le film qui l’a inspiré  »The Imitation Game"
       


    • Hervé Hum Hervé Hum 4 février 2015 14:51

      @lsga

      Quelqu’un comme vous, qui s’intéresse à la notion de conscience, devrait connaître PAR COEUR le débat Frege / Kant (mathématiques synthétique apriori d’après Kant, et donc impliquant l’intuition et la conscience ; strictement analytique pour Frege, et donc juste des règles sur des signes sans significations)

      et c’est quoi la conscience ici ?


  • Abou Antoun Abou Antoun 3 février 2015 13:05

    Tous les problèmes formulés avec un algorithme peuvent être résolus par cette machine universelle qui a servi pour formuler une expérience épistémologique consistant à faire dialoguer un individu avec une machine de Turing censée pouvoir répondre avec un minimum de raison à toute question posée.
    Vous mélangez un peu tout.
    L’apport de Turing à la science informatique est non négligeable, mais le considérer comme le ’père fondateur’ est pour le moins exagéré. C’est un contributeur parmi d’autres avec Von Neumann.
    Vous parlez du rôle de la ’machine de Turing’ qui est un simple modèle théorique en théorie de la programmation, ce concept est relié à celui de ’calculabilité’ via la thèse de Church.
    Il revient à Turing, entre autres, le mérite d’avoir posé le premier le problème des limites de l’intelligence artificielle (encore connue comme la bêtise artificielle).
    Pour ce qui concerne le défi de Turing, il ne s’agit évidemment pas d’une quelconque machine de Turing mais bien d ’un ordinateur. Les premiers programmes à tenter de relever le défi ont été ceux de la famille ’Eliza’ de joseph Weizenbaum. Ecrits en Lisp, ils datent de 1966 c’est à dire 12 ans après la mort d ’A. Turing. Ces programmes sont très décevants pour qui y regarde d’un peu près. Pour le moment je ne partage aucune des inquiétudes de Hawking ou de Gates concernant la stupidité artificielle. Je m’inquiète simplement de voir les humains déléguer de plus en plus de tâches sécuritaires à des robots non doués de raison mais seulement pleins d’automatismes.
    Bref, Bernard, vous écrivez souvent des articles d’un niveau si élevé que mon ignorance m’interdit d’intervenir, je n’ai pas d’avis parce que je n’y comprends rien. Mais dès que vous entrez dans mon champ de compétence je vois que vous colportez des bobards racoleurs.


    • lsga lsga 3 février 2015 13:08

      non, ce n’est pas exagéré. Les machines de Von Neuman sont des machines de Turing.

       
      Sinon, pour le reste, on est d’accord : il n’a rien compris. 

  • Mohammed MADJOUR (Dit Arezki MADJOUR) Mohammed MADJOUR 3 février 2015 14:06

    Je vois avec beaucoup de déception que les commentaires sont tous du siècle dernier ! Ça gèle dans les cervelles savantes !


  • L'enfoiré L’enfoiré 3 février 2015 18:43

    « On voit clairement se dessiner une alternative entre deux paradigmes, celui de la machine de Turing et celui du computer quantique (que je définis pour ma part comme gravito-quantique). Cette alternative met face à face deux sciences de l’information »


    Elle ne met rien en face à face, elles se complètent comme je l’ai définie dans mon dernier roman.
    Cela peut ressembler à deux paradigmes, mais dès que l’ordinateur quantique (je ne dis pas « computer » puisque je suis sur un site français) aura une puissance bien plus grande.

Réagir