Ni Shannon, Turing, ni Boltzmann. Les lois naturelles de l’information
1. L’information est devenue centrale pour notre époque. D’après le physicien Paul Davies, l’information au « sens scientifique » est à notre ère du numérique et de l’Internet ce que la mécanique rationnelle et la thermodynamique représentaient en « connivence » avec la société industrielle du 19ème siècle et ses machines. Mais de quelle information s’agit-il ? En vérité, l’information, ou la forme, se situe partout dans le monde et à toutes les échelles, particules, atomes, second principe de la thermodynamique, systèmes vivants, conscience, états mentaux, société, technologie, cosmos. Avec deux volets, la transmission des informations et les calculs effectués sur les informations, sans oublier les processus cognitifs et/ou sémantiques produits par le « cerveau humain ». A notre époque, les inquiétudes portent plutôt l’excès que le manque d’information. Nous serions submergés par les flux d’information illimités transitant par les appareils numériques alors que pour d’autres, ce sont les systèmes de calculs, les machines artificiellement intelligentes qui représentent une menace, comme l’ont déclaré Stephen Hawking ou Bill Gates. Voilà donc un tableau associant les impacts sociologiques de l’information et le volet épistémologique explicitant comment l’information prend place dans les représentations scientifique en supplantant les flux de matières, les mécanismes et les énergies figurant dans le paradigme hérité du 19ème siècle. Le physicien Seth Lloyd livre aussi un constat édifiant sur l’information qui au 21ème siècle se situe sur un pied d’égalité avec l’énergie sur l’échelle universelle des concepts fondamentaux de la physique. Et toujours cette question. Quid de l’information et quid de la computation ?
A partir de cette question, je formule un postulat fondamental concernant ce concept central. Il faut distinguer deux « sciences de l’information », les unes sont en quelque sorte artificielles et les autres naturelles. Cette distinction est la conséquence de l’avancement actuel des travaux qui sont suffisamment diversifiés pour engendrer des confusions mais aussi se prêter à des clarifications d’ordre épistémologique et ontologique. Il apparaîtra de plus en plus évident que parmi les représentations utilisant la notion d’information, de computation, ainsi que la quantité d’informations, sont des approximations de la réalité ou du moins, des théories portant sur des réalités incomplètes, partielles voire superficielles et certainement « atomisées ». Ces théories couvrent la thermodynamique de Boltzmann et son entropie statistique, la théorie de la transmission élaborée par Shannon et le paradigme de la computation issue des travaux de Turing. L’application de ces théories à la compréhension de la matière, de la vie, et des processus cérébraux, a conduit vers une vision artificielle et erronée de ces réalités telles qu’elles sont et se transforment dans la Nature.
2. De Turing au cognitivisme et « computérisme ». On considère Turing comme le père fondateur de la science de l’informatique et on lui doit notamment un concept central ayant joué un rôle heuristique dans de multiples champs qui ne se limitent pas à la science des computers. Ce concept c’est la machine de Turing, utilisé en informatique théorique mais aussi comme expérience de pensée. En ce cas, la machine est universelle et elle a comme particularité la capacité à simuler le comportement de toute machine de Turing. Tous les problèmes formulés avec un algorithme peuvent être résolus par cette machine universelle qui a servi pour formuler une expérience épistémologique consistant à faire dialoguer un individu avec une machine de Turing censée pouvoir répondre avec un minimum de raison à toute question posée. On se demande alors si cette machine est capable de duper l’homme en se faisant passer pour un individu doté d’un cerveau humain. Malgré sa nouveauté, cette expérience de pensée est calquée sur les réflexions menées pendant le 18ème siècle sur les automates de Vaucanson dont la précision les faisait passer pour des êtres animés. De cette expérience, le philosophe matérialiste La Mettrie en a tiré la thèse de l’homme machine. On comprend que l’expérience de Turing fonctionne dans un sens similaire, aboutissant à la thèse de l’homme computer ou plutôt du cerveau computer.
Cette thèse est développée dans le cadre du cognitivisme qui représente l’un des grands courants scientifiques dans le domaine des sciences du cerveau et de la cognition. Avec comme postulat fondamental et cadre théorique la thèse d’une assimilation de la pensée humaine et des processus mentaux à un ensemble de procédés de calculs formels et de manipulation de symboles avec des règles bien définies. Le cognitivisme s’inscrit résolument dans le paradigme moderniste mais avec une variante contemporaine qui nous autorise à parler d’une seconde modernité, le « Computérisme » ayant succédé au Mécanisme. Les machines modernes ont des rouages mécaniques, les systèmes contemporains sont fondés sur des algorithmes et des processus de calcul. Le développement de l’organisme à partir de l’œuf est compris par nombre de biologiste sous l’angle d’un programme contenu dans l’ADN pour être ensuite exécutés avec des milliards et des milliards d’instructions géniques.
Une des questions philosophiques essentielles pour notre époque interroge ces orientations scientifiques orchestrées autour du paradigme associant information, computer et algorithme. Ce paradigme constitue-t-il la base de la compréhension complète de la nature ou bien est-ce la source de représentations partielles, superficielles et réductrices ? Une seule certitude, la science de l’informatique et des computers est bien une science qui permet de fabriquer des machines calculantes tout en livrant une vision réductrice et approchée de la Nature. Depuis une ou deux décennies, des physiciens prennent des distances avec la science de l’informatique érigée en paradigme. Leurs investigations se focalisent sur la physique quantique qui inclut une science de l’information mais aussi ouvre la voie vers une notion nouvelle, celle de computer quantique. Dans un article de synthèse, Seth Lloyd propose de concevoir l’univers comme un computer quantique, seule issue permettant de comprendre (par delà les lois connues de la physique) comment la Nature est composée d’un mélange de processus chaotiques et de phénomènes ordonnés (S. Lloyd, The universe as a quantum computer, arXiv : 1312.4455, 2013).
On voit clairement se dessiner une alternative entre deux paradigmes, celui de la machine de Turing et celui du computer quantique (que je définis pour ma part comme gravito-quantique). Cette alternative met face à face deux sciences de l’information. Une science basée sur les machines artificielles et construites de l’extérieur et une science qui porte sur les informations naturelles et les principes et règles permettant à ces informations de se transmettre et de s’ordonner au sein même des systèmes qui les utilisent. Cette alternative est également opérationnelle dans le domaine des sciences de la vie et de la cognition. On comprend que l’idée d’une naturalisation de l’esprit élaborée avec comme fondements les réseaux interactifs et les mécanismes physico-chimique n’a rien de naturel mais emprunte beaucoup aux sciences de l’information artificielle. La véritable naturalisation de l’esprit est aussi une « spiritualisation » de la matière. Son modèle est le computer gravito-quantique.
3. Boltzmann et Shannon, une bien curieuse confusion. Avec la formule de Boltzmann, on accède à la formalisation stricte mais « aventureuse » de l’énigmatique entropie qui d’après le second principe, ne peut qu’augmenter dans un système fermé, ce qui fait intervenir la non moins énigmatique flèche du temps. Une analyse poussée des formalismes de la thermodynamique remet en cause nombre de certitudes parmi lesquelles la signification physique de l’entropie, quantité quasi magique qui apparaît et disparaît et n’a rien de commun avec ce que l’on connaît de l’énergie au sens de la mécanique rationnelle. La formulation statistique de Boltzmann vise à calculer l’entropie en partant des éléments du système. Elle fait intervenir un logarithme, tout comme la formule de Shannon qui a pour objectif de théoriser la transmission de signaux plus ou moins fréquents dans une voie de communication. L’analogie entre les deux formules ne permet pas de tirer une quelconque conclusion mettant en relation entropie et information. Ces thèses sont développées dans un livre pas très connu publié il y a un quart de siècle (J. Tonnelat, Thermodynamique probabiliste, un refus des dogmes, Masson, 1991).
On voit se dessiner à nouveau cette interrogation fondamentale sur l’alternative entre les sciences de l’information artificielle et les sciences de l’information naturelle. La formule de Shannon ne s’applique pas à la biologie, domaine où elle est inopérante, contrairement à ce que quelques travaux originaux et imaginatifs ont laissé accroire. Pourtant, l’illusion moderniste continue à fonctionner mais pas pour longtemps. La critique et le dépassement de la modernité ne se fera pas en niant la modernité pour adopter quelque posture « spiritualiste » ou pire, fondamentaliste, mais en travaillant au sein même de la science pour en extraire une science des informations naturelles. Après la physique quantique et la cosmologie, il est temps de questionner la physique statistique pour aller ensuite attaquer avec une « connaiscience » solide le vivant et la conscience.
Quelques pistes sont déjà dans ma tête. Je ne vais pas tout vous divulguer
Tout un programme de recherche qui peut conduire vers une nouvelle science et qui sait, des applications pratiques. Ce billet est une présentation d’une recherche et un appel d’offre destiné à ceux qui veulent participer à ce programme.