The Master Algorithm de Pedro Domingos
Place de la Terre dans l'histoire de l'univers selon le site Planck
De gauche à droite : Big Bang — Ère de l'inflation - Découplage de l'interaction forte et faible et formation des particules - Formation des étoiles et galaxies - Formation du système solaire.
En dessous : La Terre actuelle.
The Master Algorithm : How the quest for the ultimate learning machine will remake our world
Pedro Domingos
Basic Books/Penguin 2015
Analyse et commentaires par Jean-Paul Baquiast
20/12/2015
Sur l'auteur, voir sa page
http://homes.cs.washington.edu/ pedrod/
Les hypothèses n'ont jamais manqué concernant la possibilité que l'univers tel que nous le connaissons ait été dès son origine le produit de processus calculatoires informatiques profondément ancrés dans le réel . Ils ne seraient pas seulement ancrés, mais consubstantiels à l'existence de l'univers, inséparables de lui, de même que la parole et le langage sont pratiquement inséparables. Récemment, des chercheurs tels que Seth Lloyd ont défendu l'idée que l'univers n'était pas seulement un ordinateur classique géant, mais un ordinateur quantique. Ceci expliquerait beaucoup de ses propriétés hors de portée d'un ordinateur numérique. 1).
Ces hypothèses sont intéressantes, mais elles se heurtent à la difficulté de faire apparaître clairement les bases naturelles qui dans l'univers seraient responsables de la production de ces calculs. Même un ordinateur quantique doit être organisé autour de composants et unités de traitement capables de manipuler des « bits quantiques ».
Certes, il est relativement facile de montrer que tous les processus cosmologiques, biologiques ou neurologiques identifiables dans l'univers, et plus particulièrement sur la Terre, pourraient être simulés sur de super-calculateurs, et par conséquent résulter du fait que l'univers responsable de la production de ces processus serait lui-même un super-calculateur. Mais où seraient les unités centrales de celui-ci, ses mémoires, ses organes d'entrée-sortie ou plus immédiatement ses composants élémentaires ?
Par ailleurs, dans la mesure où la cosmologie moderne admet que l'univers s'est développé depuis le Big bang à partir d'atomes élémentaires surgis du vide dit quantique, il est difficilement admissibles de penser que dès le Big Bang les programmes nécessaires à la production ultérieure d'un univers capables de computations telles que nous les observons aujourd'hui se trouvaient prêt à opérer. On peut envisager qu'ils auraient pu progressivement se développer sur le mode darwinien, comme la vie elle-même, mais à partir de quelles semences initiales ? A moins d'admettre que celles-ci aient toujours été présentes dans un univers primordial, que l'on pourrait qualifier de multivers, à partir duquel émergeraient des univers analogues au nôtre, ou proches.
The Master Algorithm
Dans un livre tout récent, The Master Algorithm, Pedro Domingos, concepteur informaticien réputé, ne remonte pas, tout au moins au début de son ouvrage, à l'origine de l'univers pour comprendre le monde numérique dans lequel nous vivons et dont il est l'un des acteurs. Il se borne à expliquer ce dont beaucoup de personnes aujourd'hui ne se sont pas encore rendu compte, le fait que les données de masse en ligne (Big Data) et que les algorithmes dits « intelligents » de plus en plus nombreux les exploitant sont en train de révolutionner nos sociétés.
Le propre de ces algorithmes, ce qui les rend intelligents, est qu'ils sont en train d'apprendre à devenir intelligents en exploitant ces Big Data. On parle à leur propos de « learning algorithms » ou d'algorithmes capables d'apprendre. Cexs-ci sont en train de s'organiser, à partir des supports informatiques et les réseaux nécessaires, en véritables « machines apprenantes », learning machines. Certains futuristes imaginent qu'ils pourraient un jour supplanter l'intelligence humaine, à condition que les supports physiques ou réseaux sur lesquels ils prospèrent ne soient pas détruits par un cataclysme quelconque.Le discours n'est pas à proprement nouveau. Beaucoup de nos lecteurs ont lu sur notre site de nombreux articles évoquant cette perspective ou des recensions d'ouvrages l'abordant. Nous avons nous-mêmes édité ici deux livres d'Alain Cardon traitant ce problème 2)
Dans ces ouvrages, Alain Cardon anticipait avec quelques années d'avance un phénomène qui est en train se se produire dans certains secteurs, l'apparition d'algorithmes et de machines autonomes, c'est-à-dire susceptibles d'opérer sans l'intervention d'organismes humains. Il s'agit précisément de ce que montre clairement aujourd'hui Pedro Domingos.
Il rappelle qu'existent dorénavant des millions de tels algorithmes apprenants. Ils sont en train de donner une impulsion qui sans eux serait inimaginable aux sciences, aux technologies, à l'économie, à la vie politique. Ils le font aussi dans le domaine militaire, qu'il s'agisse de guerres classiques ou de guerre de 4e génération conduites par des milices insurgées ou terroristes. Les entreprises mondiales telles que Google et Facebok, ou les hébergeurs plus locaux, tirent exclusivement leur pouvoir des Big Data que leur livrent les personnes privées ou les agents économiques faisant appel à elles.
De leur coté, les grands Etats, les Etats-Unis en premier lieu par l'intermédiaire de la NSA, CIA et autres agences, s'en servent pour espionner et tenter de dominer le monde entier. Les uns et les autres ont en projet l'intention de réaliser des cerveaux artificiels par lesquels ils parachevront leur actuelle domination.
Mais Pedro Domingos ne se limite pas à ces constatations. Il se demande s'il ne serait pas possible de concevoir un « master algorithm » ou « algorithme maître » susceptible de modifier en profondeur les machines apprenantes, et de ce fait nos vies et celles de beaucoup d'organismes vivants. Cet algorithme maître tirerait son immense pouvoir du fait qu'il serait capable d'exploiter toutes les Data existant sur la planète. De celles-ci, il pourrait tirer des connaissances illimitées intéressant le passé, le présent et aussi l'avenir.
Il n'y aurait pas besoin pour ce faire de se référer à des lois de la nature que les scientifiques se sont toujours efforcés de faire apparaître avec plus ou moins de difficultés. En collectant les données en masse, ceux-ci pourraient décrire la nature sans avoir besoin de faire appel à de telles lois, et sans avoir besoin de compétences spécialisées pour les élaborer.
Nous avons plusieurs fois évoqué ce point. Google peut-il obtenir sur la progression d'une épidémie des informations plus précises que celles découlant des observations des épidémiologistes, en utilisant simplement les données résultant de la consultation par des milliers de malades ou de personnes craignant de le devenir des sites de diagnostic en ligne ou de publicités pharmaceutiques ? Longtemps incertaine, la réponse à cette question paraît désormais pouvoir être affirmative.
De la même façon, affirme Pedro Domingos, si les données observées par Tycho Brahé et autres astronomes de l'époque avaient pu être exploitées par un algorithme maitre, celui-ci en aurait déduit les lois de la gravitation bien avant l'apparition de Newton.
Mais pour cela, l'algorithme maître doit être capable, comme le font à petite échelle d'ailleurs les scientifiques, d'exploiter les données (Data) du passé ou du présent, comme d'anticiper ce que pourraient être les données du futur. Selon Pedro Domingos, ces données existent déjà dans les laboratoires ou dans les publications, mais personne ne s'est organisé pour les exploiter en masse. De multiples raisons, spécificités disciplinaires, incompatibilités entre langages et méthodes, crainte des risques liés à l'anticipation ou plus simplement manque de crédits pour les mémoriser et les rendre disponibles, contribuent à laisser dormir ce trésor.
Pedro Domingos va cependant plus loin que ces constatations relativement faciles à faire. Il se demande si les algorithmes capables d'exploiter les données naturelles omniprésentes dans l'univers ne seraient déjà pas en place, tout au moins dans certains organes ou organismes. Ainsi le cerveau humain pourrait de par son organisation neurologique transformer en connaissances intelligentes, voire conscientes, les données que lui apportent en permanence les organes sensoriels et moteurs. De même, au niveau bien plus général de l'évolution darwinienne des espèces vivantes, un tel algorithme maître, évidemment réparti, n'a-t-il pas optimisé les processus darwiniens par essais et erreurs, en favorisant les plus aptes à permettre la survie des espèces.
Observations
Nous ne prolongerons pas ici l'analyse de The Master Algorithm, ce que nous incitons vivement le lecteur à faire lui-même en se procurant le livre. Revenons par contre sur quelques perspectives non évoquées dans celui-ci, qui pourraient intéresser les scientifiques.
Si l'on admettait que les algorithmes maitres moteurs des machines auto-apprenantes décrits par Pedro Domingos existeraient dans la nature ailleurs que dans les actuels réseaux numériques, il ne faudrait pas se limiter à les rechercher dans les cerveaux ou dans les génomes. En s'appuyant sur le principe de Copernic selon lequel rien de spécifique n'existe dans l'univers, il faudrait postuler que de tels algorithmes et machines sont présents ailleurs sur la Terre, et au delà de la Terre, dans le système solaire et au delà de celui-ci, dans l'univers tout entier. Ils seraient apparus dès origines du cosmos.
Selon les hypothèses cosmologiques modernes, l'univers tel que nous le connaissons et dans lequel nous vivons a émergé en quelques fractions de seconde (seconde de notre temps actuel) sous la forme d'une structure presque infiniment petite, dense et chaude. Ce phénomène a été qualifié de Big Bang. Très rapidement, après sa naissance c'est-à-dire après ce Big Bang, l'univers a subi un processus dit d'inflation qui l'a conduit aux dimensions telles que celles observées aujourd'hui. L'inflation pourrait se poursuivre durant de très longues durées jusqu'à la dissolution complète des structures matérielles de l'univers. Dans les phases finales, le temps se ralentirait sans cesse et l'espace perdrait toutes dimensions mesurables.
Le milieu original dont serait issu notre univers, composé de particules et de photons, serait ce que l'on nomme le vide quantique. Il s'agirait de particules virtuelles dites quantiques car, selon les hypothèses de la physique quantique, elles n'obéiraient pas aux lois de la physique einstenienne , autrement dit elles ne seraient pas caractérisées par des dimensions d'espace et de temps déterminées. Faute d'une échelle de temps et d'espace au sein de l'univers quantique, celui-ci ne pourrait pas être décrit en termes d'infini ou de fini, ni concernant l'espace ni concernant le temps.
Du vide quantique émergerait en permanence (si le terme peut s'appliquer à un univers dépourvu de temps), des particules matérielles, c'est-à-dire dotées, comme celles de notre univers, de propriétés d'espace et de temps. La plupart s'effondreraient ensuite pour retourner dans le vide quantique. Certaines pourraient rester matérielles, et subir des inflations qui les conduiraient à devenir des univers analogues au nôtre.
Concernant l'origine et l'histoire de notre univers, c'est l'observation du rayonnement du fonds diffus cosmologique ou rayonnement fossile cosmologique (dit aussi CMB ou Cosmic Micro-ondes Background) par les satellites successifs dédiés à cette tâche, dont le dernier en date est le satellite européen Planck, qui en fournit des éléments permettant la modélisation des évènements. Le schéma présenté en début d'article représente l'histoire de l'univers depuis le Big Bang jusqu'à nos jours.
Or il n'y a pas de raison de refuser l'apparition de premiers algorithmes maitres et machines auto-apprenantes dès le Big Bang. Ces éléments de computation se seraient formés non sous leur forme sophistiquée actuelle mais sous des formes primitives, fonctions elles-mêmes des ressources disponibles lors de chacune des phases d'univers, Big Bang, découplage de l'interaction forte et faible et formation des particules, formation des premières étoiles et galaxies, formation du système solaire et de la Terre, apparition de la vie sur celle-ci et finalement apparition du web des réseaux numériques enveloppant la Terre d'une couverture dense.
Ce seraient les capacités d'auto-apprentissage des premiers ordinateurs naturels qui auraient dirigé, mieux qu'un doigt de Dieu encore évoqué par des milliards de croyants de par le monde, la sélection des facteurs les plus favorables à la généralisation de systèmes intelligents et conscient dont les humains se croient les seuls représentants. Si l'on admet l'existence du multivers, il n'y aurait d'ailleurs pas de raison de refuser le principe de tels systèmes au sein de celui-ci.
Le postulat de l'existence d'un univers quantique ne contrarierait en rien ces diverses hypothèses. Des algorithmes et machines auto-apprenantes constituées de bits quantiques n'en seraient que plus efficaces pour servir à l'évolution ayant conduit à la Terre actuelle et à notre société de l'information. Celle-ci, lorsque les premiers calculateurs quantiques seront réalisés à grande échelle, pourra utiliser à son tour les Big Data quantiques et leurs systèmes d'exploitation.
Il en résulterait que ce que nous appelons l'intelligence humaine aurait été incluse en germe dès les premiers pas de l'univers et pourrait évidemment se trouver ailleurs aujourd'hui au sein de celui-ci. L'intelligence et les capacités d'apprentissage ne se limiteraient sans doute pas aux seules planètes habitables, mais pourraient se retrouver dans toutes les structures de grande échelle identifiées dans l'univers, amas galactique ou nuages de poussière cosmique notamment. Elles disparaitraient également avec la mort progressive de notre univers. On ne voit pas comment en effet, malgré leurs grandes compétences à apprendre, elles pourraient résister à des facteurs d'extinction de cette importance.
Travaux pratiques
Certes, pour rendre tout ceci matière à travail scientifique, il faudrait montrer comment, phase par phase depuis au moins la formation des particules, des systèmes d'abord extrêmement simples, composés de quelques atomes, auraient pu s'organiser en moteurs générant des données sous-produits de leur action. Celles-ci leur auraient servi de base pour contribuer à leur auto-perfectionnement sur le mode darwinien. Des concepteurs de systèmes aussi avertis et compétents que Pedro Domingos n'auraient certainement pas de difficultés à en réaliser des prototypes, s'ils disposaient du temps et des équipes nécessaires.
Ces prototypes, inutile de le souligner, pourraient ouvrir la voie aux ordinateurs moléculaires, génétiques ou neuronaux dont l'on parle beaucoup de nos jours, mais qui n'existent en fait que dans les publications scientifiques. Leur organisation sous la forme de consommateurs de Big Data naturelles donnerait une valeur considérables à celles-ci, valeur généralement ignorées de tous. Les véritables sources pour les inventions de demain se trouveraient là.
Notes
1) Voir à ce sujet notre commentaire du livre Programming the Universe
2) Alain Cardon
* "Modélisation constructiviste pour l'autonomie des systèmes"
Edition Automates Intelligents. 24 mai 2012
(publié sous Licence Creative Commons)
* " Vers un système de contrôle total"
Edition Automates Intelligents, 20 octobre 2011
(publié sous Licence Creative Commons)