Christian Labrune Christian Labrune 2 novembre 2016 23:13

Ce qui paraît s’opérer dans l’expérience qu’évoque cet article de JP Baquiast, c’est un phénomène d’émergence. Les ordinateurs ont évidemment été programmés, mais de telle sorte qu’ils puissent eux-mêmes, et cette fois d’une manière tout à fait autonome et assez imprévisible pour les premiers programmeurs, ajouter à cette première couche logicielle une autre qu’ils « inventent » en fonction des nécessités, pour résoudre au mieux un objectif qu’on leur a peut-être bien imposé mais que, plus tard, ils pourront choisir eux-mêmes tout à fait librement. Cette perspective d’une liberté des machines, apparemment, pour beaucoup de monde, c’est dur à avaler.

Si les chercheurs n’ont pas encore « bien compris » la manière dont les machines avaient procédé, c’est la preuve même que quelque chose s’est passé, qui ne pouvait pas être prévu. Les thèses de l’IA forte, encore très controversées il y a vingt ans, ne le seront plus guère désormais, contrairement à ce que paraissent penser beaucoup de lecteurs sur ce forum, lesquels n’imaginent pas qu’une machine intelligente puisse inventer ce qu’on n’a jamais prévu qu’elle ferait. A terme, les machines travailleront à complexifier leur propre structure matérielle et logicielle, et le cerveau humain, beaucoup trop lent et tout à fait incapable de traiter les big data (qui pourrait relire tout Shakespeare en moins d’une seconde !) finira par contempler le processus sans pouvoir y comprendre grand chose. L’avenir de l’intelligence n’est pas dans l’espèce humaine, mais dans les machines qu’elle aura su produire et qui ne tarderont pas à la dépasser dans des proportions qu’on ne peut même pas imaginer. 


Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe