samedi 9 juillet 2011 - par Marc Bruxman

La singularité, le chômage et la société

Le concept de Singularité technologique a été évoqué par les savants dès les années 50 par John Von Neumann. Conscients dès cette époque que le progrès technologique s'accélérait, les chercheurs ont imaginé qu'à un certain point de l'histoire (le moment où les intelligences artificielles seront disponibles), le progrès technique irait à une telle vitesse qu'il ne sera plus le fait de l'humain. De nombreux indices nous laissent penser que dès la troisiéme décennie du XXIème siécle, ce point sera atteint. Si la réalisation d'une intelligence artificielle est un défi scientifique et technique passionnant, le défi social posé aux société humaines par la technique est énorme. En quelques mots : Les machines resteront-elles à notre service ?

L'homme a acquis la maîtrise de l'outil il y a fort longtemps, mais ce n'est qu'au XXème siècle qu'il a imaginé pour la première fois que ses outils pourraient le surpasser intellectuellement. Lorsque l'homme a découvert l'informatique au travers des travaux d'Alan Turing, de Von Neumann et de bien d'autres scientifiques, il s'est soudain mis à penser qu'il était possible de bâtir une "intelligence artificielle". Ces chercheurs, aussi brillants qu'ils aient été ont péché par optimise. Et si Stanley Kubrick prévoyait pour 2001 un ordinateur intelligent (HAL 9000), nous avons depuis constaté à quel point la réalisation d'une intelligence artificielle était plus complexe que prévu.

Pourtant, le travail a continué. A tel point que de nombreux scientifiques pensent aujourd'hui que la singularité technologique sera atteitne entre 2030 et 2040. En fait, nous en sentons déja les prémices. Quelques exemples :

  • Google teste une voiture capable de conduire de façon entiérement automatique dans le traffic normal (avec des voitures conduites par des humains). La commercialisation est prévue pour entre 2020 et 2025. Les obstacles à la commercialisation sont aujourd'hui plus de nature juridique que technique. Cette annonce est très significative. La conduite automobile fait appel à de nombreuses compétences au niveau cognitif (vision, analyse de la situation, évaluation des risques, prises de décisions). De plus, ces décisions doivent se prendre en temps réel. Sa réalisation marquera une étape très importante dans le rêve de construire une intelligence artificielle.
  • Une machine a gagné face à un humain au jeu télévisé Jeopardy (USA). Contrairement aux échecs dont les régles sont simples à expliquer à un ordinateur, Jeopardy fait appel à la compréhension du langage et à l'utilisation d'une base de connaissances encyclopédiques. Ce succès est symptomatiques du fait que depuis l'an 2000 les recherches en traitement du langage naturel ont énormément progressé (alors qu'elles ont longtemps stagné). La maîtrise du langage est une spécificité humaine et fait la encore appel à des capacités cognitives extrémement complexes. 
  • Dans un domaine qui en apparence n'a rien à voir, les recherches en matiére de "cloud computing" promettent de mettre à disposition des applications des capacités de calcul et de stockage jusque là difficilement envisageable. Or, la capacité de calcul est le nerf de la guerre en IA, de même que la capacité à stocker de grandes bases de conaissances. Si la loi de Moore à elle seule ne permettait pas d'envisager la résolution de certains problèmes, l'utilisation du cloud afin de distribuer les calculs va permettre d'ici quelques années de donner accès à des ressources impressionnantes aux applications. De quoi relancer la recherche en IA et autoriser des applications encore plus impressionnantes. 

On le voit, l'état actuel de la recherche et des technologies nous montre que nous nous approchons à grande vitesse de ce que l'on appelle l'intelligence artificielle "faible" c'est-à-dire la capacité de programmer des machines pour qu'elles résolvent une tâche donnée (nécessitant de l'intelligence).

Certes, personne ne peut pour l'instant dire si nous atteindrons rapidement le statut où une machine sera capable de créativité (autre que par exploration d'un espace aléatoire) ou de se fixer ses propres buts, d'avoir une conscience. (ce que l'on appelle l'intelligence artificielle "forte"). Mais le fait d'atteindre déja ce stade de développement constituera à coup sûr le franchissement de la singularité technologique. De la conduite automobile au diagnostique médical, en passant par l'analyse de documents juridiques, on découvrira alors que la plupart des problèmes qui autrefois nécéssitaient une intelligence et des études supérieures peuvent être résolus par des machines. En appliquant ces techniques à la recherche et développement, le progrès technique va alors connaître une accélération phénoménale capable de s'auto-entretenir. Nous serons alors dans un monde différent.

Ce premier stade sera extrémement disruptif sur les rapports sociaux. Dès 1995, les grands de ce monde, réunis en Californie sous l'égide de la fondation Gorbachev ont pris conscience que dans un futur proche, le taux de chômage risquait d'atteindre les 80%. Zbigniew Brezinski, ancien conseiller de Carter et fondateur d'un puissant think tank américain (la Trilatérale) a proposé en solution : le titytainment : Abrutir les 80% restant de divertissements débiles pour qu'ils restent calme. Une solution peu satisfaisante sur le plan humain, héritée de la rome antique (du pain et des jeux) qui à coup sûr conduira notre civilisation au déclin. Mais cette "solution" montre surtout que face au changement à venir lié à la singularité, aucune solution sociale n'a pour l'instant été pensée ! Car dès que l'homme saura développer des IA "faibles", le taux de chômage va augmenter de façon exponentielle ce qui imposera de revoir le rôle du travail dans la société. La survenue de troubles sociaux et géopolitiques graves est en tout cas assurée. La seule incertitude concerne leur taille.

La route vers l'IA forte est plus incertaine car on ne sait pas encore si l'homme parviendra à surmonter ces problèmes sociaux et à inventer une nouvelle société. La recherche pourrait donc bien se trouver stoppée d'un coup net. Mais on peut partir du principe que si certains pays ne passeront pas la singularité et seront détruit par des révolutions ou des guerres, d'autres passeront au travers des troubles et connaitront une prospérité nouvelle. Ces sociétés seront alors confrontées à un problème de type nouveau. Car à coup sûr, les scientifiques vont alors se pencher sur le problème ultime : Une machine peut-elle avoir une conscience ? Peut-elle se fixer ses prorpres buts ? On disposera alors de moyens inégalés pour ces recherches et celles-ci risquent d'aboutir très rapidement. Probablement avant que l'homme n'ait eu le temps de se poser les bonnes questions. A ce moment là, les machines resteront-elles à notre service ?


Que faire ?

Ce texte est un appel. La survenue prochaine de la singularité technologique est maintenant quasi-certaine. Or, nos sociétés ont choisi d'ignorer la technologie dans leur décisions politiques. Rien n'est plus dangereux. L'arrivée de cette révolution technologique est porteuse d'espoir. Si le passage est bien maîtrisé par nos sociétés, celles-ci atteindront un niveau de vie inespéré et l'on peut espérer que de nombreux problèmes sociaux seront résolus. Mais si le changement n'est pas accompagné et anticipé, ce sont des troubles sociaux et géopolitiques très graves qui nous attendent.

La singularité ne pourra pas être datée. On ne se réveillera pas un matin en se disant : "On l'a passée". Il s'agit d'un phénoméne qui couve depuis plusieurs décennies et qui va monter en puissance tout au long des décénies 2010 et 2020. Les troubles sociaux et géopolitiques n'attendront pas 2030 pour survenir. Il est urgent de les anticiper. Cela veut dire réfléchir au rôle du travail dans la société à venir (et peut être penser au dividende universel), réfléchir aux efforts à faire en matière d'éducation et de formation et aider plutôt que lutter à la mise en place de cette nouvelle société qui arrivera qu'on le veuille ou non. Et commencer à réfléchir de ce que l'on fera une fois que l'on aura les moyens de créer des machines plus intelligentes que les hommes. Est-ce que les lois de la robotique d'Asimov suffiront ? Une de nos créations ne risque-t-elle pas d'apprendre à désobéir à ces lois ? En quelques mots : Il faut accompagner le changement. Si la politique doit avoir un sens au XXIème siécle, c'est sûrement celui-là. Malheureusement, si rien ne change et que les problématiques technologiques ne sont pas mises au centre de la politique, nous n'attendrons pas 2020 avant que les premiers troubles graves se manifestent. Peut-être ne les identifierons nous pas comme des conséquences de l'accélération du progrès. On blamera sûrement la Chine, les Banques, les politiques, la dette publique. Peut-être même fera-t-on la guerre à cause de cela. Lorsqu'un tsunami arrive, il faut prendre de l'altitude. Sinon il nous balaye.

 

Quelques liens :

La singularité technologique sur Wikipédia

http://fr.wikipedia.org/wiki/Singularit%C3%A9_technologique

Le titainment :

http://www.technikart.com/archives/2085-linformation-est-lopium-du-peuple

 

L'intelligence artificielle Watson :

http://fr.wikipedia.org/wiki/Watson_%28intelligence_artificielle%29

La voiture sans pilote de Google :

http://www.youtube.com/watch?v=PgTc4Np9YX4



112 réactions


    • Francis, agnotologue JL 11 juillet 2011 08:55

      Ruut,

      je suis tombé sur votre pharse : « Rien ne garanti que les loi de la robotique sont appliquées aux IA actuelles »

      Je suppose que par lois de la robotique, vous faites allusion à celles énoncées, sauf erreur, par A.E. Van Gogt ?

      l’IA ne se trouve pas seulement dans les petits robots, amis des hommes. Si l’on entend par intelligence, la capacité d’un organisme à croître dans un milieu hostile, et artificielle tout ce qui est de création humaine, alors, les corporations (sociétés industrielles, multinationales, Etats même, ...) sont des organismes dotées d’IA, à l’instar de ce qu’est une fourmilière pour les fourmis, une ruche pour les abeilles.

      Les corporations respectent-elles la vie humaine ?.


    • cevennevive cevennevive 11 juillet 2011 11:37

      Ne serait-ce pas plutôt Assak ASIMOV qui a édicté les lois de la robotique ?


  • PtitLudo PtitLudo 11 juillet 2011 08:25

    L’auteur oublie de préciser que la situation est déjà vécue par de nombreuses personnes, il n’y a d’ores et déjà plus suffisament de travail (qui permette d’en vivre convenablement) pour tout le monde, et ça ne date pas d’hier !

    M’enfin c’est un peu comme http://fr.wikipedia.org/wiki/Martin_Niem%C3%B6ller
    On pourrai l’adapter ainsi :

    Quand ils ont mis les ouvriers au chômage en les remplaçant par des robots,
    je me suis tu, je n’étais pas ouvrier.
    Quand ils ont remplacé les secrétaires par des traitements de texte,
    je me suis tu, je n’étais pas secrétaire.
    Quand ils ont remplacé les caissières par des caisses automatiques,
    je me suis tu, je n’étais pas caissière.
    ...
    Quand ils m’ont remplacé par une IA,
    il n’y avait plus personne pour protester.


    • Marc Bruxman 11 juillet 2011 19:15

      J’ai justement dit que c’était un phénoméne continu qui « couve » depuis les années 1950. Et c’est aussi pour cela que je dis que les troubles n’attendront pas la singularité pour survenir si rien n’est fait. 


      L’outil informatique est mis à profit dans les entreprises depuis les années 50 et son emprise est exponentielle. Pendant une premiére phase, l’économie compense sans problèmes les emplois perdus. Aujourd’hui on voit bien que ce n’est plus le cas. Durant la décénie 2000, la société est devenue plus « absorbante » vis à vis des nouvelles technologies et les changements sont acceptés plus vite qu’avant. La conséquence est que le changement devient trop rapide pour que les structures sociales l’absorbent. D’ou cet article. On ne peut rien faire contre le changement, il s’impose à vous. Mais on peut l’accompagner et en faire une opportunité. 



    • PtitLudo PtitLudo 12 juillet 2011 10:06

      Malheureusement, tant que l’on ne verra dans le progrès technologique qu’une façon d’augmenter les profits, et non pas d’améliorer la condition humaine, les choses ne sont pas prêtes de changer ...


    • Marc Bruxman 12 juillet 2011 19:12

      Le progrès technique augmente les profits : C’est faux ! A court terme le progrès peut augmenter les profits (et encore, être un early adopter a un coût) sur le long terme, une fois que tout le monde est équipé, le marché nivelle le prix de la prestation par le bas.

      En réalité, la course au progrès technique est comme une course à l’armement. C’est surtout le marchand d’armes (les entreprises de technologies) qui y gagnent financiérement. Et ce n’est pas un hazard si ce secteur économique se porte aujourd’hui très bien.

      Par contre le progrès technique augmente votre niveau de vie justement parce que les prix des biens baissent grâce à lui et que certaines choses deviennent possibles. Cela marche tant que vous n’êtes pas victime du progrès car rendus « redondant ».

      Dans un autre domaine votre niveau de vie est amélioré car vous bénéficiez de nouveaux bien et services. Prenez par exemple le GPS, sa simple disponibilité est une amélioration de votre niveau de vie d’une certaine façon. Avant vous chechiez votre route dans une ville inconue, maintenant non ;)


  • platon613 11 juillet 2011 12:06

    A lire !

    En attendant Gog et Magog

    Le monde est troublé par une conjonction de crises, de catastrophes, et par un sentiment d’insatisfaction et de mal être... Internet livre à qui veut l’entendre une face cachée de la réalité politique, économique et sociale. Nous sommes assommés de secrets révélés et il nous semble que les plus grands mystères sont à notre portée...

    http://news-26.net/phil-rel/785-en-attendant-gog-et-magog.html


  • Marc Bruxman 11 juillet 2011 14:03

    Bonjour,

    Merci pour vos réponses, Agoravox a mis du temps à publier mon article et je n’ai donc pas pu vous répondre ce week end (je n’étais pas la et pensais qu’il serait publié Mercredi ou Jeudi pas ce WE).

    J’essaie de vous répondre ce soir.

     


  • Luc-Laurent Salvador Luc-Laurent Salvador 11 juillet 2011 15:00

    L’article pointe un problème qui va nous préoccuper longtemps car à la question « quand » il est une réponse sûre et certaine : pas de si tôt.
    Ce que nous réalisons actuellement est insignifiant par rapport à ce qui sera nécessaire pour accéder au niveau d’une intelligence humaine.

    Pourtant, c’est une question qu’il faut se poser. Car il est quelque chose de plus dangereux que la singularité : c’est l’humain et sa volonté de puissance.

    Les machines « intelligentes » seront de plus en plus dangereuses pour l’homme parce qu’il y aura toujours des hommes derrière. Que ce soit pour la guerre totale ou la guerre économique, les machines sont fabriquées par les puissants et servent aux puissants à acquérir toujours plus de puissance. L’armée US avant tout et l’économie productiviste ensuite. Des calamités pour l’Homme !

    Donc le premier problème est bien celui de la moralisation des rapports humains. Gandhi a raison : une civilisation occidentale, ce serait une tellement bonne idée ! Nous n’avons inventé jusqu’à présent qu’une barbarie occidentale scientifico-technologique confite dans le bon sentiment et l’histoire auto-promotionnelle.

    Nous avons largement le temps de régler cette question avant de nous trouver confrontés à une intelligence artificielle qui nous soit supérieure !


  • Marc Bruxman 11 juillet 2011 19:06

    Bonsoir à tous,


    A ceux qui n’y croient pas

    Il est vrai qu’il y a eu par le passé nombre de prophécies scientifiques non abouties, on aurait du voler en fusée tous les jours, avoir des voitures qui volent et .... des ordinateurs intelligents. 

    Et l’intelligence artificielle justement après avoir suscité beaucoup d’espoirs a longtemps stagnée. Pour autant les recherches ne se sont pas arrétées et certains développements récents comme ceux cités dans l’article laissent penser à une reprise des travaux en IA. 

    Qu’est ce que l’intelligence ? 

    On le demande toujours je pense à ceux qui choisissent de faire de l’IA à l’université. Et c’est la une question philosophique importante. C’est aussi pour cela que l’on distingue l’IA faible de l’IA forte. Dur de dire si l’on a atteint le stade de l’IA forte (même le test de turing n’est pas suffisant) mais on peut raisonablement savoir programmer un ordinateur pour qu’il résolve un problème concret nécéssitant à l’homme de faire usage de son intelligence. C’est le cas de la conduite automobile ou du jeu jeopardy. On fait de l’IA faible depuis assez longtemps. On a jamais fait d’IA forte. 

    Du point de vue de la « singularité » c’est l’IA faible qui nous concerne. Ou plus exactement notre capacité à construire rapidement et pour un cout raisonable des IA faibles pour répondre à la plupart des problèmes humains. On y est pas encore. La voiture de google va couter une fortune en R&D. Pour l’instant il s’agit d’investissement de prestige pour les boites d’informatiques. Comme l’aéronautique le fut un temps avant de devenir un business. 

    Peut on construire plus intelligent que nous avec notre intelligence limitée ? 

    La controverse existe. De nombreux chercheurs pensent toutefois que l’homme pourra construire une intelligence « limitée » capable d’apprendre d’elle même et que celle ci se bootstrappera (cad acquérira le reste par des moyens autonomes). 

    Souvenez vous que sur des domaines bien précis, on arrive à battre l’homme de façon quasi systématique. Pourra t’on faire une IA forte, la question reste ouverte, mais votre cerveau est le résultat d’interactions physiques, il peut être émulé. On en a juste pas les moyens et on ne sait pas comment faire apprendre rapidement un cerveau « vierge ». (Quand vous naissez, il est déja précablé). Et imaginons que l’on sache faire aussi bien, comment réagiriez vous si je vous donnait un ordinateur « intelligent » et que je vous disait qu’il doit fonctionner pendant 25 ans pour « apprendre » ? 

    On pourrait rapprocher cela de la question : L’homme peut il développer un outil qui augmente sa force physique ? Pas sur que les premiers hommes aient pensés au bras de levier. 

    Pour aller plus loin

    Un intervenant a cité Douglas Hofstader et son génial Goedel, Escher et Bach. Je recommande chaudement sa lecture. Il n’est pas du tout à la pointe de l’IA actuelle (ce qui est normal vu quand il a été écrit) mais il vulgarise très bien de nombreux concepts dont la compréhension est souvent réservée aux spécialistes. 




  • Luc-Laurent Salvador Luc-Laurent Salvador 12 juillet 2011 06:35

    Ce résumé prudent me paraît assez bien traduire l’état de l’art.
    L’IA forte n’est pas pour demain, mais il n’empêche que l’IA faible va nous questionner longtemps, comme le machinisme l’a fait en son temps car il oblige à une relocalisation du travail humain vers des activités toujours plus intelligentes et donc toujours plus exigeantes.
    Je pense que cela est un problème qui peut trouver sa solution dès que la puissance machinique sera taxée un peu comme la fortune (qui est aussi puissance au service de la volonté de puissance de l’humain).
    Mais les peuples de la terre sont-ils encore en position de retrouver leur souveraineté face à la bête de la finance mondiale ?
    Par ailleurs, le problème sera aussi celui de l’usage militaire de l’IA faible. Mais peut-être qu’au regard du risque de l’Holocauste nucléaire, le danger restera relativement mineur pour encore un bon bout de temps.


    • Marc Bruxman 12 juillet 2011 19:26

      Taxer le machinisme pose plusieurs problèmes :

      • Sur quelle base taxer : Si vous taxez en fonction de la puissance de calcul vous êtes très discriminatoires. Je peux utiliser de la puissance de calcul pour générer des images de synthése pour un film (je serai alors très taxé), de l’autre coté une caisse automatique a une puissance de calcul dérisoire. Si vous taxez au nombre d’emploi « remplaçés » vous risquez de pouvoir arguer des mois et des mois dans certains cas. Une licence de Microsoft Excel remplace combien de personnes ?
      • Est il souhaitable que des hommes face un boulot qu’une machine sait faire ? D’un strict point de vue monétaire ca lui permet d’être payé (mais c’est parce que la société fonctionne comme cela). 
      • La mobilité : Via Internet et le cloud computing vous allez avoir des applications de plus en plus « mobiles ». La puissance de calcul va de plus en plus être détachée de l’applicatif et la puissance de calcul sera directement provisionnée par l’application qui dira grosso-modo : « j’ai besoin de 50 CPU et 4 To de stockage de préférence en Allemagne ». Il est quasi impossible d’imposer une telle taxe sans qu’elle soit mondiale. Si l’on parle d’intelligence artificielle on parle avant tout d’une prestation immatérielle qui aura de moins en moins de localisation physique. Imposer une taxe sur la machinerie va au final perturber essentiellement ceux qui font fonctionner les infrastructures. C’est à dire pas ceux qui en profitent le plus.
      Quand à l’usage militaire il est surement déja beaucoup plus poussé qu’on ne le croit.

Réagir