samedi 27 juin 2009 - par Bertrand Lemaire

Internet du futur : vers un réseau de noeuds sociaux

Internet est en crise technique, sous les coups des dénis de services, du pourriel et de l’hameçonnage. La création de contenus est autant en crise à cause de l’émergence du numérique. Crise du contenu et crise du contenant : un nouveau modèle doit émerger.

« Internet est un réseau expérimental depuis trente ans » a jugé Louis Pouzin dans une récente interview. L’homme sait de quoi il parle : ses travaux sur les datagrammes sont à l’origine technique du réseau Internet et, dès 1974, du réseau homologue français Cyclades. Vinton Cerf s’est basé sur ces travaux pour définir le protocole TCP/IP, base d’Arpanet puis d’Internet. Malgré tout, c’est ce bidule expérimental et bricolé qui soutient une bonne part de l’économie mondiale via le web ou les échanges dématérialisés sous divers protocoles. Il est temps de réfléchir à son avenir, de définir ce dont nous avons besoin.
Internet est également l’outil de communication des idées, d’information et de culture au sens le plus large qui soit. Or la crise de la presse ou celle des maisons de disques, c’est à dire la crise des producteurs de contenus, est simultanée à la crise technique du réseau, victime de toutes sortes de pirates et d’escrocs. De nouveaux modèles de production de contenus apparaissent alors que de nouvelles modalités techniques de diffusion sont désormais disponibles. 

Un modèle global entièrement nouveau peut donc apparaitre. 

Voyons de quoi il peut s’agir.

Le réseau Internet étant expérimental, dédié à l’origine à des échanges au sein d’une communauté restreintes de gens biens, les failles de sécurité sont gigantesques, à tous les niveaux. L’hameçonnage est rendu possible parce qu’il n’existe aucun moyen de vérifier une identité au sein du réseau. Le déni de service est possible parce que les protocoles réseaux n’ont pas prévu de les empêcher. Le pourriel n’est possible que parce que tout le courrier Internet est composé de lettres anonymes...
De plus, les Etats-Unis verrouillent le réseau dans le sens de leurs seuls intérêts à, au moins, quatre niveaux : le choix des standards industriels pouvant être utilisés sur le réseau (favorisant leurs propres industriels) ; le formatage des noms de domaine et leur gestion (une manne financière mais aussi une dictature culturelle sur l’alphabet utilisé) ; l’attribution des plages d’adresses IP (donc de la quantité d’objets pouvant être connectés par pays) ; et enfin le routage des informations via les serveurs DNS racines (donc la capacité à effacer des serveurs ou des pays entiers, les rendre inaccessibles par le réseau). Un cinquième niveau va s’ajouter avec l’Internet des objets si nul n’y prend garde, cette fois avec des effets directs et immédiats sur les libertés publiques et la compétitivité des entreprises. Si une base centrale des tags RFID placés sur tous les objets en transit venait à se mettre en place, ce serait certes un gain considérable pour la logistique mais une menace tout autant considérable sur la liberté du commerce, ceux contrôlant la base pouvant tout savoir à tout moment de tous les flux commerciaux à travers le monde, voire savoir qui a acheté quoi, quand et à quel prix.
Le réseau tel qu’il est construit est également l’outil rêvé pour tous les filtrages, tous les flicages, toutes les manipulations. En Chine comme en Iran, aux Etats-Unis ou en France, les lois sur le contrôle d’Internet se mutliplient. Bien sûr, ces lois sont justifiées par la lutte contre la contrefaçon, le terrorisme et la pédopornographie... Quand on veut tuer son chien, on l’accuse de la rage.

Une refonte technique d’Internet est donc nécessaire, ainsi que de sa gouvernance politique.

Mais la technique n’est qu’un moyen. La finalité d’Internet reste d’échanger de l’information. Cette information peut être commerciale ou technique au sens strict : les sites web d’entreprises par exemple. La révolution Internet a ajouté un canal de distribution, ce qui a profondément bouleversé les rapports entre producteurs et commerçants puisque les producteurs se sont mis en situation de concurrencer leurs clients directs, les distributeurs. La situation semble globalement stabilisée à ce niveau. N’y revenons pas.
Par contre, la production de l’information journalistique ou militante, elle, est encore en recomposition. La crise de la presse aboutit à la destruction de nombreux supports, à la réduction de qualité de la plupart des autres, tandis qu’émerge une information militante ou personnelle au travers, notamment, des blogs et des réseaux sociaux. Internet devient ainsi au sens strict un village mondial où chacun parle à ses voisins sur l’ensemble de la planète tandis que les colporteurs professionnels de nouvelles se trouvent bien embêtés.
Dans "Le journalisme, la presse et l’avenir du monde", il est clairement démontré que l’information saine doit reposer sur trois piliers complémentaires : les news factory, pour fabriquer de l’information de masse à faible valeur ajoutée mais aussi à faible coût (pouvant donc être financée par la publicité) ; les blogs issus de spécialistes ou de militants qui oeuvrent selon leurs intérêts propres sans avoir à justifier d’une neutralité ou d’une éthique (on peut assimiler à ce type d’information les sources collaboratives du type Wikipedia) ; et enfin la presse à valeur ajoutée, celle qui a du mal à se maintenir pour des raisons économiques (à laquelle on peut assimiler les encyclopédies à validation par une autorité de référence).
Dans tous les cas, chacun attribuera une valeur à chaque source d’information en fonction de critères plus ou moins objectifs, soit qu’on sera en mesure de directement vérifier ce qui est dit, soit qu’on pourra se fier à une recommandation ou à une réputation. 

Bien sûr, aujourd’hui, quand on cherche une information, on s’en remet le plus souvent à des moteurs de recherche, à commencer par l’américain Google. Or, les algorithmes de tri et d’indexation sont d’un mystère insondable : la valeur d’une information n’est clairement pas prise en compte, pas plus que la fiabilité d’une source ; la pertinence est appréciée selon des critères très contestables et, en tous cas, pas au choix de l’utilisateur ; le sens critique est indispensable sur ce qui est retourné comme résultats ; les informations les plus récentes ne sont pas nécessairement indexées donc accessibles ; le filtrage politique est une réalité ; etc.
Cette situation n’est évidemment pas satisfaisante. Mais il existe d’ores et déjà des outils de "partages de liens", de recommandations plus ou moins formelles de sites web. Une alternative aux moteurs de recherche est donc déjà partiellement en place.
Mieux, un démonstrateur technologique d’une nouvelle génération de moteurs de recherche a déjà été mis en ligne : un système en pair-à-pair se basant sur les indexations de chaque membre du réseau, selon son bon plaisir donc ses recommandations. Il s’agit du projet Net2Map, malheureusement en friche.
Les réseaux sociaux de type Facebook, Viadeo ou Linkedin permettent également d’échanger du contenu entre gens de bonne compagnie, c’est à dire de proche en proche, comme une sorte de mécanisme type bouche à oreille dématérialisé.

Un autre type de contenus est culturel : la musique, les films, les livres. Certains auteurs assument pleinement leur diffusion via le seul Internet. Des chanteurs se font connaître en diffusant gratuitement leurs oeuvres et cherchent ensuite, le cas échéant, à tirer des revenus de concerts. Les recommandations via les réseaux sociaux (Facebook et MySpace surtout) marchent à fond dans ce domaine.
Mais la Vieille Garde de l’industrie ne s’y retrouve pas : l’offre disponible explose, mais ni les budgets des ménages (ce serait même le contraire) ni le temps disponible. Le renouvellement régulier des discothèques (via la migration purement technique des supports : vinyl au CD par exemple) n’est plus un modèle viable pour valoriser un catalogue ancien : chacun est en mesure de convertir par lui-même les oeuvres dont il possède la licence (d’où la volonté de l’industrie d’empêcher cette conversion via des mesures techniques de protection qui visent d’abord les clients acceptant à la base de payer avant de viser les pirates).
A l’heure où un particulier ou un groupe de particuliers est en mesure d’acheter le matériel nécessaire à la réalisation d’un disque ou d’un film puis de diffuser via Internet ses oeuvres, le rôle d’une industrie fortement capitalisée opérant via de forts investissements (techniques ou marketing) est clairement en cause. Le modèle économique de la culture est donc en refonte, du fait même de l’irruption d’Internet et de l’évolution technologique.

Crise technique du canal de diffusion, crise du contenu. Un autre modèle à la fois du contenu et du contenant doit donc apparaître. Bref, un autre réseau doit naitre.

Vers des noeuds sociaux

Il y a, derrière l’expression de village mondial, une dimension souvent sous-estimée : celle de proximité. Finalement, on fait d’abord confiance à ceux que l’on connait ou qui sont des amis d’amis. C’est là le moteur des réseaux sociaux. Mais la pollution de ceux-ci par la publicité comme leurs limitations fonctionnelles les désignent clairement comme un outil transitoire.

Sur le plan technique, des réseaux para-Internet commencent à se développer. Pour de mauvaises raisons, la Chine a créé son propre réseau interne, connecté à Internet après filtrage. A l’inverse, un outil de type Freenet est un réseau crypté qui fonctionne par diffusion de données de proche en proche. La multiplication des bornes réseaux domestiques, à portée d’émission les unes des autres, peut très bien présager d’un réseau réalisé sous la forme de noeuds successifs selon la vocation initiale d’Internet : l’absence de toute infrastructure centrale pouvant être détruite lors d’une attaque nucléaire... ou d’une tentative de censure. L’ouverture au reste du monde via l’Internet classique reste possible mais après validation par un point d’entrée (ce qui, théoriquement, élimine le piratage issu d’étrangers ou d’inconnus).

Mais pourquoi ces noeux seraient-ils seulement de transmission ? Les noeuds sociaux peuvent également être des serveurs de contenus et de recommandations, chaque noeud ayant une identité validée.

Arrêtons de jouer au chat et à la souris pour bien définir ce que seraient ces futurs noeuds sociaux.

Au delà de la fonction de transmission de proche en proche des requêtes des autres noeuds, les noeuds sont avant tout des endroits de stockage de contenus propres, soit en doublon pour favoriser le partage (principe du réseau pair-à-pair), soit en original. Dans les deux cas, le propriétaire du noeud définit clairement les droits d’usage de ses capacités de transmission, et d’accès à ce qu’il héberge, le plus finement possible : qui a le droit de lire quoi, de télécharger quoi (pour éventuellement le redistribuer), de stocker quoi ou de contribuer à quoi sur un wiki présent sur le dit noeud.
Cela implique que les utilisateurs signent ce qu’ils font et que les noeuds eux aussi sont identifiés via des clés de signature électronique. Ces clés peuvent être validées par une autorité (publique ou privée) que l’on accepte de reconnaitre (principe de la signature électronique à valeur légale) ou simplement validées par réputation ou rencontre physique (principe des clés de logiciels cryptographiques de la famille PGP/OpenPGP) : lorsqu’un utilisateur A rencontre un utilisateur B, ils s’échangent des clés et se reconnaissent mutuellement, un utilisateur C faisant confiance à A connait donc indirectement B et peut accepter de lui faire confiance. Quand D arrive chez C, il peut ainsi connaître les clés de A et B. Et ainsi de suite. La révocation des certificats (s’ils sont volés) peut suivre une chaine (C prévient A et D, ses contacts. B est prévenu par A).

Les noeuds sont également, dans ce modèle, des moteurs d’indexation et de recherche, sur le modèle de Net2Map. Il indexe son propre contenu, bien sûr, mais aussi ce qu’il considère comme pertinent et stocké sur d’autres noeuds. Un utilisateur lançant une recherche va obtenir en premier lieu les résultats de son propre noeud (donc au sein des contenus qu’il a lui-même considéré comme pertinents) puis des noeuds avec lesquels il est en relation directe (donc des noeuds dans lesquels il a confiance) puis, au fil d’une propagation de la recherche de noeuds en noeuds selon le principe du pair-à-pair, les résultats vont s’enrichir de contenus validés par des sources de plus en plus éloignées. Bien entendu, il peut être envisagé d’avoir des noeuds de type "Guide Michelin d’Internet" qui délivreraient (le cas échéant contre rémunération) un tri à valeur ajoutée mais ce serait une marge du système, remplaçant les moteurs de recherche actuels de type Google.
Le premier effet de cette architecture d’indexation et de recherche est d’avoir un index toujours à jour : chaque noeud met à jour son propre index dès que ce qui est stocké en son sein est modifié, seule l’indexation secondaire par d’autres noeuds pourrait subir un délais (mais on pourrait prévoir un système d’alerte aux noeuds abonnés, sur le modèle des flux RSS ou d’une liste des contenus mis à jour avec une date, selon le modèle du Xmap des sites web actuels).

Les courriers ne sont finalement que des contenus ordinaires destinés à une ou plusieurs personnes. Il est donc inutile de prévoir une boite aux lettres centralisée (et donc fragile, facile à pirater) sur le modèle actuel du Pop/Smtp. Le noeud de l’émetteur contient le courrier et envoie une notification, via le réseau pair-à-pair, au noeud du destintaire, identifié par sa signature et sa relation à l’émetteur. Ce dernier peut, en retour, accéder au contenu qui lui est destiné, soit en le laissant sur place soit en le copiant en local sur son propre noeud. La notion de contenu privé est simple à imaginer au travers des droits d’accès attribués à chaque contenu du noeud.
Ce mécanisme exclut le pourriel et l’hameçonnage par son architecture même : on sait très exactement qui est émetteur et par quel réseau de relation on reçoit son courrier. Quand on visite un noeud, on sait à qui il appartient puisqu’il est signé. Si un noeud est malgré tout piraté, il est aisé de l’isoler et de refuser ses contenus.

Bien entendu, les droits d’accès peuvent être rémunérés. Un professionnel peut laisser voir une partie du contenu de son noeud ou son index mais réserver l’accès au contenu lui-même à ses clients.

Les noeuds peuvent être des machines de particuliers, bien sûr, mais aussi de professionnels voire de grandes entreprises ou administrations. Seule la taille du noeud et sa richesse propre variera. Sur le plan architectural, tous ces noeux seront des pairs, au sens classique du mot, c’est à dire des équivalents.

Côté interface, le noeud peut ressembler à un site web avec des pages particulières pour les indexations ou pour lancer des recherches (Net2map est écrit en java et présente une fenêtre particulière de recherche multidimensionnelle). Mais j’aime imaginer qu’il pourrait être plus proche d’Emenu : l’univers créé par Pierre Béhel dans son roman Carcer ressemble à un Second Life en pair-à-pair où des malles contiennent les contenus que l’on souhaite stocker sur son noeud. Tant qu’à imaginer un réseau du futur, autant se faire plaisir.



13 réactions


  • plancherDesVaches 27 juin 2009 16:05

    Ha... ?
    Encore un désireux d’exploitation financière du web.

    Un avis qui devrait compléter votre point de vue :
    http://www.ecrans.fr/Tout-le-monde-a-interet-a,5762.html
    « Tout le monde a intérêt à transformer Internet en Minitel »

    Bien à vous.


  • herbe herbe 27 juin 2009 17:01

    pour favoriser le partage... la dernière initiative d’opera semble aller dans cette direction :

    http://www.zdnet.fr/actualites/internet/0,39020774,39504690,00.htm

    http://fr.wikipedia.org/wiki/Opera_Unite#Opera_Unite


    • plancherDesVaches 27 juin 2009 19:44

      Herbe.
      Cela fait des années que j’utilise ftpserv (gratuit et français) ainsi que FileZilla pour partager des documents avec toutes mes connaissances. Mon PC sert de sauvegarde pour une copine, aussi.
      Donc, rien de franchement nouveau, mais l’inclusion dans un navigateur, pourquoi pas.
      Par contre, au niveau sécurité, cela pourrait être « chaud »...
      Lorsque j’attribue un login et un mdp, je sais à qui j’ai affaire....


  • Emmanuel Aguéra LeManu 27 juin 2009 19:47

    Quelle crise du réseau ?
    Chez moi c’est ok.
    Changez d’opérateur si ça marche pas.
    (Au train où vous êtes parti, il va falloir un autre article si je vous demande où vous voulez en venir...)


    • Bertrand Lemaire Bertrand Lemaire 27 juin 2009 21:01

      Mon accès Internet fonctionne très bien, merci. Mais la crise du réseau est, comme indiqué, liée à l’explosion des spams, des hameçonnages et autres actes de piraterie liés à la mauvaise architecture technique d’Internet, inapte à empêcher ces actes malveillants. Il y a quelques années, j’avais fait un test : signaler par une alerte les tentatives d’intrusion. J’avais vite arrêté l’alerte : à partir du moment où je branchais ma machine sur le réseau, sans rien faire d’autre, j’avais une première tentative en moins de deux minutes et ensuite les attaques n’arrêtaient plus.


  • stephanemot stephanemot 28 juin 2009 06:30

    reseau experimental certes, mais depuis 40 ans plus que 30 (20 si l’on considere le web a proprement parler)

    pour moi, internet a fait enormement evoluer l’architecture de la societe, des societes, et des modes de pensee, sans evoluer soi-meme.

    je ne sais pas si on peut arriver a une vraie V2 universelle dans le contexte actuel, surtout avec la Chine.


  • herbe herbe 28 juin 2009 09:36

    On a pas fini d’en parler, quand on voit cette vidéo assez impressionnante on comprend que certains acteurs de la société mondiale d’aujourd’hui paniquent et ont la tentation de lois régressives et liberticides et pourtant il y a tellement de choses ( à l’image de tout produit des activités humaines : bon et moins bon) en germe ( une nouvelle société plus juste ?) ... :

    http://www.nowhereelse.fr/did-you-know-21284/


  • Patapom Patapom 28 juin 2009 12:46

    Votre description d’une éventuelle évolution du net me fait froid dans le dos.
    Je ne sais pas si je suis un grand paranoïaque mais cette histoire de signature, d’identifiant unique et de censure de noeuds me rappelle étrangement la polémique qu’il y a eu il y a quelques années sur la fameuse puce « Fritz » qui signait chaque paquet de données qu’elle fournissait, et n’acceptait de décrypter que des paquets de données eux-mêmes signés (sous-entendu « légaux », donc achetés).

    Cela signifiait un contrôle et une transparence totaux de toutes les données qu’un individu pouvait émettre ou recevoir... Tout cela, bien entendu, pour lutter contre le spam, le piratage, le terrorisme et la pédophilie, pour le bien de la liberté et de la démocratie.

    Si ça m’avait déjà hérissé le poil à l’époque, ainsi qu’à bon nombre de gens, là vous nous proposez la même chose mais avec des machines qui agiraient comme des « points clés », des checkpoints.
    Ca ne serait plus les machines de chacun d’entre nous qui serviraient de mouchards, mais seulement quelques-unes, c’est bien ça ?

    Je ne suis pas d’accord ! Je suis pour l’anonymat des machines et des utilisateurs, même si ça doit entraîner le spam ! Je ne veux pas qu’on puisse fliquer ce que je fais ! Je me fous d’avoir un contenu « certifié conforme » ! Je veux continuer de pouvoir envoyer un MP3 à mes potes, même si je l’ai pas acheté ! Je veux continuer à pomper mes séries tranquillou ; A écrire des pamphlets virulents contre tous les gouvernements de la planète sans être épié ou fiché !

    Bref. Je ne veux pas de contrôle ! Dieu sait entre quelles mains ça pourrait finir par tomber, tout ce pouvoir ! Et à l’heure actuelle, il faudrait être dingue pour faire des paris sur un avenir radieux de liberté et de démocratie !


    • Bertrand Lemaire Bertrand Lemaire 28 juin 2009 15:00

      Bonjour.
      Votre inquiétude est légitime et je la partage tout à fait. L’architecture que je pressens n’est cependant pas ce que vous, vous décrivez.
      La différence réside dans le qui signe, qui authentifie, qui autorise.
      Dans une architecture décentralisée, de type pair-à-pair, chacun choisit la ou les autorités de certification qu’il accepte (dans un système à la PGP, il n’y a même aucune autorité centrale puisque ce sont les utilisateurs qui sont chacun une autorité que l’on accepte de reconnaître ou non).
      La censure, si censure il y a, résidera dans un choix délibéré de chaque utilisateur qui décidera, en son âme et conscience, avec qui il veut être en relation, à qui il veut faire confiance.
      L’anonymat total n’est pas une bonne solution et n’existe d’ailleurs pas, même aujourd’hui.


    • Patapom Patapom 4 juillet 2009 13:20

      Donc une sorte de « cryptage peer2peer »... Huhu. Intéressant.
      Merci pour cette précision. Ca me rassure un peu, effectivement...
      ...Tant qu’il n’y a pas de « haute autorité pour la fourniture des clés de nodes » qui ne tardera pas, sans doute, à être mise en place par tous les gouvernements de la planète.

      Okay, j’arrête ! Je suis décidément vraiment paranoïaque ! =)


  • ttibot 28 juin 2009 21:19

    Ne pas oublier l’arrivée de la sémantique qui pourrait répondre bien des questions sur la pertinence de l’information affichée sans remettre en question les lobbies actuels.


  • Anakin Skywalker 28 juin 2009 23:28

    Je poste pour dire à l’auteur que son article est intéressant, mais je n’ai pas encore eu le temps de tout comprendre, mes connaissances en informatique étant très perfectibles.

    J’ai cependant tout mo temps pour relire l’article, et ce que je peux déjà en comprendre me donne une bonne idée de sa qualité d’ensemble.


  • kdb 29 juin 2009 09:36

    deux systèmes cartonnent 
    1/un original système du nom de OmeMo « un grand disque virtuel commun muni de nœuds(pas encore francisé mais ca va venir et :
    2/ stealthNet ! un système rapide, crypté qui a pas mal(même beaucoup de source, en tapant le mot »french "dans son moteur de recherche incorporé ! ca fonctionne comme mute---mais en multi source ! et a en + l’apparence de Emule


Réagir