lundi 30 juillet 2012 - par calimero

Internet 1.0 : le rêve oublié

Le web d'aujourd'hui ressemble à une rivière gelée. Les choses se sont stratifiées et figées : quelques gros sites concentrent l'essentiel du trafic et l'innovation ne se rencontre plus que dans la création de nouveaux modèles de rentabilité, de nouveaux concepts lucratifs. L’effervescence créatrice et l'enthousiasme désintéressé des débuts du web ne sont plus qu'un souvenir lointain.

Reprenons depuis le début : tout a commencé au siècle dernier dans les années 90. L'aventurier d'alors disposait d'un territoire vierge à conquérir, équipé de son modem 28,8Kbits/s (vitesse de transfert maximum : 3,2Ko/s !). Il faisait bon vivre dans le web 1.0 intimiste et peu peuplé. C'était un espace de liberté totale : un refuge hors de toute logique mercantiliste et un formidable espoir, un rêve dont nous étions tous les constructeurs. Evidemment il n'y avait alors sur le web que des pages html : pas de vidéo ni même de moteurs de recherche. On utilisait des catalogues de liens en se refilant les bonnes adresses. Pour héberger un site c'était gratuit : altern.org fut le premier à proposer ce service en France, ne demandant rien en échange, même pas quelques informations.

Puis la loi s'en est mêlée. Je me souviens que beaucoup de webmasters de l'époque avaient été scandalisés quand il est devenu obligatoire de fournir un email pour héberger un site. Au final le mythique altern.org à été contraint de fermer suite à des procès insensés, faisant les frais des tâtonnements juridiques des autorités d'alors. Ce fut le signal de départ, la fin de l'isolement : la meute et sa cohorte de lois allait bientôt débarquer chez nous avec ses exigences de rentabilité.

Nous on était bien peinard à faire du html quand la guerre à éclaté. Fin des années 90 : le navigateur Netscape règne en maître, ayant supplanté depuis longtemps l'antique Mosaic. C'est alors que l'ours Microsoft décide de venir mettre ses sales pattes sur le web, après en avoir réalisé tardivement le potentiel. Internet Explorer sort, directement intégré dans Windows. Supporté par une effroyable puissance de feu marketing il gagne de plus en plus de terrain face à Netscape. Là les problèmes sérieux ont commencés : Microsoft s'est mis à faire sa propre version de html, ne respectant pas les standards. Les pages web créées avec du html propre s'affichaient mal dans Explorer, à dessein bien sûr, dans une tentative ignoble de privatiser les standards. Explorer gagnant de plus en plus de parts de marché, on a bien été obligés de s'adapter, réduits à bricoler des pages pour Explorer tout en conservant le html normal pour Netscape. Puis un jour Netscape est mort, écrabouillé par le monstre : Microsoft avait pris le pouvoir, on était dans la merde. Heureusement après quelques temps de flottement Firefox, digne héritier de Netscape, a brillamment repris le flambeau. On peut dire que Firefox a sauvé le web des griffes de Microsoft, rétablissant la balance et obligeant l'ennemi à mieux respecter les formats standards. La première guerre mondiale du web était terminée, le mal avait été repoussé.

Vers la fin du siècle le réseau était plus que jamais perçu comme un objet de fascination. Nous avions plongés dedans avec enthousiasme, travaillant à son édification porteuse d'espoirs démesurés. Soutenus par l'optique du logiciel libre, fonctionnant en communautés soudées et passionnées on construisait le nouveau monde.

Puis les loups ont débarqué : la ruée vers l'or commença. Une époque formidable : la France découvrait internet, les boursiers se léchaient les babines devant tant de juteuses perspectives et l'argent affluait de partout. C'était la folie des start-ups : un type avec une idée sous le bras et un peu de bagou pouvait lever des millions en une après-midi. Les acteurs financiers investissaient dans n'importe quoi, pourvu que ça se passe sur internet et que ce soit bien présenté. Des fortunes se créaient ou disparaissaient en quelques mois. Tout ce cirque a duré pendant un an environ, et la bulle a éclaté. Après s'être pris quelques bananes mémorables les financiers se sont calmés. Ce fût la fin d'une époque, celle de l'internet libre et désintéressé. La pomme était croquée.

Ils commencèrent à coloniser l'internet : de grosses sociétés émergèrent, à commencer par Google. La démocratisation de l'accès internet depuis l'arrivée de l'adsl a permis de mettre en place de nouveaux modèles de rentabilité. Ils allaient transformer notre île exotique en supermarché géant. La pub a débarqué en force sur les sites, et les données ont commencées à être exploitées. Aujourd'hui une poignée de sites concentre l'essentiel de l'activité grand public, à commencer par Facebook. Cela pose un problème à divers titres : internet se ferme et se vend au plus offrant. La dérive récente des jeux en ligne vers toujours plus de pognon à essorer est symptomatique.

Le web 2.0 apporte néanmoins des innovations positives, permettant au grand public d'éditer facilement des informations sur le net grâce aux blogs et wikis.

La marchandisation des données va bon train : beaucoup de sites demandent de plus en plus d'informations à l'utilisateur, parfois obligé de les fournir s'il veut accéder à du contenu dans les réseaux sociaux. Absolument tout est stocké : chaque action de l'utilisateur 2.0 est enregistrée et recoupée, le moindre clic. En soi la valeur de ces données est nulle, par contre leur exploitation sur des masses considérables par des techniques de data mining produit de la valeur échangeable en termes d'informations. Il est probable que Facebook en sache plus sur un utilisateur que lui-même. Cela pose évidemment un problème de confidentialité, le websurfeur d'aujourd'hui étant traqué et profilé à chaque instant. Que vont devenir ces données, propriété des sites en question, dans quelles mains vont-elles atterrir ?

Du même tonneau une autre super innovation : le tracking multi-sites. La démocratisation de javascript dans les navigateurs a permis aux gros sites, qui concentrent aujourd'hui l'essentiel de l'audience, de développer des outils pour pister l'utilisateur. Enormement de sites chargent à chaque page des petits scripts étranger qui envoie des infos aux maisons mères. Facebook et Google sont partout : ils collectent tout sur tout le monde. Ici même sur Avox chaque page chargée lance 3 scripts Google : pour la pub, la syndication et les stats. J'ai rien contre mais je préfère les stats à l'ancienne produites par le serveur web lui-même : ce sont mes informations pas celle de Google. Je me rappelle avec nostalgie les jours où les cookies (petits fichiers innocents dans le navigateur pouvant stocker des informations) étaient regardés avec la méfiance qui prévaut face à une intrusion dans la vie privée. On en est à un autre stade aujourd'hui : l'intrusif est la règle, il faut se protéger. La parade existe : Firefox équipé du module No Script, qui bloque systématiquement tout les scripts sauf ceux des sites que l'utilisateur a autorisés. Voila déjà un problème résolu : encore merci Firefox sur ce coup là. Au passage un autre module Firefox très utile : Adblock pour bloquer les pubs.



Les robots collecteur de données qui se baladent sur les réseaux, les bots, évoluent aussi rapidement.

Je parle même pas des systèmes d'interception et d'analyse de flux, pouvant conduire aux pires dérives sécuritaires étatiques : surveillance et censure sont techniquement possibles. Tout cela vendu dans un premier temps pour lutter contre les hackers chinois pédophiles, puis étendu en douce selon la méthode classique.

Bon c'est moche tout ça mais pensons au futur. Pour l'instant le web a chopé le cancer : son aspect universel, de caractère quasi-sacré pour les anciens, est en train de foutre le camp. Le problème se situe dans l'accès aux données, qui devient en quelque sorte privatisé. Je dois entrer un peu dans la technique pour expliquer. Exemple : je suis programmeur et je souhaite accéder à des données sur Facebook. Or cela n'est possible uniquement qu'en utilisant les outils fournis par Facebook, alors qu'il existe des formats standards, universels, élaborés et reconnus par le W3C, l'organisme mondial de normalisation. Métaphoriquement je ne peux accéder à des données Facebook que si je parle le Facebook, et non par un langage universel.

Pour nous c'est la seconde guerre mondiale du web : formats contre API (Application Programing Interface : outils, méthode d'accès spécifiques à un site pour faire simple). Que faire ? Lutter, défendre notre vision, et continuer à construire le réseau.

Tout espoir n'est pas perdu, loin s'en faut. La Rébellion dispose d'armes puissantes à l'abri dans un autre recoin de la galaxie : le web sémantique. Des outils se développent afin d'améliorer la qualité des données : les transformer en connaissances. Tout cela tourne autour du format RDF, base de développement d'autres formats. Cela consiste en gros à définir mieux les relations entre données au travers de triplets de type sujet/verbe/complément : la relation est ainsi qualifiée, par exemple : untel->est l'auteur de->tel article. L'information prend alors une valeur sémantique : il ne s'agit pas de présenter des données mais de les définir dans une acception plus humaine.

Wine ontology

Perso je fonde beaucoup d'espoirs dans OWL (Ontolgy Web Language) qui permet de modéliser des ontologies, et d'automatiser une partie du traitement de l'information avec ce qu'on appelle un raisonneur. Exemple : ontologie modélisant une famille : le programme peut savoir que la sœur de ma mère est ma tante. Il effectue des déductions à partir des relations d'inférence définies dans les données ainsi modélisées. Cela ouvre des perspectives énormes et tout cela est encore en développement et reste un peu underground, cependant le potentiel est là. Je me lancerais bien à tester l'écriture d'un petit visionneur OWL sous forme de module Firefox, histoire de voir si c'est faisable en javascript, et surtout dans le but de présenter dans un format intelligible tous ces machins sémantiques.

On bosse sur le 3.0 pendant qu'ils se remplissent les fouilles, et comme d'habitude on finira par gagner parce qu'on est plus forts, et ils verront rien venir : l'internet restera libre et ouvert quoi qu'il arrive. Le net est une évolution anthropologique majeure : l'invention de l'écriture a permis d'externaliser la mémoire, celle de l'imprimerie de la démocratiser, et celle de l'internet de la mutualiser.

Vu les enjeux pas question de laisser le réseau se minitéliser de plus en plus. Le net appartient à tout le monde et n'en est qu'à ses balbutiements. Tant de choses sont encore possible.



39 réactions


  • wesson wesson 30 juillet 2012 11:28

    Bonjour l’auteur,


    bon sur le constat, rien à redire, les marchands du temple se sont installés, et ont effectivement tout gelé. On appelle ça Web 2.0, je trouve que le nom qui convient mieux, c’est Minitel 2.0. 

    En résumé, l’utilisateur dispose d’un panel de services payant de manière directe ou indirecte, mais sa relation avec le web doit être essentiellement celle d’un client envers un serveur : on doit consommer du web, et le moins possible fournir, ou alors ce que l’on fournit doit passer par des filtres qui vont formater, censurer si besoin, etc etc. Et effectivement, alors que dans ses débuts il régnait un anonymat relatif sur Internet, c’est maintenant mort et bien mort. Au mieux, les FAI doivent conserver pendant 1 an la trace de toute votre activité Internet (y compris les mots de passe, et oui, c’est dans la loi), au pire, ils la conservent à vie.

    Peut-être certains se rappellent de l’histoire de anon.penet.fi, qui a été contraint à la fermeture à la suite d’attaques concertés de l’église de scientologie, et d’accusation par la presse mainstream (« The observer ») d’être un portail de la pédophilie ... Toutes les initiatives de cet ordre qui ne rentrait pas dans le cadre de ce plan minitel 2.0 ont été détruites par ce genre de moyen détourné (on laisse faire le sale boulot par d’autres sans se mouiller soi-même), pour être remplacé par des équivalents commerciaux plus compatibles avec les demandes des états. 



     


  • JC (Exether) 30 juillet 2012 11:52

    J’ai aussi démarré mon activité sur internet en 1993, avec Mosaïc. On trouvait essentiellement le site avec des sons des guignols de l’info et déjà pas mal de sites d’images pornographiques. Des recherches universitaires aussi. J’ai même pu jouer à l’un des premiers jeu de rôle en ligne (mud, en mode texte bien sûr). C’était un petit woodstock numérique.

    Aujourd’hui internet à considérablement augmenté en volume d’information, en interactions, et il s’y passe bien plus de choses. Mais la part du web ’libre’ a elle aussi augmenté considérablement, même si elle n’est accessible le plus souvent qu’aux initiés. Et il est difficile pour tous de ne pas laisser des traces numériques partout, de ne pas être tracé et de garder confidentielles ses informations personnelles. Même en y consacrant du temps et des compétences, on ne peut pas être tout le temps sur ses gardes.

    A mon sens avec la croissance des puissances de calcul et de stockage, le risque est vraiment de voir se constituer une identité en ligne des individus, agrégation de toutes leurs activités virtuelles et qu’ils ne sauraient pas contrôler. Le web sait en effet, où vous habitez (quand vous commandez sur internet), dans quel banque vous avez votre compte, quand vous partez en vacances (si vous réservez sur internet), qui sont vos amis, famille, quelles sont vos opinions politiques, etc.
    Le jour où un état totalitaire (la démocratie se conquiert chaque jour, elle n’est pas gagnée d’avance) aura accès à toute cette information, on sera assez mal.

    Pour finir quand même sur une note positive, les hackers de tout poil auront toujours une longueur d’avance et il sera toujours possible (quoique difficile) de conserver de l’anonymat.

    L’internet, au final, est et restera à l’image du monde, c’est à nous d’en faire ce que nous voulons.


  • T.REX T.REX 30 juillet 2012 12:37


    Paradoxalement, le plus dangereux pour l’avenir du web ce sont les réseaux sociaux tels facebook et twitter car ils vont devenir tellement gigantesque qu’ils pourront comme Google tyranniser le Web. Imposer leurs règles. La plupart des gens au lieu de rejeter ces sites monstrueux pensent qu’il est indispensable d’en être pour vivre sa vie d’Internaute. Sinon on est un dinosaure ou on est marginalisé. C’est l’instinct grégaire. Mais ce devrait plutôt être une vraie guerre à mener par les Internautes qui veulent que l’Internet demeure libre. Une fois qu enous serons pris dans la nasse, noyé dans la masse, le piège se refermera sur nous et Facebook, qui ressemble déjà à Big Brother, nous imposera sa volonté, comme Microsoft l’a fait en son temps. L’abus de position dominante nous guette ! Là est le danger et nous nous jetons volontairement dans la gueule du loup pensant que c’est pour notre plus grand bien. Dès qu’un système devient trop puissant il faut le boycotter, le détruire pour sauvegarder la liberté des individus.


  • lsga lsga 30 juillet 2012 12:52

    ce que vous dites est complètement faux. 


    Internet est passé de quelques centaines de milliers d’utilisateurs dans sa période « 1.0 » à plusieurs milliards aujourd’hui. Il y a beaucoup plus d’internautes créatifs aujourd’hui qu’au début d’Internet.

    Si vous êtes bloqué sur des gros sites sans intérêts : c’est votre problème. 


    • calimero 30 juillet 2012 13:33

      Qu"est ce qui est faux exactement ? C’est pas une question de nombre, c’est une question de dynamique, d’esprit. Je peut pas expliquer, le vent qui soufflait sur le web de ce temps là avait un tout autre parfum.

      Le pierre angulaire de l’édifice c’est le logiciel libre. Tous les protocoles sous-jacents de l’internet ont d’ailleurs été construits sur cette base. La majorité des serveurs web tourne en Linux/Apache qui sont tous les deux des grands classiques du libre : fiables et résistants. Le libre est plus fort que jamais et le travail continue. J’encourage d’ailleurs tout le monde à apporter sa pierre en participant à un projet sous licence libre : ça n’a rien à voir avec le monde réel : on travaille en communautés pour le bien de tous sans être payé et avec grand plaisir.


      Si vous êtes bloqué sur des gros sites sans intérêts : c’est votre problème

      Où avez vous lu ça ? Je disais que la majorité des internautes y sont : il n’y a qu’à voir à la terrasse d’un café ou n’importe où : tout le monde Facebooke.


    • T.REX T.REX 30 juillet 2012 13:56


      Il y a surtout plus d’internautes (Il faudrait le dire en pourcentage et non en nombre) mais créatifs c’est à voir ? La plupart font du commerce (création de richesse) ou échangent des niaiseries ou leurs photos de vacances sur Fesses de Bouc ! Reste à définir ce qu’est un internaute créatif ?


    • Leo Le Sage 30 juillet 2012 17:50

      T.REX dit : « Reste à définir ce qu’est un internaute créatif ? »
      Même question à Isga...

      @AUTEUR/Par calimero (xxx.xxx.xxx.117) 30 juillet 13:33
      Vous dites : "J’encourage d’ailleurs tout le monde à apporter sa pierre en participant à un projet sous licence libre : ça n’a rien à voir avec le monde réel : on travaille en communautés pour le bien de tous sans être payé et avec grand plaisir"
      C’est vrai...
      Il vaut mieux préciser que même comme SIMPLE traducteur, on peut participer...
      Dans quel projet êtes vous calimero ?

       
      Cordialement

      Leo Le Sage
      (Personne respectueuse de la différence et de la pluralité des idées)


    • calimero 30 juillet 2012 18:30

      Dans quel projet êtes vous calimero ?

      Je vais garder ces infos pour moi si vous n’y voyez pas d’inconvénient. Cela n’apporterais rien au débat. Sachez juste que je participe et que j’encourage les gens à s’enrôler dans le libre, nouvelle manière de concevoir le travail.

      Comme vous le soulignez très justement toutes les compétences sont appréciées, spécialement traducteur. On manque aussi souvent de graphistes dans les projets libres, la compétence programmeur étant la plus répandue.


    • Croa Croa 30 juillet 2012 23:00

      « Si vous êtes bloqué sur des gros sites sans intérêts : c’est votre problème. »

      Non, c’est un problème social !

      Je ne pense pas que l’auteur ait dit qu’il était bloqué sur les gros sites. Par contre que quelques gros sites attirent l’internaute comme la merde attire les mouches, ça oui ! Le problème c’est que tout le monde peut s’exprimer sur internet, sur son site ou un blog mais... Chantes beau merle, personne ne t’écoute !

      Même sur Internet ce sont les gros médias qui font l’opinion smiley


    • titi titi 31 juillet 2012 00:04

      « Il y a beaucoup plus d’internautes créatifs aujourd’hui qu’au début d’Internet. »

      Euh bah en quantité peut être, en qualité bof.

      Des concepts neuf y’en a pas tant que ça.

       


  • Soi même Soi même 30 juillet 2012 13:15

    persommellement je n’en fous, quand je sais que son utilisation se retourne contre nous avec tous les renifleurs étatiques légaux !


  • HELIOS HELIOS 30 juillet 2012 15:36

    ... le web est devenu commercial... c’est clair, mais il reste un (gros) morceau qui ne l’est pas, heureusement.

    ... vous attaquez les scripts, mais ce ne sont pas eux qui posent probleme, car eux au moins, on peut les ouvrir et voir ce qu’il font et en interdire l’usage sur sa machine....
    Par contre vous oubliez rapidement d’attaquer une des causes majeures de la derive du web, c’est le Flash : Pas de code, juste de l’executable qui ne permet pas de savoir... donc de controler. ... et je ne parlerai pas du format PDF qui est tout a fait dans la lignée et dont l’objectif et toujours le même : rendre l’echange completement fermé. En ce sens Adobe est un des acteurs les plus dangereux pour le web.


    ... enfin vous attaquez facebook et autrres « sociaux » et Google... vous avez partiellement raison. le probleme, encore une fois, ne vient pas directement de leur business, mais de la servilité des sites qui s’associent a eux.
    Il existe des sites où l’internaute est identifié a partir de ces reseaux. Pas de compte facebook, pas de compte G+, pas de compte twitter : pas d’acces au site... et même pire, certaiens pages de certains sites ne fontionnent plus si vous n’acceptez pas les « script publicitaires » qui chargent la CSS de la page principales.

    L’imagination des publicitaires est sans limite et s’appuie justement sur ces enormes structures internet : dissimulation/parcellisation des URL par du code exagerement complexifié, redirection pour que les blocages d’url soient inactif, include en cascade (et reentrant) bref on est loin de quelques cookies qui se promenaient dans le cache du navigateur.... et qui servaient simplement a assurer la coherence de la session.

    Heureusement, il restent quelques irreductibles qui refusent tout cela et en particulier l’approche « cloud » deignée pour supprimer tout traitement et toute information restant dans les mains (sur des disques donc) de l’internaute lui même.
    Ces sites sont hebergés sur des serveurs mutualisés a des tarifs faibles ( 5 a 10 euros par mois), facilement exploitable (outils conviviaux et simples) et sans publicité.

    L’etape qui vient, qui pour l’instant reste possible, c’est evidement l’accueil de sites chez soi. L’adsl n’est pas fait pour cela, mais avec un debit montant proche de 1M, tout un chacun peut etre present sur le Web. Le risque actuel, on le connait deja, puisqu’il est appliqué par Orange sur le port 25 volontairement bloqué, mais demain, ne va-t-il pas aussi bloquer le port 80 ?... mais un autre risque existe aussi, celui des machines qui n’ont plus la possibilité de faire tourner un logiciel serveur (genre IIS ou Apache)... qu’en sera-t-il lorsqu’il ne restera plus que des tablettes ou des smartphone sous IOS ou Android ?

    Le reve oublié.... le vrai reve d’aujourd’hui, c’est l’arrivée d’un autre protocole, ouvert, et taxé, destiné aux echanges particuliers et interdit au commerce

    Bonne apres midi.


    • HELIOS HELIOS 30 juillet 2012 15:39

      qui refusent tout cela et en particulier l’approche « cloud » ...

      La phrase est ambigue... lire : ...qui refusent tout cela dont l’approche « cloud »...


    • calimero 30 juillet 2012 16:21

      Pour Adobe vous avez totalement raison. Flash est arrivé très tôt sur le web. De manière générale les formats propriétaires sont à proscrire, seulement certains acteurs du marché détiennent un monopole de fait : Word par exemple, et imposent leur format maison.

      Pour ce qui est de l’auto-hébergement Tim Berners-Lee, le fondateur, l’entendait comme cela : chaque machine faisant à la fois client et serveur. L’architecture des réseaux modernes en a décidé autrement.

      La migration des données vers des serveurs appartenant à des entreprises privées et la multiplication des terminaux clients mobiles n’augure rien de bon. Mettre ses données sur un serveur commercial c’est un peu comme mettre son argent à la banque : il ne vous appartient plus vraiment.

      Pour ce qui est du rêve croyez moi il continue dans le code comme j’y faisais allusion à la fin : le dans le monde de l’internet libre il se développe des outils ouvrant des perspectives formidables : un web sémantique opérationnel supplantera un jour lointain le web à papa en html.


    • Login Login 30 juillet 2012 17:39

       @Calimero

        la comparaison avec les banques est à méditer. Un jour viendra où vs données DEVRONT être hébergées sur une infrastructure soumise à réglementation ........

    • Leo Le Sage 30 juillet 2012 17:45

      @Par HELIOS (xxx.xxx.xxx.150) 30 juillet 15:36
      Vous dites : « Flash : Pas de code, juste de l’executable qui ne permet pas de savoir... donc de controler »
      On peut faire de la décompilation de Flash...
      çà marche, je l’ai essayé...
      [Pas besoin d’être un informaticien pour savoir le faire]

      Vous dites : "Mettre ses données sur un serveur commercial c’est un peu comme mettre son argent à la banque : il ne vous appartient plus vraiment"
      Pas tout à fait.
      C’est plutôt comme confier les clefs de sa maison à des inconnus.
      Ou le numéro de son compte et sa signature à un parfait inconnu

       
      Cordialement

      Leo Le Sage
      (Personne respectueuse de la différence et de la pluralité des idées)


    • T.REX T.REX 30 juillet 2012 19:19

      Les formats propriétaires sont à proscrire ? oui c’est évident mais voilà, dès qu’elles ont atteint une certaine « masse critique » la plupart des entreprises du web essaient de nous rendre captif avec leurs formats et standards propriétaires auxquels elles nous ont habitués en douceur. Elles utilisent tous les moyens de séduction pour apprivoiser l’animal sauvage qu’est l’Internaute et puis paf, elles referment la cage. Le Loup est captif, sa liberté « conditionnelle ». S’il ne se méfie pas, il deviendra chien docile malgré lui !  


    • Croa Croa 30 juillet 2012 23:10

      « Mettre ses données sur un serveur commercial c’est un peu comme mettre son argent à la banque : il ne vous appartient plus vraiment" »

      Faut être sacrément négligeant pour mettre ses données sur un serveur sans avoir un double à la maison !

      (Rien à voir avec l’argent puisque celui qui est banque n’est pas à la maison et vice-versa.)


  • louviellas louviellas 30 juillet 2012 15:56

    Ce n’est pas la peine que vous raconte des anecdotes sur Internet 1.0 et sur son évolution alors qu’il y a un autre vieux con (c’est ainsi qu’il se définit) qui le fait mieux que moi.


  • Leo Le Sage 30 juillet 2012 17:46

    @AUTEUR/calimero
    Vous dites :
    « Supporté par une effroyable puissance de feu marketing il [internet explorer] gagne de plus en plus de terrain face à Netscape »
    Pas du tout, il est présent dans 90% des systèmes d’exploitation...
    Le commun des mortels ne va pas aller chercher midi à 14H non plus...

    Vous dites : « l’intrusif est la règle, il faut se protéger. »
    Pour le moment... Qui sait demain ce sera pire ?

    Vous dites : « surveillance et censure sont techniquement possibles »

    Les chinois ont fait des essais très concluant chez eux.

    Vous dites : "Or cela n’est possible uniquement qu’en utilisant les outils fournis par Facebook, alors qu’il existe des formats standards, universels, élaborés et reconnus par le W3C, l’organisme mondial de normalisation. Métaphoriquement je ne peux accéder à des données Facebook que si je parle le Facebook, et non par un langage universel"
    Le XML ne pose pas de problèmes en soi...
    Il ne faut pas non plus que n’importe qui accède à NOS données...
    Non ?

    Firefox ?
    Si une personne veut un maximum de sécurité il devra plus se tourner vers Google Chrome qui techniquement est nettement plus abouti que Firefox en matière de sécurité !
    Il devra aussi utiliser Linux comme système d’exploitation, ce qui est désormais à la portée de tous.
    Le plus simple pour le commun des mortels c’est Linux Mint que j’utilise depuis 2008...
    [Il a l’avantage d’être un LiveCD, donc n’a pas besoin d’être installé]

    NoScript n’est pas à la portée de tout le monde non plus, mais n’est pas suffisant.
    Il faut un bloqueur de pages flash [FlashBlock où il faut cocher la case Silverlight as well].


    Mon avis
    Vous croyez à OWL.
    Ben, comme l’avenir est au web semantique, je ne vois pas pourquoi OWL ne réussirait pas en partie.
    Je crois aussi en Google, qui est à la pointe : ils utilisent Python paraît-il.
    FaceBook n’a pas d’avenir à mes yeux, mais Google très certainement...
    [Je me méfie toujours d’un site qui est aussi controversé quant à son passé et à sa politique, sa charte...]

     
    Cordialement

    Leo Le Sage
    (Personne respectueuse de la différence et de la pluralité des idées)


    • calimero 30 juillet 2012 18:43

      Vous avez confiance en Google ? Pas moi.

      Vous croyez que Chrome c’est super safe ? Vous êtes une victime.


    • Leo Le Sage 30 juillet 2012 18:54

      @AUTEUR/Par calimero (xxx.xxx.xxx.117) 30 juillet 18:43
      Vous dites : « Vous croyez que Chrome c’est super safe ? Vous êtes une victime. »
      Ca dépend du niveau de la discussion.
      Je n’ai pas plus confiance en Google qu’à mon voisin...

      Mais ne confondez pas confiance en la technique et confiance au marketing.
      Je suis insensible au marketing, par contre pour la tehnique je suis tout ouïe.

      Sur le plan strictement technique, Google Chrome est NETTEMENT plus secure en terme de sécurité que ce soit au surf ou au niveau du soft.
      [difficile à attaquer quoi]
      J’ai lu un article, certes en diagonal, qui est correctement documenté dessus.
      Le test a été fait sur un Linux Mint ...
      Comme par hasard, je crois en Linux Mint...

      Si cela peut vous rassurer je ne fais pas partie de ces agoravoxiens qui défendent l’indéfendable.
      J’aime Firefox, mais techniquement il est déjà dépassé par Google Chrome.
      Il suffit de regarder comment les deux applis démarrent par exemple...
      La comparaison n’est même plus d’actualité à mes yeux...
      [Peut être Firefox 17 fera mieux ...]

       
      Cordialement

      Leo Le Sage
      (Personne respectueuse de la différence et de la pluralité des idées)


    • Croa Croa 30 juillet 2012 23:19

      « Google Chrome est NETTEMENT plus secure »
       smiley smiley smiley smiley smiley smiley smiley smiley smiley smiley smiley smiley

      Plus dur à attaquer peut-être... t’es juste sous la coupe de Google et des ses clients.

      Et les trucs avec des fonctions en ligne c’est douteux, forcément !


    • Leo Le Sage 31 juillet 2012 00:03

      @Par Croa (xxx.xxx.xxx.49) 30 juillet 23:19
      Vous dites : « Et les trucs avec des fonctions en ligne c’est douteux, forcément ! »
      Je ne dis pas le contraire je parle de la qualité technique du navigateur, pas du reste.
      Les versions de google chrome modifiées sont de bonne facture :
      Pas de problème de sécurité.

      Mon propos est sur le plan technique : comme je l’ai bien dit à l’auteur.
      Un logiciel qui s’imbrique avec le noyau Linux est techniquement supérieur à mes yeux, ce qui n’est pas le cas de Firefox.

      Je n’ai absolument pas confiance à Google.
      Mais entre Google et Facebook, je préfère de très loin Google.
      (Je refuse d’acheter du Google ou du FaceMachin...)

       

      Cordialement


      Leo Le Sage

      (Personne respectueuse de la différence et de la pluralité des idées)


  • herbe herbe 30 juillet 2012 18:59

    • calimero 30 juillet 2012 19:15

      Le porn a toujours été un moteur pour inciter les gens à s’équiper en technologie : magnétoscopes, dvd, connexion internet. J’ajoute que les sites de porn ont souvent été très inventifs techniquement, particulièrement pour le marketing online.


    • T.REX T.REX 30 juillet 2012 19:23

      Exact, il n’y a pas plus intrusif et agressif qu’un site Porno !
      Nos fantasmes nous collent aux basques sur le Web !
      Dangereuse séduction !


    • wesson wesson 31 juillet 2012 00:27

      Bonsoir Soul,


      je pense que vous sous estimez largement le poids du porno dans Internet. Je pense que ça frôle pas loin de la moitié des transferts de données.

      Un réseau ne se fait pas sans le cul ou sans le jeu non plus d’ailleurs (lorsque je dit le jeu, c’est les casinos & autres pokers en ligne). 

      Et concernant le porno, ce qui a sauvé pendant longtemps le HD-DVD, c’est justement que les productions pornos se trouvaient uniquement sous ce format. Dès lors que le consortium Blu-Ray ont arrêté de faire les prudasse de service, ça a mis le dernier clou sur le cerceuil du HD-DVD.

      C’est pour ça que à mon avis le cloud est une couillonnade : pas assez de cul là dedans pour que ça fonctionne.

  • titi titi 31 juillet 2012 00:01

    @L’auteur

    Votre historique sur la prise de marché d’internet explorer n’est pas tout à fait juste.

    1. Netscape n’était pas gratuit. Internet Explorer si.

    2. Dans sa dernière version Netscape était un veau.

    Ca a quand même son importance...


    • wesson wesson 31 juillet 2012 00:30

      bonsoir titi,


      Internet explorer n’était pas gratuit non plus, mais on ne le voyait pas (inclus dans le prix de Windows).

      C’est d’ailleurs la chronique des meilleures réussites marketting : faire oublier à l’utilisateur qu’il effectue un achat.

    • calimero 31 juillet 2012 06:17

      D’accord sur le fait que la qualité de Netscape s’est nettement dégradée au delà de l’excellente version 3.0 qui avait tout le marché. Netscape faisait ses ronds sur des solutions serveurs qu’ils vendaient aux entreprises : c’est là que Microsoft les ont réduits en poussière, plus bien sûr l’intégration à Windows de Explorer : ce sont les 2 raisons principales.


    • titi titi 31 juillet 2012 09:30

      « Internet explorer n’était pas gratuit non plus, mais on ne le voyait pas (inclus dans le prix de Windows). »

      Rien n’est jamais gratuit...


  • Never Give Up Never Give Up 31 juillet 2012 00:51

    « C’était un espace de liberté totale » en parlant d’un réseau dont l’ancetre (Arpanet) a été financé par l’armée américaine (Darpa), me parait un peu éxagéré...




    • calimero 31 juillet 2012 06:25

      Le protocole IP a été développé par l’armée étasunienne dans le but de disposer d’un système de routage de données pouvant fonctionner malgré la destruction de sites stratégiques.

      Les couches supérieures http l’ont été par Tim Berners Lee, chercheur, dans un tout autre but.

      Ok le serveur DNS racine est aux Etats-Unis mais c’est un autre problème.


  • Ruut Ruut 31 juillet 2012 05:59

    Comme le Tel portable, internet est un excellent moyen de suivre les citoyen H24 7J/7, et de savoir qui fait quoi avec qui.


  • kéké02360 31 juillet 2012 09:08

    Presse écrite un nouveau bimestriel << antiproductiviste pour une société décente >> en Belgique ( à voir )


    c’est ici , passes à ton voisin smiley

    http://www.kairospresse.be/


  • xmen-classe4 xmen-classe4 2 août 2012 11:41

    le web 2.0 c’est le DHTML, ce sont les nouveau navigateurs web, et leur utilisation de javascript.

    c’est les sites ou l’on peut déplacer des fenêtre dans le navigateur, la barre du haut de l’espace d’écriture de ce forum qui permet de mettre en forme le texte.

    web 2.0, c’est surtout de nouveaux outils disponible lors de la création de sites web.

    les crawlers 
    ou les autre services logiciel sont surtout des alternatives au modeles classiques d’utilisation d’internet




  • robin 5 août 2012 20:10

    Le préservatif qui imite une pyramide illuminati c’est pour rigoler ou c’est un hasard ?


  • Georges Georges 5 août 2012 21:44

    très bon article, merci.

    il est intéressant de mentionner que le web tel qu’on le connaît, repose
    sur essentiellement sur un protocole (applicatif ; HTTP). ce n ’est cependant
    que la partie émergée de l’iceberg : d’autres protocoles
    existent pour mettre en communication deux utilisateurs, comme gopher.

    cela permet la création de réseaux atlernatifs au monde du web, bien
    qu’utilisant la même architecture physique, et tout comme à la surface,
    s’agglomèrent des utilisateurs autour de sites web, des communautés se
    créent autour de ces protocoles et des services qu’ils fournissent.

    certains d’entre eux (9P) permettent de réaliser des choses amusantes,
    de façon complétement transparente pour l’utilisateur : utiliser un lecteur
    audio situé sur une machine, pour lire un fichier situé sur une deuxième
    machine, et faire sortir le son par une troisième machine. l’utilisateur
    accède à un ordinateur virtuel, réparti sur plusieurs machines physiques.

    à terme, ce genre de communication peut s’avérer utile, par exemple,
    jouer à un jeu sur un « smartphone », en réalisant les calculs (affichage, etc.)
    sur une machine distante. donc utiliser des outils portables modèstes,
    uniquement chargés de demander à des machines communes et puissantes
    d’effectuer le calcul.
    les coûts de déploiement sont réduits, l’administration est centralisée,
    donc simplifiée (les machines à administrer seront principalement les
    serveurs de calculs), etc.

    le « problème », c’est que les données peuvent être stockées sur les
    serveurs de fessebouquetin, les calculs effectués chez grosgueule
    et le résultat envoyé à l’utilisateur sur un terminal loué, utilisant le réseau
    d’orange-seed ou d’apple-worm.


Réagir