jeudi 29 janvier 2009 - par David Fayon

10 réalités du web 2.0

Consécutivement aux « 10 mythes du Web 2.0 » présentés par François Guillot sur Agoravox, je réponds en prolongement par les « 10 réalités du Web 2.0 ». Depuis l’introduction du terme Web 2.0 par Tim O’Reilly lors d’une conférence en octobre 2004, nous avons suffisamment de recul pour dégager quelques constantes même si certains acteurs politiques de premier plan n’ont pas encore perçu les enjeux que le Web 2.0 emporte quant à l’évolution de notre société et des comportements des citoyens internautes.

1. La googelisation des esprits est en marche
Avant de rencontrer quelqu’un (entretien professionnel par exemple), on a le réflexe de consulter plus avant qui il est via Google (ou un autre moteur de recherche). Ceci permet de connaître davantage la personne (par exemple ses hobbys) et être plus à l’aise dans la discussion. La tâche est plus délicate avec l’existence d’homonymes qu’il convient de dédoublonner avec des recoupements. Le site 123people peut venir en complément de Google en ayant une approche globalisatrice. Par la pratique, l’internaute adopte une intelligence dans la recherche d’information.

2. Sur Wikipédia le dernier qui a parlé a raison
Ceci est explicable par le caractère même du wiki et des modifications que tout internaute peut apporter. Toutefois, les erreurs décelées par la communauté sont vite corrigées. Néanmoins, pendant l’intervalle de temps où l’erreur n’a pas été décelée et rectifiée, les internautes qui consultent la page considérée ne bénéficient pas d’une qualité irréprochable et peuvent à leur tour répercuter l’erreur (par exemple travaux réalisés par un étudiant qui ne recouperait pas les fiches Wikipédia avec d’autres sources). C’est aussi ce qu’estime l’écrivain, journaliste et blogueur Pierre Assouline.
3. Le vrai classement de la notoriété d’un blog est délicat
Le raisonnement peut s’effectuer à plusieurs niveaux : nombre de pages vues par les internautes, nombre de liens entrants, positionnement dans les moteurs de recherche pour des mots clés précis, quantité de commentaires déposés (globale et moyenne par article), nombre d’abonnés aux nouvelles (via Feedburner par exemple – mais tous les blogs n’utilisent pas cet outil).
Wikio donne un classement des blogs. Technorati en propose un autre. Alexa donne des informations relatives au trafic d’un site/blog. Le classement idéal devrait mixer de façon équitable l’ensemble de ces aspects. Et aucun outil ne constitue une véritable panacée.
4. La loi du 1 % des médias participatifs se vérifie globalement
Dans tout média participatif, 1 % des utilisateurs créent du contenu, 10 % interagissent, 89 % ne font qu’observer et 100 % en bénéficient.
Avec les internautes qui sont à la fois consommauteur et consommacteur, cette loi empirique est vérifiée sur YouTube, Wikipédia ou Yahoo ! Groups avec des nuances toutefois selon la nature de l’application Web 2.0 considérée. À noter que sur les skyblogs, le pourcentage de commentaires déposés est élevé. Les adolescents principalement écrivent des commentaires courts qui sont plus des discussions ou des interpellations de l’auteur du billet.
5. N’est pas blogueur influent qui veut !
Le processus d’accès à la notoriété est étalé dans le temps après la création d’un blog qu’il convient d’alimenter et de faire vivre. Par ailleurs le marketing viral demande du temps, la connaissance de certaines techniques et de la chance.
Derrière certains blogs ou certains auteurs (y compris sur Agoravox) se cachent de véritables journalistes et acteurs qui possèdent au départ un capital réseau et une faculté de communiquer en fédérant autour d’eux une partie de la blogosphère.
On constate toutefois un phénomène qui m’a été confirmé par Eric Dupin (blogueur, responsable de Presse Citron). Des blogueurs de plus en plus jeunes se positionnent bien dans la blogosphère avec des articles intéressants. Ils ont du temps et peuvent dénicher des informations, les disséquer, les commenter. Par exemple le blog WhyTech est réalisé par des adolescents d’une quinzaine d’années à peine.
Enfin selon Olivier Le Deuff, doctorant à l’Université de Rennes 2, avec le Web les principes d’autorité et de pertinence laissent place à ceux de popularité et d’influence. Le plus malin, qui maîtrisera les principes des moteurs de recherche, qui saura faire du buzz intelligent sera plus facilement populaire et influent. Mais ceci demande du temps et un certain apprentissage des outils.
6. Les internautes possèdent un pouvoir de prescription fort et le buzz est parfois imprévisible
Les études sont formelles : dans son acte d’achat, un internaute sur deux est influencé par les recommandations faites sur Internet. Par exemple les recommandations postées sur les sites TripAdvisor ou Amazon.
Le projet EDVIGE a du être retiré tellement le buzz négatif à son sujet était important. Frédéric Lefebvre (UMP) et Benoît Hamon (PS) ont séché face au journaliste Jean-Jacques Bourdin à la question « Qu’est-ce que le Web 2.0 ? »* et Frédéric Lefebvre a été écarté de la course au secrétariat à la prospective et à l’économie numérique.
7. La théorie de la longue traîne a de multiples domaines d’application
Cette loi empirique émise par Chris Anderson, rédacteur en chef de la revue des geeks Wired, se vérifie et pas seulement pour les achats en ligne. L’exemple phare est celui d’Amazon. Sans contrainte de stockage, l’offre peut devenir infinie et les volumes des ventes représentées par les produits de niches et rares sont au moins équivalents à ceux des best sellers. Cette loi s’applique à la vidéo où YouTube et Dailymotion n’ont pas de contrainte de grilles de programme et l’offre peut elle aussi devenir quasi infinie sur Internet.
Nous avons application de cette loi à divers niveaux :
- Amazon vs librairies traditionnelles,
- YouTube vs France Télévisions, TF1 et M6,
- Fnac vs musique en ligne (iTunes Music Store), etc.
La théorie de la longue traîne se constate aussi pour les requêtes faites via les moteurs de recherche : le nombre de groupes de mots clés isolés draine un nombre de visiteurs au moins égal aux premiers mots recherchés.
8. Les réseaux sociaux ont une utilité professionnelle
Ils permettent aux cadres d’être chassés, d’avoir leur CV visible alors que c’était jadis l’apanage du top management. Ce processus s’inscrit néanmoins dans la durée. Avec le partenariat conclu entre l’APEC et LinkedIn, sur le site de l’APEC il est possible de connaître quelles sont les personnes d’une société donnée, recueillir des informations facilement sur la société pour des opérations de recherche d’emploi ou de partenariat client/fournisseur, etc.
 
Le phénomène du petit monde (6 degrés de séparation entre 2 personnes prises au hasard) se vérifie. Parfois sur LinkedIn, Viadeo ou Facebook, on peut constater qu’un de nos contacts entre en relation avec une personne que nous connaissons.
9. La loi de Metcalfe selon laquelle la valeur d’un réseau croît selon le carré du nombre de ses membres serait à relativiser
Dans un réseau de N personnes se connaissant toutes, lorsque N est grand, le nombre de relations est de N(N-1)/2, soit une variation selon le carré du nombre de personnes. Selon plusieurs recherches, la capacité sociale d’un individu n’évoluerait pas comme le carré du nombre de personnes N mais de façon plus lente, plutôt en N log (N). Et dans les réseaux sociaux qui constituent une des applications de cette loi, la qualité est à privilégier et l’affichage du nombre n’est pas le paramètre capital.

10. Derrière la gratuité sur Internet se cachent des gisements de services payants
Ceci se constate pour certains réseaux sociaux* où, à côté d’un service gratuit, est proposé un service à fonctionnalités enrichies dit Premium (par exemple LinkedIn et Viadeo) et pour de nombreux logiciels à télécharger. Le produit gratuit génère un marché énorme et souvent il suffit d’1 % d’utilisateurs qui payent une version enrichie pour permettre la gratuité pour les 99 % autres du fait d’un coût marginal dans l’économie de l’information qui tend vers zéro.
* Facebook qui est gratuit est un cas spécifique. Le modèle économique de cet acteur phare n’est pas stable et sa pérennité pourrait être mise en cause.

Pour aller plus loin, voir le livre « Web 2.0 et au-delà » et un blog autour du Web 2.0. 
 


25 réactions


  • L'enfoiré L’enfoiré 29 janvier 2009 12:26

     @L’auteur,

     Article très bien fait. Je me suis permis de l’accrocher en lien à mon eBook sur l’histoire récente de l’informatique "La Grande Gaufre (13)". 
     
     smiley


  • Piotrek Piotrek 29 janvier 2009 13:10

    Vos remarques sont correctes mais pas fondamentalement Web 2.0, A mon avis la seule verite dont Web 2.0 dispose c’est web en tant que plateforme
    N’est ce pas le seul concept qui est posterieur au terme "Web 2.0" lui meme ?

    Le gros probleme avec le Web 2.0, c’est qu’il s’accapare une multitude d’evolutions naturelles du web qui sont bien anterieures.

    Pour le constater je vous invite a en etudier scrupuleusement la definition francaise proposee par Wikipedia
    http://fr.wikipedia.org/wiki/Web_2.0
    "...Web 2.0 a été proposée pour désigner ce qui est perçu comme un renouveau du World Wide Web"
    "on qualifie de Web 2.0 les interfaces permettant aux internautes d’interagir à la fois avec le contenu des pages mais aussi entre eux, faisant du Web 2.0 le web communautaire et interactif"
    et le reste...

    Apparition du concept "Web 2.0" : 2003 par Dale Dougherty

    Cependant...

    Creation d’IRC (le communautaire) : Aout 1988
    Alexa : 1996
    Apparition du concept "Blog" : Decembre 1997
    Premier site "Blog" : Open Diary en Octobre 1998
    La "syndication" ? RSS : Juillet 1999
    Creation de Google : 2000 (en gros)
    Wikipedia : 2001
    Societe.com (intelligence economique en france) 2001

    La quasi-totalite de ce que constitue le concept Web 2.0 est anterieur au terme lui meme

    Et pour terminer : non, ca ne me scandalise pas plus que ca qu’un homme politique lambda ne sache pas quoi repondre face a une question "Web 2.0" , ce qui me ferrait marrer par contre c’est qu’il dise (je cite Wikipedia sur la definition du Web 2.0 encore) "Le site ne doit pas être un « jardin secret », c’est-à-dire qu’il doit être aisé de faire rentrer ou sortir des informations du système"


    • L'enfoiré L’enfoiré 29 janvier 2009 14:12

       Piotrek,

       Je dirais que vous avez raison, mais l’un est l’enfant de l’autre.
       Le Web 3.0 arrive. Il sera même plus suggestif avec de l’intelligence artificielle en plus.
       On proposera les questions en fonction de vos propres réponses dans un arbre logique et immense dans sa conception en fonction de la complexité des questions.
       La pub, étant assez en rade pour le moment, en aura d’ailleurs bien besoin dans ce push plus prospectif.
       Les budgets dans ce domaine vont exploser. La psychologie numérisée. C’est cela le futur du Web 3.0.


    • L'enfoiré L’enfoiré 29 janvier 2009 16:00

       Salut Shawford,

      "cet aspect suggestif ne va pas arriver"

      >>> Aille. Je crois qu’il n’y aura pas vraiment le choix. Pas encore reçu par la poste des listes à remplir pour aiguiller les choix du consommateur ? Tout le monde y gagne. On ne reçoit plus que la pub en fonction de ce que l’on veut recevoir. Pas de papier inutile. Il coûte trop cher le papier. Du virtel, seul. En plus, cette IA là, c’est vraiment pas trop difficile à faire. Une suite de tables de décisions. Ca ne prend presque pas de place en mémoire. Et le programme est enfantin pour suivre la chaîne et parfaitement adapté à la suite Web par tranches d’informations.

      "Appauvrir le réseau", absolument. La bande passante n’est pas extensible à l’infini.
      Loi de Metcalfe a un petit problème même si elle est juste, ce sont les IP adresses qui ont subit une inflation non prévue à la base. Cela va bientôt exploser. Sciences et vie en parlait dans un article récent. Facebook fonctionnera bien tant qu’il sera gratuit. Mais comme je disais la pub est en perte de vitesse. Donc, faudra passer à la caisse bientôt. Un article récent sur cette antenne en parlait. Je réunis les avancées dans mon eBook.

      Tout est personnalisé et personnalisable. L’étape suivante, ce sera la puce. Les barre codes, c’est ringard. 
      Moi qui ai connu 40 ans de progrès (enfin, cela dépend en quoi...) en informatique, je peux te dire que nous ne sommes du côté d’Internet qu’à l’orée du bois. L’IA n’y est entré que par la petite porte. Mais il faudra seulement faire sauter certains verroux. Faudra demander à Tall. Je ne sais même pas s’il peut en parler. smiley


    • L'enfoiré L’enfoiré 29 janvier 2009 18:00

      Shawford,

      « a pour corolaire justement l’infinité du monde qui l’accompagne. »

      >>> Waw, quelle phrase merveilleuse.

      Non je n’ai pas passer au bleu des 2 dernières phrases.

       

      « L’aspect psychologique et culturel qui l’accompagne »

      >>> Détrompe-toi. Je te conseille de lire ma « Grande Gaufre ». 15 tableaux, bien complet sur une histoire insolite et insolente des dernières années de l’informatique. Aucune complaisance et pas une histoire comme tu peux en trouver sur internet.

      La casse est bien là. Absolument et cela va empirer. Y a pas photo la-dessus.

      Les nouvelles générations et j’ai eu l’occasion de voir de très près, les différences auront encore une fois à accuser le coup. Elles le font de gré ou de force. Va lire mon « Une expérience rafraichissante »

      Je ne suis pas pas du tout dupe. Bien au contraire. Je ne serais pas ici sur cette antenne si tout était « cool ».

      Le cynisme de Tall est surfait et volontaire. Je le connais un peu pour avoir beaucoup communiqué sur le sujet.

       smiley


  • Sébastien Sébastien 29 janvier 2009 14:24

    Article interessant mais je ne comprends pas bien le rapport avec le Web 2.0. Vos remarques sont plutot d’ordre general.


  • Plum’ 29 janvier 2009 17:11

    Y’en a ras le bol de l’esbroufe « web 2.0 ». Ecoutez ce dialogue surréaliste issu des messages précédents (mes commentaires entre parenthèses) :

    - Vos remarques sont correctes mais pas fondamentalement Web 2.0 [donc 90% de l’article est du blabla pour causer de la Toile en général..) (et les 10% restants ne sont-ils pas bidon 2.0 aussi ?)

    - Je dirais que vous avez raison [...) Le Web 3.0 arrive (oui, le web 2.0 ce n’est rien que le Web du début, mais - tenez-vous bien - on va bientôt vous intoxiquer avec le web 3.0...)


  • Jean Marc Levy Dreyfus 29 janvier 2009 17:49

    David,

    Une fois de plus, je te félicite pour ton analyse fine de la sociologie des offres que de ce nous appelons le Web 2.0 - par simplification et conformisme avec le hype californien .

    Pour ma part, je crois que nous arrivons à la fin du cycle Web 2.0

    Car force est de constater que pour l’essentiel, les offreurs de solutions sont condamnés à offrir des services gratuits -pour se créer de l’audience qu’ils vont pouvoir vendre aux annonceurs.

    Or le problème est que les annonceurs ne sont prêts à payer que pour prospecter des consommateurs ! et plutôt des consommateurs "riches"
    C’est à dire des gens qui vivent dans des sociétés où les marques sont proposées dans des réseaux de distributions organisés et régulés.
    Et surtout des consommateurs qui détiennent des comptes bancaires, des cartes de paiement et la possibilité de faire appel facilement au crédit.
    Or justement la crise est en train de bousculer ce modèle.
    J’ai bien peur que nous assistions à une paupérisation de la consommation, ce qui risque d’avoir comme effet collatéral de couper les ressources publicitaires du Web 2.0 .

    Certes on pourra objecter que selon les chiffres récents, Google a réussi à progresser malgré - ou à cause de la crise - mais :

    1 - La page d’accueil de Google, conçue pour que le consommateur lambda n’ait aucun effort à produire pour être ciblé par la pub est indécrotablement la même depuis 8 ans. Cette page d’accueil n’est pas particulièrement un exemple de solution à valeur Web 2.0
     2 - Google a tué les chances du Web 2.0 en rachetant à tour de bras et proposant gratuitement des services que des offreurs concurrents auraient pu espérer vendre au consommateur. 

    Dès lors se pose la question de la prochaine génération de services à valeur ajoutée délivrables par le Web.
    Je crois que ces services devront être utilisables de manière quotidienne par tous, même par des analphanets et même là où l’Internet n’est pas livré dans une offre triple play avec la télé et le téléphone gratuit.
    Et ceci est d’autant plus vrai dans un monde où plus de 4 milliards de numéros de téléphones ont été mis en service et où 400 Mds de $ sont transférés entre personnes par des maisons de transfert comme Western Union alors que le volume de tout le e-commerce ne represente pas 15% de ces sommes.

    Il s’agit donc de repenser la manière d’utiliser le réseau Internet pour qu’à coté de son usage comme un Medium de publication et de collaboration pour les "privilégiés" il devienne le réseau de communication et d’échanges interpersonnels au quotidien pour tous.

    Cela passe nécessairement par :

    1 une nouvelle logique du système de nommage et d’adressage Internet, basée sur l’attribution systématique des adresses aux individus plutot que par la revendication des adresses par les seuls utilisateurs motivés et chevronnés.
    2 une nouvelle approche de la fourniture de services de transmission des informations entre personnes. Il s’agit de garantir et tracer les échanges de bout en bout et surtout de s’éxonèrer totalement de la dépendance des machines et des logiciels installés.
    Les solutions de réseau social Web 2.0 démontrent que c’est possible .

    Sur mon blog, je développe ce sujet et présente des applications construites sur cette nouvelle logique dont POSTAPP : le premier opérateur de services postaux par Internet est un des exemples emblématiques.
    On gagnera notamment à lire mon post : L’avenir de La Poste : devenir la poste de l’avenir. sur www.gotapp.fr 





  • Jean Marc Levy Dreyfus 29 janvier 2009 18:13

    A propos de la durabilité de la page d’accueil de Google je vous invite à lire l’excellente analyse du Pr Jean Veronis  sur la longévité de Google  et mon commentaire Y a-t-il un Web après Google ?


  • PAUZIN 29 janvier 2009 18:51

    AU SUJET DE L’AMONCELLEMENT DES DONNÉES SCIENTIFIQUES..

    Ce ne sont pas toujours ls données qui manquent,mais plutôt le génie.." la Science aura besoin de nouveaux GALILÉÉ " Stephen EMMOTT directeur des sciences informatiques chez MICROSOFT,neuroscientifique,Professeur à l’université d’Oxford ( lire dans Sciences et Avenir de ce mois,pages 44 et svtes..)

    LA PHOTOSYNTHÈSE

    Une minuscule herbe verte - nous donne une leçon sur le moyen le plus simple de capturer l’énergie solaire..c’est la photosynthèse..Silmple  ?Or nous ne savons toujours pas vraiment comment ça fonctionne,comment fait cette minuscule herbe,comment elle parvient à réaliser ce qui reste un tour de force pour les scientifiques qui n’ont pas vraiment compri comment parvenir à réaliser cette opération...

     Elle semble,a priori,d’une banalité déconcertante..Il faudra encore beaucoup de travail...Beaucoup de données ?? -..Pas évidemment,mais un génie ferait l’affaire.." Une nouvelle race de scientifiques".. précise EMMOT.

    IL FAUDRA DES ESPRITS REMARQUABLES..

    Les ordinateurs ne manquent pas,mais il faudra des esprits capables de nous élaborer des modèles solides et prédictifs.. - Tel GALILÉE en son temps..et Stephen EMMOTT de rappeler que la force de ce génie ne résidait pas dans l’accumulation des connaissances mais dans la vision des phénomènes que d’autres avaient vu avant lui,mais que ce génie INTERPRÉTA AUTREMENT.





  • Emmanuelle Lebhar Emmanuelle Lebhar 29 janvier 2009 19:01

    Bonjour, en tant que chercheur spécialiste des réseaux sociaux et de l’effet petit monde, je me permet d’ajouter mon grain de sel sur les "vérités" 9 et 10 :


    - l’effet petit monde est observé et avéré sur l’ensemble des réseaux sociaux.La première expérience date des années 60. Ce n’est donc pas étonnant que des réseaux élecroniques privilégiant des communautés d’intérêts aient aussi cette propriété.


    - Il n’est pas nécessaire que N soit grand pour que le nombre de relations lorsque tout le monde se connaît évolue comme N au carré, c’est un très simple cacul : il suffit de compter tous les traits que l’on peut mettre entre N points. La "loi de Metclafe" n’a acune valeur scientifique et d’ailleurs ne dit pas grand chose (quelle est la valeur d’un réseau ?). D’autre part, elle remonte à une époque où un réseau était consitué d’une centaines d’ordinateurs, où l’on décidait globalement où placer les connexions, ce qui n’a rien à voir avec les réseaux sociaux électroniques d’aujourd’hui.


    - Nous sommes des milliards sur cette planète, la "capacité sociale" d’un individu, s’il s’agit de son nombre de relations, ne peut donc pas varier comme N, sinon nous aurions chacun plusieurs milliards d’amis, collègues, cousins, ce qui n’est pas très crédible.


    - Les phénomènes de petit monde et de diffusion de l’information dans les réseaux sociaux sont encore mal compris mais nous savons que les relations entre individus ne sont pas distribuées au hasard et que c’est leur répartition à travers la géographie et les communautés qui permet de pouvoir naviguer très vite d’une personne à l’autre même si chacun ne connaît qu’une toute petite partie du réseau (plutôt de l’ordre de log N).

    Emmanuelle.


    • L'enfoiré L’enfoiré 29 janvier 2009 19:24

      Bonsoir Emanuelle,

      Facebook, je m’y suis inscrit depuis très peu de temps. Pas pour y jouer à la recherche des amis, mais pour voir comment cela marchait.

      Que vois-je ? Analyse combinatoire oblige mais avec des trous.

      Une personne A à 5 amis. Je suis B. Comme nous avons travaillé ensemble, j’en prends 3 et je laisse les 2 derniers « vilains » où ils sont.

      Mais B (moi), j’ai d’autres copains d’un autre milieu que je cherche. J’en trouve 3 : C, D, E.

      C a F, G.

      D a H, I.

      6 personnes déjà. 11 connexions.

      Donc, la loi de Metclafe ne suit pas. Elle n’est là que pour montrer des maximums.

      La géographie, les affinités restent humaines et jamais mathématiquement calculables que par des potentiels extrêmes.

      Maintenant, que cherche Facebook ?

      Que les connexions augmentent artificiellement.

        	
      • Vous êtes sûr que vous ne 	connaissez pas ? 

        	

        	

      La pub est payée aux nombres de connexions. Alors, on aide la mémoire de ses utilisateurs.

      Sur cette antenne, même topo. Le buz est recommandé, pas nécessairement le commentaire qui va faire planer, mais le commentaire qui va en entrainer un autre. Pas nécessairement être trop long.

      On ne compte pas les mots, mais le nombre d’interventions. smiley

       


  • L'enfoiré L’enfoiré 29 janvier 2009 19:07

     Pauzin,

     Je vous suis à 100%. smiley


  • Paul .ca Paul .ca 29 janvier 2009 23:39

    Intéressant débat initié par un article qui n’est pas assez rigoureux et precis. Est ce l’effet google et Agoravox ?
    Je vous rassure je suis également atteint par ce virus. Zut ! :D

    Rapidement, on ne vérifie pas une "réalité" immaginaire. David, soit plus prudent dans tes affirmations quitte à faire un flop de lecture. Les stars et tops models sont aussi populaires. ("La longue traine" par exemple).

    L’effet google va plus loin que notre reflexe recherche. L’effet google se traduit par ce qu’on lit sur le web. On est dirigé vers ce qui est populaire et leur PR est orienté dans ce sens. J’ai fait un peu de réferencement il y a 10 ans mais j’ai laissé tombé et je constate le système actuel. il pousse les blogueurs a publier quotidiennement etc ... Un auteur comme T.Crouzet a l’esprit si googlisé qu’il ne semble plus en être conscient. il raisonne google presque 24h/24. Misère intellectuelle.

    On peut comprendre que certains intellectuels crient Alerte ! mais on ne peut pas satisfaire tout le monde avec un seul outil. Nous avons besoin de moteurs de recherche qui ont des systèmes de notation qui s’adaptent a chaque catégorie de lecteur. Pour le grand public, l’amateur éclairé ou le spécialiste. Il faudra sans doute revenir a des catalogues spécialisés plutot que chercher a travers les blogs. Google va peut être disparaitre et il faudra le remplacer mais aussi proposer des alternatives pour les plus exigents d’entre nous en matiere de qualité de contenu.

    Sinon je vous conseille de réflechir sans trop de casier excessif : web 2, 3, 45. Le marketing informatique pollue notre pensée avec cet amas de sigles et on remarque les dégats sur la qualité de réflexion d’une multitude de gens qui se perdent avec. Apprenez à jonglez avec moins d’objet simultanément pour éviter de les voir s’écraser au sol comme un jongleur ... amateur ou fatigué.Moins d’éléments mais une meilleur réflexion plus cohérente et solide.

    Voila mon objectit et chaque matin à mon petit déjeuner je mange de l’intello. Je les digeres bien, merci. smiley


    • L'enfoiré L’enfoiré 30 janvier 2009 12:10

      Bonjour Paul,

      L’article pas assez rigoureux et précis ?

      >>> Je connais les problèmes d’aller plus loin et de se perdre dans la longueur. Donc...

      Google est une armada d’outils qui se complètent dans le domaine de l’architecture informatique qui donnent aux utilisateurs des services qui devraient les payer si pas uniquement le logiciel « propriétaire » mais tout le moins toujours à installer sur son PC. Gratuit du moins jusqu’à aujourd’hui, et qu’il faut « alimenter » par une autre voie, la pub.

      Les notebook pousse la voie, sans le faire réellement, de l’ordi qui n’aurait plus qu’une force de connexion au réseau. Le calcul et les introductions sont fournis de l’autre côté de la connexion. Sous le clavier, il pourrait y avoir, un jour, qu’un seul processeur permettant l’accès « on line ».

      L’écran resterait la seule pièce chère. Le « Personnal » (« computer ») devenu le « téléphone intelligent » avec le dilemme de la lisibilité lors de sa réduction en taille.

      Oui, il y a pollution de la pensée avec le marketing informatique. Mais comme aujourd’hui, on veut tout gratuit et que l’homme ne vit pas encore d’eau fraiche....

      Juste pour info, que serait « une meilleur réflexion plus cohérente et solide » entre les tartines du matin ?
      Si c’était à une autre heure, je dirais, quand le vin est tiré, il faut le boire.  smiley


  • LM 30 janvier 2009 00:27

    Après bientôt 10 années passées dans le développement web, c’est bizarre mais j’ai du louper cette révolution extraordinaire que serait le web 2.0.
    J’ai vraiment l’impression de faire toujours la même chose et de ne rien proposer de véritablement novateur. Je ne me suis pas non plus aperçu que les autres proposaient grand chose de si révolutionnaire. La seule grosse différence c’est qu’aujourd’hui le media internet touche la quasi totalité de la population à part quelques heureux (sans le savoir) fracturés du numérique smiley
    Du coup chacun peut disposer de son blog et des ses pages perso sous facebook et google où il peut largement s’épancher sans coder du <HTML><TITLE ...> sous son VI préféré et publier sans FTP en ligne de commande smiley
    Madame Michu peut ainsi accéder aisément à tout et son contraire en matière d’information et ainsi se préparer une bonne indigestion mais aussi nous faire part de tous ses avis éclairés sur l’état du monde d’aujourd’hui.
    Les 7 premiers points de l’article me semblent être des évidences incontournables et auraient à mon avis pu s’appliquer à un article titré "10 réalités du web".
    Le 10ème point me semble pour sa part nettement plus incertain et me rappelle les beaux rêves des années "first tuesday" ou tout le monde se révait en pilote de startup. A l’heure ou plus grand monde n’est près à payer pour rétribuer créativité artistiques, pensez-vous vraiment qu’ils seront nombreux à vouloir se délester de quelques euros pour un service superflu ?


    • L'enfoiré L’enfoiré 30 janvier 2009 12:54

      LM bonjour,

      « Le 10ème point plus incertain »

      >>> Reprenons le « gratuité fictive ». Elle est, peut-être pas pour le particulier, mais pour l’entreprise, il faut payer les services. Même Wikipedia ferait d’après ce qu’on m’a dit, une introduction d’une page qui serait informative sur un point trop « particulier ». Son président a présenté sur toutes les pages Wiki son texte pour chercher de généreux donateurs.

      Facebook investit actuellement. Il cherche le plus de « consommateurs » pour les sommer un jour de participer financièrement.

      Oui, il y aura des « perdus de l’arche Facebook » mais c’est tellement chouette d’être présent à la vue de tous et d’avoir tellement d’amis.  smiley


  • nortydal 30 janvier 2009 01:13

    alors oui le web 2.0 caractérisé par la "socialisation du web" a grand coup de milliards de dollars de rachat de start up en tout genre etc...

    On ne compte plus les boites racheté par google, les plus celebres reste youtube, feedburner ou encore digg... les millions investient dans myspace ou en encore facebook.

    On peut y voir ce qu’on veut dans le web 2.0, mais si le critere pour la réussite est l’influence... sans conteste le vainqueur du coté occidental reste google... qui détient les clefs du nerfs de la guerre a savoir la publicité avec ces adwords ou encore doubleclick...

    Si on y rajoute la recherche et la soumission totale d’un webmaster par rapport au traffic généré on comprend que la dépendance totale est proche.

    Et le plus inquietant est que les autres acteurs majeurs capable de jouer un role dans ces deux secteurs n’arrivent a rien de concret... aucun modèle ne semble avoir une croissance exponentiel (yahoo et crosoft).

    Donc le web 2.0 aura été l’avènement de megazone de communication avec des populations d’utilisateurs qui n’ont rien a envier aux pays les plus peupler du monde. On compte déja 250 millions d’utilisateurs unique pour youtube chaque mois.

    Alors si il existe quelques vitrines qui sont plus proche de l’esprit de collaboration que de l’esprit visiteur/pub, le web 2.0 reste la période d’internet de la financiarisation des internautes par tous les moyens et tres souvent illégaux.

    Merci les fournisseurs de contenus qu’on peut piller gratuitement et qui ont permis la création de ces magmas d’informations et d’echange en tout genre qui ne sont la que pour afficher de la pub entouré de contenu... mise a part quelques rares exceptions. Wikipédia restant la plus connu.






  • Paul .ca Paul .ca 30 janvier 2009 15:24

    A L’enfoiré,

    Désolé, c’est pas moi qui est choisi ton pseudo.

    Comment faire pour mieux réflechir, plus cohérent et logique ?
    il y a un don mais aussi l’acquis qui se travaille beaucoup. il faut rester calme et serein aussi.
    Je ne suis ni logicien et ni professeur. De plus je me rend compte dans mes discussions sur le net que je suis pas un bon pédagogue et ni tres patient. Alors je ne peux conseiller qu’un livre d’initiation à la logique et lire un philosophe qui montre l’exemple d’une rigueur sur l’utilisation des mots et une rigueur du raisonnement plutôt que les effets de style et d’éloquence plus populaire. Si vous cherchez à séduire ou être populaire à tout prix, oubliez moi.

    Un ami m’a indiqué ce livre d’initiation que je n’ai pas lu : Introduction à la logique avec cette préface de Bouveresse qui semble bien correspondre à l’ouvrage que je voulais mettre en avant.

    Si vous trouvez des ouvrages en français orienté "grand public", merci de les indiquer sur mon blog.
    http://espritlogique.wordpress.com/2008/12/12/de-quelle-logique-je-parle/





  • L'enfoiré L’enfoiré 30 janvier 2009 17:00

    Salut Paul,

    Merci pour les références.

    J’ai fait pendant 40 ans un métier de la logique. Cela a été mon dada, même et je l’adapte à beaucoup de choses de la vie. Très cartésien, l’Enfoiré. Je crois qu’une « introduction » ce serait un peu "limite". 

    « cherchez à séduire »

    >>> Avec mon pseudo, choisi en toute logique, c’est pas garanti sur facture. Mais avec l’humour, je garde une approche la plus constructive, à mon avis.

    Pédagogue et patient ?

    >>> Je l’avoue, un peu. Les convictions, il faut les défendre, mais pas avoir peur de dire qu’on s’est trompé.

    Une peu de philosophie dans un article sur le Web 2.0.... amusant, Mais, pourquoi pas.  smiley


  • Paul .ca Paul .ca 30 janvier 2009 18:45

    A Guy,

    Désolé, j’avais pas regardé ton profil et ton blog qui m’a permis de trouver finalement ton prénom public.
    Ravis de rencontrer un praticien de la logique et belge avec cela (ma conjointe est d’origine belge).

    La logique est pour moi un préalable et pas une fin en soi.
    Ta derniere remarque me fait sourire. La philosophie c’est comme la politique on peut en mettre partout.
    D’ailleurs j’ai suggéré à David de s’y mettre un peu avec l’introduction de Michel Onfray avec sa contre histoire de la philosophie sur l’hédonisme. J’ai vu sur ton blog des livres d’initiation à la philosophie. A 61 ans, il faudrait peut-être envisager de passer au mode turbo.  smiley

    Cote philosophie, je me définit plus comme cartésien ou platonicien mais plutôt épicurien. J’apprecie aussi les philosophes qui utilisent l’humour. ils sont rares.


  • David Fayon David Fayon 6 février 2009 16:47

    Merci pour les commentaires. L’univers du Web 2.0 est vaste et j’ai porté l’accent sur les
    10 réalités (parmi d’autres) que l’on peut ériger en vérités.

    Une coquille s’est néanmoins glissée lorsque j’ai produit le schéma. Au lieu de "1/19/80", il convient de lire
    "1/10/89". La loi du "1% des médias participatifs" est bien "1 % des internautes créent des contenus,
    10 % interagissent et 89 % observent
    ". Et 100 % en bénéficient.


Réagir