lundi 21 janvier 2008 - par Charles Bwele

La guérilla nuageuse de Google

Plutôt qu’attaquer frontalement l’aigle royal Microsoft, le faucon pèlerin Google s’allie à l’épervier Apple et s’envole vers l’informatique nuageuse.

Cumulo-digitalus

Chez Google, Yahoo !, Microsoft, Amazon, IBM, Sun et bon nombre de start-up, on voit l’avenir de l’informatique personnelle et professionnelle dans le cloud computing, que je traduirai platement par informatique nuageuse. Au niveau de l’utilisateur, l’exécution des logiciels et l’archivage des données se feront non pas localement, mais en ligne. En plus clair, le processeur, la mémoire vive et le disque dur seront virtualisés par une puissance de calcul et d’info-traitement massivement distribuée sur des amas de serveurs distants - « les nuages » - en perpétuelle sélection aléatoire. Débarrassées des unités centrales, les terminaux fixes et portables contenteront des fonctions de réseau, d’affichage et de saisie  : écran, clavier, souris et peut-être quelques entrées USB/Firewire. La computérisation des terminaux mobiles sera boostée sans nécessairement recourir à une architecture électronique onéreuse et sophistiquée.

Cette imminente réalité sera d’autant plus facilitée par l’expansion de l’internet très haut débit par fibre optique et par l’interopérabilité croissante des standards de communication - WiFi, Wimax, 3G, 4G, LTE, HSPDA, télévision et vidéo numériques, etc.

Pour les plus rétifs à l’administration des systèmes, ce sera le pied : adieu la quincaillerie, les configurations interminables, les pertes intempestives de données suite à un virus ou à un crash machine... Tout cela sera géré en back-office par le prestataire. L’utilisateur accédera à ses photos, ses vidéos, sa musique, ses réseaux sociaux et ses divers documents à partir du mobile ou du PC, toutes ces données étant alors stockées dans de gigantesques espaces personnels virtuels.

L’informatique-produit telle que nous la pratiquons aujourd’hui fera place à une informatique-service qui suscitera certainement quelques réserves chez les geeks, les linuxiens et les générations plus âgées de cybernautes. En sera-t-il de même pour la génération Myspace/Facebook née dans les 80-90’s après le net ? De plus, le cloud computing séduit beaucoup sur les plans écologique et économique car il évitera au consommateur de devoir acheter une bécane agressive et énergivore tous les trois ans. Par contre, la terre promise du multi-stockage virtuel, des applications métiers et du travail collaboratif assécherait gravement le terreau Wintel (Windows + Intel) et soulèverait de nombreuses interrogations en matières de confidentalité et de libertés électroniques ; sujet longuement abordé dans mon article Terminal Staline auquel j’ai repris quelques lignes.

Fleurets mouchetés

Ancien ponte de Sun et de Novell, Eric Schmidt estime que 80 à 90 % de nos activités courantes sur PC migreront inéluctablement sur le web à mesure que les bandes passantes s’élargiront et que les médias convergeront. Le jeu vidéo et la création multimédia (design web, illustration 2D, PAO, animation 3D, édition audio et vidéo) font partie des 10 à 20 % d’activités qui nécessiteront encore CPU, RAM, cartes graphiques et disques durs dignes de ce nom.

Jour après jour, Google élargit et marque jalousement son triangle fertile search-ads-apps (moteur de recherche-publicité-applications), bénéficiant de surcroît du glissement prononcé des budgets publicitaires vers le web et l’internet mobile. Dans cet isocèle stratégique, Yahoo ! et Microsoft subissent durement la loi googléenne. On voit à quel point le moteur de recherche Google Search, la régie e-publicitaire Google Ads, la vidéo participative de Youtube et Google Video, la bureautique en ligne de Google Docs et la plate-forme mobile Android sont finement conçus et intégrés dans le but de se fondre en un tout cohérent dans le cloud computing. Financement publicitaire et informatique nuageuse iront donc de pair, garantissant à la firme de Mountain View une colossale et régulière trésorerie de guerre.

Mais, ne nous leurrons pas : détenant plus de 90 % du marché de la bureautique personnelle et professionnelle, Microsoft a la dent très dure et a maintes fois prouvé qu’elle sait guerroyer. N’oublions pas comment Internet Explorer a vite pulvérisé Netscape Navigator. A Redmond, on s’élance vers un cloud computing centré autour de Windows, mais, somme toute, pas très original. Lors de l’Analyst Day 2007, c’est tout juste si les huiles de Microsoft n’avaient pas emprunté les démonstrations de leurs homologues de Google ou de Sun. La grosse difficulté pour eux consiste à emprunter ces couloirs nuageux sans sacrifier les universels et ultra-profitables Windows et Office.

Pour l’instant, l’univers online de Microsoft n’affiche pas autant de perfectionnement, de cohérence et de vision que celui de Google qui s’étendra bientôt on air (cf. l’article Autour du Google Phone).

Forte de sa plate-forme mobile linuxienne Android adoptée par l’Open Handest Alliance fédérant plus de trente fabricants, opérateurs de téléphonie mobiles et firmes techno - tels que HTC, Motorola, LG, Samsung, T-Mobile, China Mobile, Telecom Italia, Intel, Nvidia et Synaptics - la firme de Mountain View participera aux enchères fédérales de la bande spectrale des 700 Mhz face aux opérateurs télécoms AT&T, Verizon et Qwest. Le but final n’est pas de concurrencer âprement ce trioligopole, mais de révolutionner le paradigme actuel de la téléphonie mobile et d’éprouver le business model nuageux d’Android aux Etats-Unis avant d’aborder l’Asie et l’Europe.

Directeur de la division entreprises de Microsoft, Jeff Raikes juge les manoeuvres googléennes « aussi déplacées qu’arrogantes [...], visant surtout à nous nuire plutôt que comprendre et combler les attentes des consommateurs. » Jeff, si j’étais toi, je m’inquiéterais fortement pour Office et Windows Mobile.

Schmidt affirme que « contrairement à Microsoft, Google évolue dans le sens de l’Histoire.  » Le jovial et bouillonnant googleur de 52 ans veut « offrir un super-ordinateur en ligne à chaque cybernaute.  » N’ayez crainte : GBrother est votre ami, il ne demande qu’à être votre éternel confident et accompagnateur.

Axe du Mac

Toutefois, tel un léopard grimpant dans l’arbre à l’approche du lion, Eric Schmidt évite soigneusement le corps-à-corps avec Steve Ballmer - son homologue de Microsoft - et fricote avec ce guépard de Steve Jobs.

Membre du board des concepteurs du iPhone, Schmidt veut des plates-formes fiables et sexy. Jobs veut étendre son univers sur la toile et dans le spectre. En effet, Google et Apple élaborent conjointement une suite logicielle (Goopple  ?) compatible Mac, iPhone et Android. Ici, il s’agit de combiner le savoir-faire dans les systèmes d’exploitation et les hyper-gadgets avec la puissance de feu de Google sur le web et l’internet mobile. D’ailleurs, l’augmentation récente du trafic de Google News, Google Video et Youtube doit beaucoup au flamboyant succès du iPhone. Le superbe et ultra-plat Mac Book Air n’est pas le fruit de quelque lubie stylistique : il s’agit clairement d’un concept transitoire dédié aux usages en ligne et de facto apte à voler dans les nuages.

Depuis peu, des Google PC sont disponibles pour 200 dollars dans quelques magasins Wal-Mart. Dotés d’une version Linux spécialement googlée (Gmail, Calendar, Picasa, Docs, Maps, Earth et divers logiciels open source comme OpenOffice), ces ordinateurs ne sont pas soumis à la taxe Microsoft. Point besoin d’une configuration musclée - processeur 1,5 Ghz, 512 Mo de RAM, 80 Go de disque dur : les « gPC » ont une vocation essentiellement nuageuse. S’agit-il d’une expérience isolée ou d’une expérience pilote ? Dans le second cas, les gPC seront-ils dotés de la suite Goopple ? La firme n’est pas très disserte là-dessus.

Microsoft ferait bien de considérer le iPhone, le Mac Book Air, le gPC et Android comme de sérieux coups de semonce : son meilleur ennemi sera cette redoutable alliance Google-Apple.

Premières armes

Traditionnellement, le cycle de conception-distribution d’un logiciel s’étale sur deux ou trois ans. Dans les googleplex, ce délai n’est que de cinq à six mois. Chaque développeur peut immédiatement tester ses démos et ses versions bêta dans des espaces virtuels professionnels librement accessibles à partir du domicile, d’un cybercafé ou du PDAphone. Après quelques hackatons impliquant aussi plusieurs développeurs indépendants, les concepts validés sont directement transférés dans les interfaces du personnel en réseau local et des utilisateurs en ligne, puis peaufinés collaborativement au fur et à mesure. L’entreprise gagne à la fois en vélocité opérationnelle et en immersion profonde dans la Matrice. Par exemple, les ergonomies et les options de Youtube, de Google Video, de Gmail et de Blogger à destination du iPhone et des autres mobiles sont améliorées quasiment chaque jour.

Au sein de la maison Google, on est parfaitement conscient que l’informatique nuageuse ne s’imposera guère du jour au lendemain, surtout auprès des grandes entreprises et des plus anciennes générations d’internautes. Par ailleurs, les utilisateurs devront accéder à leurs données à bord d’un avion, d’un train et même hors ligne. A ce titre, la firme de Mountain View parie sur la multiplication des mémoires Flash du type USB 3.0, véritables unités centrales mobiles dont on ne peut douter de l’imminente généralisation. C’est dans ces angles que l’approche Google PC ou Windows + cloud computing demeure très sensée.

Les PME et les particuliers - en d’autres termes, la grande majorité des cybernautes - pourraient s’engouffrer rapidement dans les nuages. Ainsi, ils réduiraient drastiquement leurs coûts, leurs quincailleries et les casse-têtes inhérents en adoptant la bureautique en ligne. D’ores et déjà, plus de 2 000 PME téléchargent quotidiennement la version gratuite de Google Apps. Après deux mois d’essai, la moitié d’entre elles souscrivent à Google Apps Premier Edition moyennant 50 dollars par an. Certes, cette suite n’est pas aussi poussée que Microsoft Office ou OpenOffice, mais combien d’entre nous utilisent plus d’une quarantaine de leurs fonctions dans le cadre pro ou perso ? La conquête du marché universitaire est un enjeu stratégique majeur dans l’émergence d’une killer application. L’Arizona State University, l’une des plus grandes facultés américaines avec ses 65 000 étudiants, a ainsi économisé plus de 500 000 dollars en adoptant les solutions en ligne de Google. L’avenir nous dira si d’autres campus lui emboîteront le pas.

Selon l’agence de veille concurrentielle Compete.com, si Google Apps/Docs a effectivement conquis plus de deux millions d’utilisateurs sur la seule année 2007, Microsoft Office (Word, Excel, Powerpoint, etc.) qui a deux décennies d’expérience et équipe plus de 500 millions de PC représente encore le choix le plus sûr pour la plupart des particuliers et des entreprises. En outre, pour peu qu’un concurrent établi ou une jeune pousse développe des solutions en ligne largement meilleures que celles googléennes, Schmidt aurait beaucoup de soucis à se faire.

Côté Microsoft, vu les traumatismes récurrents causés par les versions successives de Windows (Millenium, XP, Vista) dans les réseaux locaux d’entreprises, une drastique fiabilisation de ses futures solutions Windows + cloud computing est plus qu’indispensable. Faisant déjà preuve d’une adaptabilité et d’une stabilité remarquables, les Google PC seront appelés à s’améliorer du fait de leur teneur linuxienne. Un argument technico-commercial de poids auprès des administrateurs systèmes.

De nombreux analystes et industriels estiment qu’à moyen et long terme, l’informatique-service financée par la publicité sera le modèle e-conomique dominant. Nous le constatons aisément en surfant sur le web. Dès lors, maintes questions à propos de Microsoft émergent. Ses coûteuses solutions propriétaires, comme Windows Mobile et Office, tiendront-elles longtemps face à la concurrence tarifaire, voire gratuite, de Google Apps et Android ? Comment forgera-t-elle un périmètre de valeur hors de l’informatique-produit commerciale en adaptant ses marges à la nouvelle donne ? Même dans l’optimisation des coûts de revient de ses services en ligne, Google dame sévèrement le pion à Microsoft. Yahoo !, IBM, Amazon et Sun ambitionnant également de muer en prestataires de services nuageux, Steve Ballmer aura besoin de cours intensifs et quotidiens de yoga dans les mois à venir...

Jusqu’ici, le faucon pèlerin Google semble nettement plus prescient et plus agile que l’aigle royal Microsoft. Cependant, rien n’étant encore joué, ne lâchons pas nos jumelles.



31 réactions


  • tvargentine.com lerma 21 janvier 2008 09:49

    Déjà dans de nombreuses entreprises,le pack office Microsoft est remplacé par OpenOffice.Org

    Ce n’est pas demain que les entreprises accepterons de confier leurs données à des sociétés comme vous citez car la confidentialité des données n’est pas garantie et encore moins l’espionnage industriel

    Vous concluez par une erreur d’analyse (catastrophic error )  : "De nombreux analystes et industriels estiment qu’à moyen et long terme, l’informatique-service financée par la publicité sera le modèle e-conomique dominant"

    L’informatique sera avant tout de la puissance et de la capacité de stockage encore plus importante,quand aux progiciels,cela sera du linux et du OpenOffice

     

     


  • c.d.g. 21 janvier 2008 10:02

    Il y a une dizaine d année on prevoyait deja la fin du PC/windows remplacé par un simple navigateur (et qui controlerai le navigateur controlerai le monde)

    Ca n est pas arrivé. (pour cause de manque de liaison haut debit, pas de terminaux "pas cher" (cartaines societes (alcatel, com1) avaient produit des terminaux pour acceder a internet sans PC mais perf ridicules et prix proche d un PC)

    Outre le probleme de la confidentialité et de l acces dans les lieux non couverts par internet (par forcement car a l autre bout du monde mais pour raison de securité), micorsoft benefice d une base installée immense.

    Et cette base installée va en majorite migrer vers vista et office 2007. Meme si je le deplore

    Aucun DSI va prendre le risque de se faire virer en proposant autre chose. Il y a 20 ans on disait qu on ne pouvait pas se faire virer si on a choisit IBM (et meme si le porjet s est planté). Maintenant c est MS

     

    PS : pour acceder a internet et faire juste un peu de traitement de texte, in "vieux" P III est largement suffisant. Meme avec XP

     


    • herve33 21 janvier 2008 13:35

      Il y a une dizaine d année on prevoyait deja la fin du PC/windows remplacé par un simple navigateur (et qui controlerai le navigateur controlerai le monde)

      Les raisons pour lesquelles Windows et le pack office se sont imposés comme standard est dû au fait qu’il était très difficile d’acheter autrechose qu’un PC équipé Windows ( alors que Linux et de Openoffice qui existe depuis des lustres . )

      Or désormais la plupart des constructeurs de matériels et de composants PC intégrent des drivers linux ( ou fournissent les informations à la communauté linux pour développer les drivers ) . Certains PC sont même livré avec Linux et openoffice en standard .

      Certaines distributions Linux ( Ubuntu ) deviennent aussi faciles voire plus faciles à installer que Windows et sont bien souvent plus fiables et moins gourmandes que Windows .

      La plupart des grandes administrations sont sur le point de passer en Linux Openoffice comme poste standard bureautique

      Et cette base installée va en majorite migrer vers vista et office 2007

      Là , on voit que tu n’es franchement pas informaticien . N’importe quel admistrateur refusera d’installer Vista pour l’instant . Et la plupart du temps celui est désinstallé pour revenir à Windows XP . 

      Quant au pack office 2007 qui coute au minimum 220 Euros , il est plutot remplacé par Open Office qui lui est gratuit , et n’a absolument rien à envier à la suite de Microsoft . De plus , pas de gestion de licenses qui peut etre un casse tete pour un administrateur bureautique .

      Maintenant , entièrement d’accord avec l’auteur de cet article . La plupart des utilisateurs de PC ne redigent que quelques courriers par an , et nombreux seront ceux qui ne veulent pas s’encombrer d’une suite bureautique lourde et parfois pas très facile à utiliser . A cela , il faut ajouter la prochaine déferlente des PC à bas cout ( 300 euros et moins ) .

      Effectivement , comme disait Lerma ( pour une fois Bravo ) , il y a le problème de confidentialité problèmatique pour les entreprises mais beaucoup moins pour les particuliers dont la plupart se moquent que leurs documents puissent etre lus .

      Il est clair que Microsoft avec son concept d’informatique propriétaire est entrain de se faire damer le pion de toutes parts .

       

       

       

       

       

       

       

       


    • patrice69 patrice69 21 janvier 2008 14:11

      "Là , on voit que tu n’es franchement pas informaticien . N’importe quel admistrateur refusera d’installer Vista pour l’instant . Et la plupart du temps celui est désinstallé pour revenir à Windows XP . "

      Ah bon.... On l’a au contraire tout de suite installé sur des postes de tests pour vois si nos produits et nos sites web fonctionnent dessus...

      Là, on voit que tu n’est franchement pas developpeur smiley


    • c.d.g. 22 janvier 2008 15:32

      ben si je suis informaticien

      Et meme si je n approuve pas, ma societe va deployer vista et office 2007 l annee prochaine

      Pour info, une multinationale comme celle ou je travaille ne paye pas le prix grand public. Autrement dit office 2007 c est certainement pas 200 € par poste (j ai aucune idee du prix, ca doit etre une license pour toute la societe)

       

      La encore, personne ne prendra le risuqe de passer alinux et open office (meme si j utilise en prive). Vous coulez changer les habitudes du PDG et vous faire virer vous ?

      Office 2007 changera ses habitudes mais on peut repondre c est pas de ma faute, c est MS


  • Vincent 21 janvier 2008 11:40

    il évitera au consommateur de devoir acheter une bécane agressive et énergivore tous les trois ans.

    Le consommateur de base est bien idiot de renouveler son matériel tous les trois ans, pour surfer, écouter de la musique, regarder des films et faire un peu de traitement de texte, il n’est nul besoin d’avoir le dernier cri de l’informatique. Mon ordi actuel est équipé d’un pentium III, il date de 2001, et il fait tout ce dont j’ai besoin.

    Le superbe et ultra-plat Mac Book Air n’est pas le fruit de quelque lubie stylistique : il s’agit clairement d’un concept transitoire dédié aux usages en ligne et de facto apte à voler dans les nuages.

    C’est assez paradoxal d’annoncer que le cloud computing permettra à l’utilisateur de se contenter d’un terminal léger (je ne parle pas que du poids !), tout en prenant le dernier joujou ultra-onéreux d’apple (de 1700 à 3000$ !) comme précurseur de ces nouveaux terminaux. La machine de l’OLPC ou l’Eee PC d’ASUS me paraissent plus proches de l’ordi de base dans un monde de cloud-computing.

    Pour le reste, il est amusant de constater que le cloud-computing actuel rappelle les ordinateurs centraux des années 80 (exemple : l’IBM 3090) : une énorme machine centrale qui exécute les programmes de tous les utilisateurs, et gère tous leurs périphériques. cette idée a vite été abandonnée, mais les conditions semblent plus favorables aujourd’hui. Reste à savoir si les constructeurs seront d’accord pour vendre des terminaux à 200$ alors que jusqu’à présent ils arrivaient à refourguer à leurs clients, pour 10 fois plus cher, des bécanes dernier cri tous les 3 ans... Chez Google, ils vont vraiment finir par se mettre à dos toute l’industrie informatique !

     


    • patrice69 patrice69 21 janvier 2008 13:29

      Comme dans tous les débats, il faut toujours quelqu’un qui arrive pour dire "je pense que la vraiquestion c’est..."

      Bon . Aujourd’hui c’est toi le porteur de grandé vérité, puissant penseur et prophète.

      Avec le vieil argumennt "les gens sont cons", moi je suis plus malin, Il n’y a pas besoin d’un PC plus puissant pour faire ca, etc.

      Il faut que tu comprennes que la technologie évolue vite, parce qu’il ya des besoins qui évoluent vite. Il ne t’as pas echappé que les jeux vidéos actuels, les films HD, etc... nécessitent des machines plus puissantes qu’avant. Que toi tu t’en cogne (et moi aussi d’ailleurs), ce n’est pas la question.

      Les fabriquants ne vont pas conserver des chaines de production de vieux matos. On est dans un monde qui standardise à mort. Et cela couterait plus cher de fabriquer des vieux coucous que des nouveaux modèles.

      Si on suit ta logique, pourquoi ne pas fabriquer des vieilles caisses en plastoc comme il ya 40 ans. As-tu besoin de plus en fait ?

      Enfin, sur le bon vieux argument "tout le monde est plus con que moi", on l’entendais déjà quand on est passé de DOS à Windows, puis de Windows3.1 à Windows95, etc. Derrière ce barratin, il y a généralement un fanboy d’une marque, un anti-quelque chose, etc.

      Tu devrais t’acheter un vieux PC DX266 sur Internet. Il consomme moins de courant (moins polluant), il fait du traitement de texte, tu peux écouter de la musique.... Et en allant par la, un Atari ST devarit de convenir.

      Sinon, à mes yeux (j’ai un vieux vieux coucou), tu est un des idiots qui à besoin d’un pentium3 juste pour des besoins standards... Oh la honte.

      Quant au principal, il le semble que oui, le logiciel va migrer dans les nuages. Ne serait-ce que pour lutter contre le piratage. Il va falloir attendre la fibre optique, soit une bonne dizaine d’année et tout le monde y sera. Je ne pense pas que le monde des jeux, ou des grosses applis y echappera. Ces gens-là (les cons à ce qu’il parrait), payeront donc un abonnement plus cvher à leur FAI...

      PS : Excuse moi pour le ton, la familiarité et la grossierété. Ce n’était pas très malin de ma part, mais des fois, un bon coup de poing sur la table ca fait du bien.


    • herve33 21 janvier 2008 13:42

      Tu devrais t’acheter un vieux PC DX266 sur Internet. Il consomme moins de courant (moins polluant)

      Absolument faux , les économies de courant n’étaient vraiment pas la priorité à l’époque . . Et maintenant un portable équipé de processeurs récents est bien moins consommateur que n’importe quel PC existant auparavant .


    • patrice69 patrice69 21 janvier 2008 14:14

      Et non... si c’est vrai pour les processeus, c’est faux pour tout le rste.

      Lu par exemple sur Hardware :

      "Depuis quelques temps, on observe sur le marché des alimentations une véritable folie des watts de la part des constructeurs. Après les 800 watts, plusieurs constructeurs ont lancés des modèles capables de fournir 1000, voir même 1200 watts !"


    • Vincent 21 janvier 2008 14:27

      Je sais pas trop si je vais t’excuser, tu m’insultes, tu me fais endosser le mauvais rôle, et je ne le mérite pas.

      L’intérêt du cloud computing, du point de vue de l’ utilisateur, c’est principalement de ne pas avoir à posséder un ordinateur ultra-puissant et très cher pour faire tourner ses applis. C’est pas moi qui l’invente, je n’essaie pas de recentrer le débat sur "la vraie question", c’est un fait, point barre.

      Je n’ai jamais dit qu’il fallait maintenir des chaînes de production obsolète, je dis qu’il n’est pas besoin d’avoir le dernier cri de la technologie pour faire du traitement de texte, écouter de la musique, regarder des films ou surfer. Et justement certains constructeurs commencent à le comprendre : la fondation OLPC , Asus avec son Eee PC, et google avec le gPC évoqué dans l’article. Ces machines sont récentes, mais économiques (en prix, et en énergie), le but n’est pas d’avoir la pointe de l’inovation technologique, parce que c’est inutile pour 90% des utilisateurs ! Je parlais de mon P3 juste pour faire une comparaison avec ces nouvelles machines, elles sont à peu près aussi puissantes que mon PC, et avec lui je comble les 4 utilisations de base énoncées ci-dessus, et plus encore. Un processeur à 1Ghz, 1/2 ou 1 Go de Ram, un écran couleur et un clavier, c’est tout ce qu’on a besoin pour ces fonctions de base ! après si on veut jouer aux derniers jeux en 3D ou regarder des vidéos en HD, ce n’est pas la même histoire mais surtout ce n’est pas le sujet de l’article ! Bref, matériel récent n’est plus synonyme de dernier cri de la technologie, ni de souscription de crédit, ni de 500 watts de courant pour visiter une page web.

      Enfin, ne t’inquiète pas pour moi, je me tiens au couant des innovations technologiques. Et justement, la fibre optique pour tous, que tu attends si impatiement, est presque dépassée : un chercheur australien a réussi à réduire fortement les interférences des lignes ADSL, on atteindra facilement les 200Mo/s avec cette technologie, et nul besoin de creuser des tranchées dans toute la france pour amener la fibre chez tout le monde, non, on conserve la ligne téléphonique actuelle, et on change juste de modem. ça prendra pas 10 ans mais 1 ou 2 tout au plus. un petit lien sur le sujet

      A part ça l’article m’a plu dans l’ensemble, ce n’est pas parce que j’ai fait une critique que je suis forcément en désaccord sur tout avec l’auteur, je pense qu’un commentaire avec une petite critique est plus constructif qu’un "Article génial, merci à l’auteur !"

      merci à l’auteur quand même !


    • patrice69 patrice69 21 janvier 2008 16:36

      "Enfin, ne t’inquiète pas pour moi, je me tiens au couant des innovations technologiques. Et justement, la fibre optique pour tous, que tu attends si impatiement, est presque dépassée : un chercheur australien a réussi à réduire fortement les interférences des lignes ADSL, on atteindra facilement les 200Mo/s avec cette technologie, et nul besoin de creuser des tranchées dans toute la france pour amener la fibre chez tout le monde, non, on conserve la ligne téléphonique actuelle, et on change juste de modem. ça prendra pas 10 ans mais 1 ou 2 tout au plus. un petit lien sur le sujet "

      Oui, je connaissais.

      Mais il est peu probable, alors que les contrats à millliards sont signés, que l’on fasse machine arrière. Qui plus est, la marge de progression est aussi possible sur la fibre optique. Reste que cette solution ADSL sera un plus pour les zones peu urbanisées.


  • biztoback 21 janvier 2008 12:16

    Bonjour !

    Article intéressant...

    Pour moi se pose toujours le problème de confidentialité des données, ayant testé les différents logiciels de google (et travaillant actuellement dans le web), j’ai dû mal à croire au risque zero.

    Le logiciel de photo google par exemple... j’en ai aucune confiance !

    Je ne pense pas que les sociétés laisseront leurs données se balader au risques de se faire espionner, ou pire tout perdre.


    • patrice69 patrice69 21 janvier 2008 13:32

      "Le logiciel de photo google par exemple... j’en ai aucune confiance !"

      Bien vu. D’aiileurs si tu prends Facebook, toute photo publiée devient la propriété de Facbook, qui peut la revendre s’il le souhaite...


    • brieli67 21 janvier 2008 17:05

      en Chine aux USA et récemment en ARGENTINE

      ont été gagnés ?

      nombres de boites en France dont la Secsoc « tournent » sur le réseau électrique et téléphonique de la SNCF.

      Il sont forts très forts les petits français. Le « calculateur » du CNRS n’a jamais lâché. Quid du Pentagone ?

      http://micropsy.ifrance.com/moles/moles_oeuvre.html RIEN DE NEUF.... On revient à la case départ.


  • I4U 21 janvier 2008 12:41

    L’article oppose les stratégies des deux géants de l’informatique, Google et MS. Il est évident que toute société commerciale tend à se constituer comme un centre incontournable pour créer une dépendance de ses clients, source de la pérennité de ses revenus. MS le fait avec le logiciel propiétaire, Google avec le service (en bref : il y a bien sûr du service et du logiciel des deux côtés).

    Mais l’informatique que l’on espère et pour laquelle on peut espérer des initiatives venant du libre, serait une architecture mariant les avantages des deux mondes.

    Créer des logiciels web conservés en cache (ce que promet google gears). Ainsi, il serait possible :

    • d’offrir des logiciels aussi puissant que les logiciels installés traditionnellement.
    • la maintenance locale disparait.
    • l’accessibilité est totalement résolue puisqu’elle est liée à un identifiant et non plus à un appareil (utiliser pour les documents des formats lisibles par tous les types de terminaux, même si toutes les fonctions d’édition ne sont pas accessibles aux plus modestes d’entre eux).
    • On peut facilement étendre cette dématérialisation à l’environnement personalisé (groupe de logiciel utilisé, préférences, langue, clavier, apparence etc.) qui pourrait être retrouvé sur n’importe quel appareil.

    Créer une structure de sauvegarde dont le choix est laissé à l’utilisateur. Celui-ci peut ainsi déterminer d’une manière sélective si ses données peuvent être stockées sur un espace privé, en réseau local, en réseau d’entreprise ou en réseau ouvert. Ce choix permet de régler le problème de la confidentialité.

    La question des sauvegardes et restauration est complètement intégrée au système d’une manière fiable et transparente pour l’utilisateur.

    Baser la transmission réseau (applications et données) sur le p2p. La capacité de stockage local, en réseau d’entreprise ou en réseau ouvert est offerte par une mutualisation des ressources de stockage.

    Pour la sécurité, rien n’empêcherait de hacher les données en les sauvegardant en des endroits différents, gage supplémentaire de sécurité.

    Si je souhaite disposer de 100Go de stockage sur le réseau, j’offre 100Go de stockage de mon espace disque à la communauté. Le serveur local devient un élément du réseau communautaire. Les FAI deviennent de simple squelettes dans l’architecture réseau global, mais ils ne s’occupent plus (ou bien moins) de stocker des données.

    Un changement dans l’offre matérielle. Pour cela il faudrait des serveurs locaux prévus pour fonctionner silencieusement, sans interruption, avec une très faible consommation d’énergie et modulaires. Les "ordinateurs" ne nécessiteraient qu’une modeste capacité de stockage, mais d’une bonne puissance de traitement et d’une excellente connectivité (avec la possibilité de basculer sans interruption d’une connexion à l’autre comme cela se fait déjà entre le wifi et le gsm).

    Une telle solution permettrait d’éviter de tomber de Microsoft en Google... de Charybde en Scylla ! Espérons que le libre saura jouer ce rôle de pionner et de trouble-fête (pour certains au moins) car on voit mal comment une entreprise commerciale favoriserait l’émergence d’un modèle qui la rendrait inutile.


    • patrice69 patrice69 21 janvier 2008 13:35

      "l’accessibilité est totalement résolue puisqu’elle est liée à un identifiant et non plus à un appareil (utiliser pour les documents des formats lisibles par tous les types de terminaux, même si toutes les fonctions d’édition ne sont pas accessibles aux plus modestes d’entre eux). "

      Si je puis, me permettre, c’est très bien observé. Je n’y avait pas pensé du tout !

      Donc, si MS gagne, Firefox est mort par exemple.

      Et si Google gagne, IE est mort.

      On ouvre les paris ?

      Ce en quoi, une telle accessibilité serait sans doute un plus pour les developpeurs... Non ?


    • biztoback 21 janvier 2008 14:06

      Un gros plus pour les devellopeurs même !


    • patrice69 patrice69 21 janvier 2008 14:15

      Alors dans ce cas, Faut-il soutenir Firefox ?


    • biztoback 21 janvier 2008 14:51

      Pourquoi soutenir Firefox, parce qu’il est libre ?


    • patrice69 patrice69 21 janvier 2008 16:32

      Il est libre... je croyais que la mozilla fondation avait gagné 75 millions de dollars l’an passé, et employait 120 personnes...


    • patrice69 patrice69 21 janvier 2008 18:14

      Et donc en quoi diffère-t-elle de Microsoft... si ce n’est dans les benefs.


  • jamesdu75 jamesdu75 21 janvier 2008 18:49

    Je crois que l’article ne s’adresse qu’a un panel de la futur population qui utilisera l’informatique.

    Le casual using (c’est pas de moi le terme). L’utilisateur usuel de l’ordi. Les clients Fnac en majorité, peu debrouillard dans leurs utilisation et surtout qui n’ont pas des besoin vraiement specifique.

    Des Deskop en ligne existe deja, le seul soucis et le probleme d’upload pour l’instant trop leger.

    Le hardcore user, lui restera avec une machine puissante et des teraoctets de donnés.

    Pour les jeux video, le futur est en ligne avec des jeux gratuis mais on paye un abbonement, le seul moyen de lutter a font contre le piratage.


  • Forest Ent Forest Ent 21 janvier 2008 22:29

    Réflexion intéressante, mais hasardeuse, ce qui en fait d’ailleurs le charme.

    Pour un particulier qui veut juste chez lui taper son mail et surfer, le moins cher et le plus pratique de loin est un desktop bas de gamme sous linux.

    Les entreprises misent beaucoup sur le mobile, mais ça implique une connectique pour pouvoir l’utiliser chez soi à regarder un film ou taper au clavier, et ça reste très cher et limité pour les jeux. La frontière téléphone/ordinateur reste nette.

    Les jeux exigent aujourd’hui des configs musclées et propriétaires que l’on ne trouve que sous windows ou des consoles.

    Entre desktops, portables, terminaux, téléphones, consoles et télés, l’avenir du PC est bien incertain. Chacun place ses pions. Il est possible que le marché éclate en morceaux.


    • Charles Bwele Charles Bwele 21 janvier 2008 22:39

      @ Forest

      Comment va, Vieille Branche ?

      Sincèrement, pas si hasardeuse. Je te recommande vivement de lire les liens que j’ai fourni à Lerma, parmi les tous 1ers comment’ évidemment

      Pour en discuter, je préfère amplement qu’on recoure au mail. Te suffit de te rendre sur mon blog. Je suis assez prompt pou répondre.

      Amicalement.


    • Charles Bwele Charles Bwele 21 janvier 2008 23:49

      Forest,

      à moi, tu fourgueras aisément une distribution Linux. Mais jamais tu ne la refourgueras à la bimbo parisienne ou patron de SARL de Nashville qui veut 1/ Ne pas se prendre la tête 2/ Idem 3/Ménager à tout prix son chéquier + CB 4/La cybersécurité ? Ca y est tu lui prends déjà la tête

      Ensuite, ici en terre anglo-saxonne, Le Net c d’abord et avant tout du business. Je ne dis pas que ce soit bien ou mal, c comme juste comme ça, aussi cynique que puisse paraître ce propos.

      LEs intervenants dans cet article ont tous oublié l’aspect business, qui imprègne les pontes de Google, MS et Yahoo ! à des degrés stratosphériques. Ils ont donc oublié le primordial

      Amicalement

       


  • Kobayachi Kobayachi 22 janvier 2008 00:13

    Google ressemble décidément de plus en plus à une entité bien distincte.

    Le font de commerce de Google c’est leur server remplis de donnés. Une base de donnée qui grandi jour après jours. Il est tout à fait normal pour Google d’exploiter au mieux possible toute opportunité pour utiliser ce font de commerce tout en le développant. Le cloud computing représente certainement une bonne possibilité pour financer le développement du parc de server de google et l’élargissement de cette banque de donnée.
     
    Le lancement du projet "knol" est aussi un projet qui va, a mon avis, dans ce sens tout en allant encore un peu plus loin. Tout en essayant de récupérer une bonne partie des utilisateurs de wikipedia (dans un très grand nombre de recherches, google trouvera toujours un lien ver wikipedia) et d’y placé sa pub, google y voit aussi un moyen d’agrandir sa banque de donnée.
     
    Cela semble peut être sortie d’un film de science fiction mais je commence sérieusement à croire que Google est a la recherche du "saint Grâle" en matière de programmation. A savoir l’A.I. (Artificial Intelligence) qui semble-t-il nécessite une banque de donnée immense.
     
    Larry Page l’un des cofondateurs n’hésite d’ailleurs à le dire ouvertement : “We have some people at Google [who] are really trying to build artificial intelligence (AI) and to do it on a large scale…It’s not as far off as people think.”
     
    On n’ose imaginer le potentiel d’une intelligence disposant de l’ensemble de la connaissance humaine et qui n’a de limite à l’apprentissage que la puissance et la vitesse des serveurs qui l’héberge. 
     
    Voici quelques liens sur le sujet :
     
    http://video.google.com/videoplay?docid=4740557046246483319 (il existe une autre vidéo de meilleure qualité et d’un contenu plus intéressant sur Google sur le sujet mais je n’arrive pas à la retrouver)
     

  • Bernard Dugué Bernard Dugué 22 janvier 2008 09:05

    Hi Charles,

    Je viens d’entendre tes commentaires enregistrés pour la radio suisse, bien vu ta thèse des 1, 10 et 90 pour cents, et puis pas mal comme idée, nous sommes des DJ de l’info, bientôt, on sera plus célèbres que David Ghetta


Réagir