vendredi 28 novembre 2008 - par Marc Bruxman

L’informatique dans les nuages

La prochaine révolution technologique de grande ampleur se nomme "cloud computing" ou en français l’informatique dans les nuages. Derrière ce nom étrange se cache une technologie qui va avoir des répercussions extrément profondes sur notre façon de travailler. Petit état des lieux.

Qu’est ce que le cloud computing ? 

Le cloud computing vise à démocratiser l’accès aux infrastructures de calcul. Jusqu’à présent, si vous aviez besoin d’une importante puissance de calcul, vous deviez acheter des serveurs et installer vos logiciels dessus. Jusque la tout est très normal. 

Pour beaucoup d’entre vous la puissance de calcul d’un seul serveur est probablement tellement grande que vous ne pouvez pas concevoir que l’on puisse l’exploiter entièrement. Pourtant de nombreuses applications requièrent plusieurs serveurs et certaines en demandent même des dizaines voir des milliers  :

  • Certains sites internet très fréquentés. (Google, Facebook). 
  • Certaines applicaton de simulation pour l’industrie ou la recherche scientifique. 
  • Le calcul d’images de synthèse pour le cinéma. 
  • .... et beaucoup d’autres applications qui ne requiérent que deux ou trois serveurs ! (Cas de nombreux progiciels). 
Jusqu’à présent pour utiliser ces applications, les entreprises devaient se construire un "datacenter" et acheter elle même leurs serveurs pour une facture souvent très élevée. Autant dire que cette possibilité n’était disponible que pour des entreprises fortunées. Pire, ces entreprises étaient confrontées à de nombreux casse têtes :
  • Le dimensionnement du datacenter. Si vous achetez trop de serveurs, votre facture sera horriblement salée, mais si vous n’en mettez pas assez, vous risquez de manquer de puissance à un moment important. 
  • La consommation énérgétique délirante des serveurs qui imposait de faire arriver une importante capacité électrique sur site (parfois plusieurs mégawatts) et d’investir énormément dans un système de climatisation. 
Or, comme elles devaient surdimensionner leur infrastructure de calcul, elles se sont aperçues que leur taux d’utilisation était souvent très bas. Dans beaucoup de cas il ne dépassait pas 30% sur l’année. Ce qui fait un gaspillage énorme des ressources. C’est mauvais pour l’écologie et pour le compte en banque ! 

L’idée du cloud computing consiste à mutualiser les ressources de calcul entre de nombreuses entreprises. Un opérateur construit un énorme datacenter comprenant plusieurs dizaines de milliers de serveurs et il revend la capacité à des clients intéréssés. Les clients envoient leurs tâches au travers du réseau internet et récupérent par le même moyen le résultat des calculs. A la fin du mois, l’opérateur vous facture à l’usage c’est à dire que vous ne payez que la puissance de calcul que vous avez consommé. 

La même chose existe pour le stockage de données donnant ainsi accès aux entreprises qui le souhaitent à des capacités de plusieurs milliers de téraoctets !

Ca existe déjà ou c’est de la science fiction ? 

Google est probablement le plus gros utilisateur de cloud computing via ses datacenters répartis. Si vous utilisez Google Apps vous utilisez déja sans le savoir ce genre de système. D’autres sites web populaires comme Facebook utilisent également ce genre de technologie dont ils sont également à la fois fournisseurs et consommateurs.

Plus intéréssant Amazon a commencé à commercialiser des services nommés S3 et EC2 qui permettent à des développeurs d’applications de profiter du cloud computing. Vous pouvez ainsi dès a présent acheter de la capacité de calcul à Amazon. Beaucoup de start up ont recours à ce procédé car non seulement cela réduit les coûts mais cela leur offre la garantie que même en cas de très forte demande imprévue (par exemple une émission de télé parlant de leur site) elles pourront satisfaire la demande sans pour autant avoir à investir dès le départ une somme importante dans l’infrastructure. 

Dans l’industrie aussi des offres se structurent à destination notamment de l’industrie automobile mais aussi de la production cinématographique. Non seulement cela permet d’abaisser les coûts pour les gros acteurs, mais cela permet aussi à des sociétés plus petites de bénéficier occasionellement d’une grande puissance de calcul alors que leurs besoins très occasionnels les empéchaient jusqu’à présent d’avoir accès à cette puissance. (Les investissements nécéssaires étaient impossibles à justifier pour une utilisation de seulement quelques jours par an). 

Bref, non seulement le marché existe déja, mais des sommes très importantes sont investies en R&D par la plupart des acteurs de l’informatique. Plusieurs projets labellisés par Cap Digital (pole de compétitivité) traitent actuellement directement ou indirectement de Cloud Computing. 

Pourquoi c’est révolutionnaire ? 

La véritable révolution du cloud computing c’est que jusqu’à présent lorsque l’on concevait une application informatique importante, l’aspect hardware et infrastructure ne pouvait pas être séparée de l’aspect logiciel. Le cloud computing au contraire rend le matériel transparent. La puissance de calcul devient une commodité que l’on utilise au même titre que le courant électrique et que l’on paie à l’usage. Le matériel qui la génére devient invisible de l’utilisateur final. 

Pour vous donner une idée du progrès accompli imaginez que chaque maison et chaque entreprise doive posséder sa propre centrale électrique pour avoir du courant ! Et imaginez alors le progrés qu’a été l’apparition des réseaux électriques comme on les connait aujourd’hui ! Vous avez non seulement le coté pratique, mais aussi une réduction des coûts très importantes. 

De plus, le cloud computing fournit en standard des choses qui étaient auparavant du luxe. Le matériel étant devenu abstrait et l’infrastructure composée de milliers de serveurs, la panne d’un seul serveur ne cause plus d’interruption de service ! Vous avez donc un gain de fiabilité et un gain de coût car la maintenance peut être effectuée de façon plus laxiste qu’avant. Même l’applicatif logiciel le plus petit peut maintenant monter en charge (accepter des millions d’utilisateurs) et avoir une tolérance de panne !

Cette façon de travailler, a longtemps été citée par les spécialistes comme la vrai raison de la supériorité de google sur ses concurrents. Et c’est vrai ! Google n’a pas forcément les meilleurs algorithmes de recherche, mais le fait d’avoir intelligemment séparé l’infrastructure du logiciel leur a donné un avantage concurrentiel instoppable. 

Qu’est ce que cela va changer ? 

Les changements seront profonds :
  • Tout d’abord de nombreuses entreprises de petite taille vont avoir accès du jour au lendemain à des outils jadis réservés aux grands comptes. La productivité et la créativité vont donc encore augmenter. 
  • Le cloud computing est un pas de plus vers la société post-industrielle dans le sens ou le client final (utilisateur) n’achétera plus ses serveurs auprès d’un fabriquant mais achétera un service. Les constructeurs comme Dell, HP ou IBM vont donc se retrouver face à des centrales d’achat qui vont acheter les serveurs par milliers et auront une puissance de négociation énorme. Une guerre des prix va alors s’engager et la puissance de calcul va devenir extrémement peu chère et accessible. Sans compter que moins de serveurs seront nécéssaires pour le même résultat final ! Des pans entiers de l’industrie vont alors devenir invisibles. 
  • Des dizaines de milliers d’emplois d’informaticiens dans l’exploitation seront détruits. Mais au contraire le développement de logiciels restera un marché extrémement porteur. La demande de logiciels capable d’utiliser cette puissance inespérée va exploser. 
  • Les logiciels vont de plus en plus passer vers le modèle SaaS (Software as a Service) ou les logiciels seront installés sur les nuages de calcul et utilisés au travers du réseau internet. Cette transition est déja en cours (via des logiciels comme SalesForce.com, Zimbra, et de nombreux progiciels) mais va s’accélérer, le cloud computing étant l’élément qui manquait pour que ce modèle économique devienne irrésistible. 
  • Et surtout, une nouvelle couche d’abstraction logicielle que l’on pourrait appeler Système d’exploitation du nuage succédera au systéme d’exploitation comme composant de base vu par les développeurs. Cela pourrait être la mort de sociétés comme Microsoft qui pourront difficilement résister à cette tendence. Dans quelques années, les gens se moqueront du système d’exploitation comme de leurs premières chaussettes, ce qui comptera sera le systéme d’exploitation du nuage !
  • Des problématiques de sécurité et de protection de la vie privée nouvelles vont voir le jour. Et c’est le plus gros frein au développement de cette technologie !
Conclusion

Les rêves issus de la bulle internet sont aujourd’hui quasiment tous devenu réalité. L’accès internet est partout, y compris sur téléphone mobile et internet est devenu l’épine dorsale de notre société. On pourrait alors croire qu’il ne reste plus grand chose à faire !

Mais la révolution technologique n’est pas terminée ! Et de nouveaux rêves ont vu le jour. Parmis eux, le cloud computing est une véritable "révolution industrielle" pour les développeurs d’applications logicielles ainsi que pour leurs utilisateurs. Et cette révolution aura des conséquences dans la quasi totalité des secteurs économiques. 
En tout cas, une chose est sûre, voici là un chantier titanesque qui a de quoi tenir en haleine le secteur technologique pour les dix prochaines années !



45 réactions


  • spartacus1 spartacus1 28 novembre 2008 11:24

    On est tout simplement en train de réinventer le "time sharing". Technique en vigueur dans les années 1960-1970 !

    Conceptuellement, rien de révolutionnaire, sauf que le matériel est plus performant.


  • foufouille foufouille 28 novembre 2008 11:28

    il faut combien de bande passante pour utiliser ce truc ?


  • Forest Ent Forest Ent 28 novembre 2008 11:33

    Que les sociétés fassent héberger leur site ou louent du calcul, c’est très normal. Il y a par contre un discours chez par exemple Google et Microsoft consistant à dire : "tant qu’à faire, mettez toutes vos donnée et applis chez nous et fournissez à vos employés des terminaux internet banalisés". Par rapport à ce discours, je sens une très grande réticence des utilisateurs qui ne veulent pas perdre le contrôle de leurs infos. Amha, on restera longtemps entre les deux. Disons que ce sera un élément de plus dans la palette. D’ailleurs, en dehors du mail, internet est somme toute assez peu utilisé par beaucoup d’entreprises, comparé aux particuliers.


  • geko 28 novembre 2008 12:01

    Techniquement peut-être révolutionnaire mais conceptuellement non !

    Dans le même ordre d’idée le principe du calcul partagé consistant à mutualiser l’usage de son pc pour la recherche est pratiqué depuis longtemps : le Seti propose le calcul partagé mais aussi le World Community Grid pour la recherche dans le domaine médical ! Il est à préciser pour ce dernier que les résultats des recherches sont mis à disposition du domaine public !


    • Marc Bruxman 28 novembre 2008 16:17

      Il s’agit d’applications spécifiquement développées pour une utilisation en grille alors que la promesse du cloud est de fournir des standards et des interfacees et de distribuer ainsi des applications développées de façon standard. 


  • Parpaillot Parpaillot 28 novembre 2008 13:34

    @l’Auteur :

    A votre liste d’utilisation du "Cloud Computing", on pourrait ajouter le CERN (Centre Européen de Recherche Nucléaire) qui avec le projet "LHC" (Large Hadron Collider) va appliquer cette technique de traitement informatique et d’archivage distribué. Cette expérience "LHC" va en effet nécessiter d’énormes ressources de traitement de l’information.
    Remarquons tout de même que d’autres techniques de mutualisation de ressources existent déjà, certes à une plus faible échelle : les "clusters" par exemple, machines virtuelles composées de plusieurs ordinateurs physiques.

    Merci pour cet article !

    Cordialement !


  • marignan155 28 novembre 2008 14:06

    Bravo ! Bientôt le paradis informatique... Informaticien depuis 1969, je rajoute cette promesse aux autres, parmi celles qui ont généré des espoirs : la traduction automatique. C’est encore bien grossier mais 40 ans de travaux. Pour les petites entreprises cela signifie aussi investir dans la formation. Méga-centres ? Le NSA américain a déjà du arrêter des ordinateurs pour raison de pénurie d’électricité (machines + climatisation) Cette philosophie obligera a passer par des contrats de service (SLA). Qui va les proposer : le gros ou le petit ? Ayant vécu quelques expériences, je voudrais signaler que la chute des prix entraîne un fabuleux gachis de ressources. On duplique, triplique toutes les données sans gérer cela, on n’hésite pas à mettre en route des travaux lourds, juste pour voir. Il y eut une époque où les coûts étaient facturés "finement". Les emplois dans l’exploitation vont disparaître ? Oui et non. Resteront les réseaux, les correspondants d’exploitation (pour les suivi des contrats et les litiges éventuels), les gestionnaires de l’informatique "outsourcée" (sous-traitée). Il faudra faire confiance aux vendeurs parce que ne seront facturés que les consommations PLUS probablement un fixe en fonction du maximum désiré (voir les compteurs EDF : vous payez un fixe suivant l’ampérage maxi demandé) Internet est bien un accélérateur pour l’informatique mais n’oublions pas que c’est du "best effort" (on fait au mieux avec ce qu’on a), alors voici un tuyau et des extrémités fragiles (matériellement et logiquement : câbles coupés, attaques massives sur certains points, erreurs de chemins "DNS"), un jour on fera peut-être payer en plus si vous en avez vraiment besoin, qui pourra vous assurer que personne n’a pu accéder à vos données dont on ne sait pas où elles ont transité et où elles sont stockées. excusez-moi, l’expérience et une fonction de sécurité les 10 dernières années m’ont incité à tempérer votre optimisme, il y a bien sûr encore d’autres points à évoquer


    • Marc Bruxman 28 novembre 2008 16:21

      Les entreprises utilisent déja Internet Explorer, Outlook et toutes les microsofteries oh combien victimes des spywares et autres salopereis. 

      Et si vous avez bossé dans la sécu, avez vous déja demandé à une boite extérieure de faire une expérience de "social engineering" ? (Qui consiste en gros à passer un coup de fil, être gentil avec la personne et soutirer ainsi des infos confidentielles ou lui faire faire des choses qu’elle ne devrait pas faire). 

      A ce stade, faire la fine bouche pour le cloud computing me parait déplacé. Si la NSA veut vos informations, une technique de social engineering sera probablement plus efficace. 

      Et pour l’espionnage industriel le salarié espion reste de très loin la méthode la plus employée et la plus redoutable... 

       


    • Christophe Christophe 29 novembre 2008 11:46

      @Marc Bruxman,

      Et pour l’espionnage industriel le salarié espion reste de très loin la méthode la plus employée et la plus redoutable.

      Il n’est pas du tout certain qu’un espion salarié soit la méthode la plus utilisée ; il y a plus d’affaires de ce type rendues publiques, oui, mais cela ne signifie pas que ce type d’attaque est le plus courant.

      Quant à la plus redoutable, cela nécessite vérification tout autant.

      Quand je travaillais à l’ONERA, dans le Département de Traitement de l’Information et de la Modélisation, dans le secteur Sécurité, nous avions rapatrié l’ensemble des données industrielles d’une grosse entreprise Toulousaine en environ 24 heures ; cette entreprise nous avait demandée de faire un test d’attaque (elle travaille pour la défense). Nous avons d’ailleurs dû les prévenir car ... ils n’avaient rien remarqué. Je ne pense pas un seul instant qu’un employé puisse, en 24 heures, sortir toutes les informations d’une entreprise.


  • SciFi SciFi 28 novembre 2008 14:48

    Comme le précise l’article, la véritable révolution consiste en la démocratisation de l’accès aux infrastructures de calcul.

    Le concept n’est effectivement pas nouveau, comme c’est d’ailleurs le cas de beaucoup de techniques et de méthodes informatiques, mais ce type de technologie est désormais mûr pour qu’une entreprise puisse effectivement en envisager l’emploi, même si elle est de petite taille. Il ne s’agit pas seulement de matériel plus performant ; c’est aussi le fruit de techniques de virtualisation plus abouties.

    Il est vrai que l’offre de puissance de calcul dématérialisée, associée à celle de logiciels en ligne, permet une réduction des coûts intéressante pour les entreprises tant que la logique métier ne sort pas de ces dernières. Dès lors que des aspects métier confidentiels sont embarqués dans les applications, il reste toujours la possibilité d’utiliser le clustering dans l’entreprise, comme le fait remarquer parpaillot.

    Les conséquences sont également bien analysées. Il y a effectivement des emplois d’exploitants détruits, mais cela était déjà le cas avec les offres clusterisées. Les entreprises correctes (j’en connais une qui l’a fait) forment leurs anciens exploitants à un autre métier de l’entreprise.

    La grosse problématique restante est celle de la sécurité. Ok pour utiliser de la puissance de calcul ou de la bureautique en ligne, mais personnellement, je suis très réticent au dépôt de documents ou données confidentiels chez Google ou Microsoft. 

    Sur cet aspect, il faut être clair : il est désormais impossible de le résoudre de façon certaine, justement en raison du cloud computing. Le chiffrement de données est une guerre continue entre la complexité d’un code et la puissance de calcul qui permettra de le briser. De nouveaux modèles de sécurité restent à trouver.


    • Marc Bruxman 28 novembre 2008 16:13

      Attention ne confondez pas virtualisation et "cloud". 

      Le cloud consiste à rendre transparent la distribution d’une application unique sur N machines. La virtualisation vous permet au contraire de faire tourner N application sur une machine. 

      Bien sur le cloud va finir par utiliser aussi de la virtualisation (de façon différente) afin de gérer le provisionning. 

      Et le gros apport du cloud c’est de rendre transparente cette distribution vis à vis du développeur de logiciel. Il faut avoir eu à développer de telles applications en mode artisanal pour s’appercevoir à quel point c’est une avancée majeure.


    • SciFi SciFi 28 novembre 2008 17:11

      "Le cloud consiste à rendre transparente la distribution d’une application unique sur N machines" : c’est bien de la virtualisation de ressources réparties, qui deviennent abstraites (je suppose que par distribution vous voulez dire exécution et non dépôt). C’est aussi ce qui est contenu dans la métaphore sur les centrales électriques à laquelle vous vous référez. Et heureusement, car sinon ce serait un enfer à l’utilisation. L’exemple cité par Gecko (Seti) est aussi un exemple d’architecture de calcul répartie.

      "La virtualisation vous permet au contraire de faire tourner N applications sur une machine" : en fait au sens où je l’entendais, exécution sur une ferme de serveurs dont l’architecture d’exploitation n’est plus figée comme dans le passé, mais au contraire évolutive en fonction des besoins. Du point de vue de l’utilisateur, il s’agit d’une seule machine.

      La machine virtuelle (VMWare simuler les systèmes ou Java pour l’exécution de code indépendant de la machine) est un autre type de virtualisation.

      Sur tous les exemples que je viens de citer, on retrouve toujours la même notion : au lieu d’adresser des ressources physiques localisées (matériels, systèmes, logiciels), on passe par une interface abstraite qui pilote une infrastructure dépendante des moyens physiques utilisés.


  • philou 28 novembre 2008 14:53

    "Le cloud computing au contraire rend le matériel transparent"

    Pour les gens qui font de la R&D et ont besoin d’une grosse puissance de calcul, le matériel utilisé ne peut pas être une question secondaire. L’optimisation du code pour tirer le meilleur rendement du matériel est quelque chose de très important.
    Sans parler des problèmes de compatibilité entre architectures, systèmes d’exploitation, etc... A moins d’utiliser un langage "universel" comme Java, et encore une fois, le rendement sera moins bon de toutes façons.


    • SciFi SciFi 28 novembre 2008 17:35

      @philou

      Quelle que soit la puissance de votre machine, cette puissance restera inférieure à celle d’un réseau de machines. Les gens qui font de la R&D s’appuieront sur l’infrastructure offerte pour utiliser ce réseau de façon transparente. Le code ne sera pas optimisé pour une machine physique donnée, mais la puissance du réseau compense plus que largement cet inconvénient.


  • Marc Bruxman 28 novembre 2008 16:11

    Merci pour vos commentaires. Plusieurs remarques :

    • La révolution est effectivement plus technique que conceptuelle. Mais c’est souvent le cas. On parlait de réseau mondial d’ordinateurs bien avant la "révolution internet". Ce qui est important c’est que cela devienne possible et donc réel. Par ailleurs des applications comme Seti@Home étaient développées spécifiquement en prenant en compte le "cluster" qui allait l’héberger. La grande nouveauté du "cloud computing" c’est que l’on développe un système par dessus lequel les applications sont crées de façons transparentes et sont isolées de tout l’aspect technique. 
    • Concernant la sécurité il s’agit la comme je l’ai dit plus haut du plus gros problème. Et il y a de vrais réticences sur ce point, parfois justifiées, parfois non. Mais au dela de l’aspect technique vous confiez déja votre trésorerie à une ou plusieurs banques et rien que votre relevé bancaire serait très intéréssant pour vos concurrents. Et aucun des fournisseurs de "cloud" n’aura intérêt à ce qu’un scandale de confidentialité n’éclate car cela ruinerait leur business model. (Sans compter les dommages et intérêts colossaux). Pour ce qui est de la cryptographie, on sait faire des codes qui sont très difficiles à cracker par le commun des mortels. L’essentiel est que le coût de cassage du code soit supérieur à la valeur des informations chiffrées. 
    • Concernant la mise en transparence de la technique (Philou) je répondrai que l’on entends la même chose à chaque fois que l’industrie informatique franchit une étape. Les plus vieux trouvaient que l’on ne pouvait pas coder autrement qu’en Assembleur, puis que laisser gérer la mémoire par le systéme d’exploitation était une perte de performance et une hérésie, puis que la gestion automatique de la mémoire était une hérésie, etc, etc, ... Or l’expérience a montrée que simplifier le développement permet à l’humain (à compétence égale) de faire moins d’erreurs et une partie de la perte brute de performance est regagnée par une meilleure conception. Et on regagne souvent comme cela ce qui se perd de l’autre coté. Prenez le Java. Ce langage a la réputation d’être lent parce que à ces débuts, on mettait les plus mauvais programmeurs dessus ou que l’on ne prenait pas le temps de former. Mais si vous prenez un programmeur bien formé et que vous le mettez sur une application complexe, la perte de performance sera de seulement 5 à 10% par rapport au C++. Ce qui est largement amorti par la loi de moore. Et puis le mauvais programmeur qui fait du Java, si vous lui aviez donné un compilo C++ en main je ne vous explique même pas le désastre. Je ne dis pas qu’il ne reste pas des cas ou un codage à l’ancienne même en assembleur n’est pas indispensable. Mais cela concerne un très faible pourcentage des développements. 
    Après comme le montrent certains posts, il y a visiblement une barrière à franchir pour que les utilisateurs l’acceptent. Mais la même barrière a existé du coté d’internet (je me souviens l’air halluciné de mes parents la première fois que je leur ai montré le jouet ou encore les grandes peurs liées aux fraudes à la CB) et tout s’est résolu. 

    Il faut bien voir que comme toute nouvelle techno, le développement prendra dix bonnes années à la fois pour l’aspect technique mais aussi pour que les gens l’acceptent et se l’approprient. 


    • SciFi SciFi 28 novembre 2008 18:03

      "Mais au dela de l’aspect technique vous confiez déja votre trésorerie à une ou plusieurs banques et rien que votre relevé bancaire serait très intéréssant pour vos concurrents. Et aucun des fournisseurs de "cloud" n’aura intérêt à ce qu’un scandale de confidentialité n’éclate car cela ruinerait leur business model."

      Justement, l’exemple que vous citez est intéressant. Il y a quelques années, American Express avait revendu à des sociétés les habitudes de consommation de ses usagers et s’est faite épingler pour cela.


    • geko 28 novembre 2008 18:13

      " Par ailleurs des applications comme Seti@Home étaient développées spécifiquement en prenant en compte le "cluster" qui allait l’héberger"

      Je ne voudrais pas dire de bêtise mais Seti@Home pour Boinc
      (Berkeley Open Infrastructure for Network Computing) est Open Source depuis 2003. Boinc est une plateforme multi-projets qui fonctionne comme un portail de calcul distribué proposant à chaque client d’orienter ses ressources vers tel ou tel projet !
      Sur Boinc plusieurs applications peuvent tourner de manière transparentes !

      On peut installer Boinc sur Windows ou sur linux et
      l’utiliser côté client indépendamment sous win et linux ! Vous pouvez développer des projets en java, perl ou python et surement en php. Les projets sont compilés en ajoutant un wrapper c++ !

      Loin de moi l’idée de vous embêter Mr Bruxman mais ça ressemble étrangement à ce que vous décrivez !
      J’espère que des lecteurs avertis que moi passeront par ce fil pour infirmer ou confirmer ces dires !



    • Marc Bruxman 28 novembre 2008 18:59

      A geko,

      Non nous ne parlons pas de la même chose. Je ne parles pas des serveurs individuellement mais de l’aspect réseau. 

      Exemple, vous avez 10 000 Teras de stockage répartis sur plein de machines. Vous pouvez soit écrire dans votre programme le code qui va trouver les machines individuellement et savoir ou se trouve physiquement l’information ou avoir une bibliothéque commune à plein d’applications qui fait le boulot. 

      Pour avoir une idée de à quoi peut ressembler, je vous suggére la lecture de ceci :
      http://labs.google.com/papers/mapreduce.html

      Vous verrez c’est fascinant !


    • geko 28 novembre 2008 19:13

      Merci !

      Article et commentaires interessants à lire ! Ca détend le cerveau dans tout cette ambiance politico-economico-bordellique !


    • Christophe Christophe 28 novembre 2008 20:56

      @Marc Bruxman,

      Concernant la sécurité il s’agit la comme je l’ai dit plus haut du plus gros problème. Et il y a de vrais réticences sur ce point, parfois justifiées, parfois non. Mais au dela de l’aspect technique vous confiez déja votre trésorerie à une ou plusieurs banques et rien que votre relevé bancaire serait très intéréssant pour vos concurrents. Et aucun des fournisseurs de "cloud" n’aura intérêt à ce qu’un scandale de confidentialité n’éclate car cela ruinerait leur business model. (Sans compter les dommages et intérêts colossaux). Pour ce qui est de la cryptographie, on sait faire des codes qui sont très difficiles à cracker par le commun des mortels. L’essentiel est que le coût de cassage du code soit supérieur à la valeur des informations chiffrées.

      Votre exemple est peu pertinent au regard des informations stratégiques d’une société. Par ailleurs, votre relevé bancaire ne peut être distribué que par votre banquier ou vous mêmes ; alors que sur une connection internet, il n’existe aucune protection fiable permettant de sécuriser l’information, du moins pour des spécialistes qui pourraient avoir envie de mener des actions malveillantes.

      Par ailleurs, la sécurité est d’autant plus complexe à résoudre quand vous avez différents serveurs accessibles par x postes. Vous devez assurer la sécurité de chaque poste, de chaque serveur et ensuite de l’ensemble. Tous spécialiste de la sécurité sait que même si chaque élément d’un réseau est considéré comme sûr, cela ne signifie pas que le réseau l’est.

      Quant à la cryptographie, ce n’est pas d’un grand secours en matière de sécurité ; du moins, si vous n’avez pas des changements fréquent de l’algorythme de cryptage. Par exemple, pour les conversations militaires sensibles, le cryptage est renouvelé toutes les deux heures.

      Question sécurité, il faut se remémorer les causes des problématiques posées : l’isolement assure la sécurité, le partage des données introduit la suspicion, le partage des programmes introduit le risque de chevaux de Troie.

      Le plus gros problème posé sera lié aux modes de fonctionnement des serveurs ; y aura-t-il chargement des données en mémoire pour transfert vers un bus en charge de la sortie. Comme la mémoire n’est pas sécurisée, et le port d’entrée/sortie non plus, le réseau internet non plus, ce ne sont pas des risques, c’est une passoire. Sauf à poser comme contrainte que le matériel utilisé pour les serveurs est un matériel sécurisé (mémoire partitionnée et sécurisée, ...)


    • Marc Bruxman 29 novembre 2008 01:04


      Votre exemple est peu pertinent au regard des informations stratégiques d’une société. Par ailleurs, votre relevé bancaire ne peut être distribué que par votre banquier ou vous mêmes ; alors que sur une connection internet, il n’existe aucune protection fiable permettant de sécuriser l’information, du moins pour des spécialistes qui pourraient avoir envie de mener des actions malveillantes.


      Si la cryptographie ! Je vous assure, chiffrer correctement on sait faire et si personne ne comet d’imprudence (le facteur est surtout humain) avec les bons algorithmes c’est suffisamment béton pour résister à presque n’importe quel organisme privé. Je ne vous dit pas que la NSA n’arrivera pas à décrypter vos données (peut être qu’elle le peut on ne sait pas), mais c’est hors de portée du pirate moyen. 

      Cela me fait toujours marrer cette fascination pour la sniffette sur le réseau internet alors qu’il est beaucoup moins cher et difficile d’envoyer des cambrioleurs piquer les PC. Le gouvernement australien s’est fait voler des données très sensibles et vous savez comment les mecs s’y sont pris ? Ils sont arrivés au datacenter avec un camion ont présentés un faux papier officiel disant qu’ils déménagaient les serveurs sur ordre du gouvernement puis ils sont repartis avec. La plupart des affaires de vol de données sérieuses se passent soit par un vol physique soit par social engineering. C’est souvent plus simple, moins risqué et moins cher que de péter une clé de cryptage 1024 bits ;)

      Je vous le fait autrement sinon, une bête femme de ménage équipée d’une clé USB et dans la plupart des boites vous repartez avec les données. Ou un mec en bleu de travail déguisé en technicien de maintenance France Telecom enfin bon les bonnes vieilles méthodes d’espionnage industriel qui n’ont pas vraiment changées. 

      Quant à la cryptographie, ce n’est pas d’un grand secours en matière de sécurité ; du moins, si vous n’avez pas des changements fréquent de l’algorythme de cryptage. Par exemple, pour les conversations militaires sensibles, le cryptage est renouvelé toutes les deux heures.

      La clé est renouvellée pas l’algo de cryptage (ou alors il est changé parmis n algorithmes) et cela ne pose pas de problème à implémenter même sur des communications civiles. D’ailleurs certaines chaines de télévision cryptées utilisent cette technique, nul besoin d’aller chercher chez les militaires. 

      Le plus gros problème posé sera lié aux modes de fonctionnement des serveurs ; y aura-t-il chargement des données en mémoire pour transfert vers un bus en charge de la sortie. Comme la mémoire n’est pas sécurisée, et le port d’entrée/sortie non plus, le réseau internet non plus, ce ne sont pas des risques, c’est une passoire. Sauf à poser comme contrainte que le matériel utilisé pour les serveurs est un matériel sécurisé (mémoire partitionnée et sécurisée, ...)

      La sécurisation de la mémoire est plus ou moins gérée par les systèmes d’exploitation modernes, si vous parlez de droits d’accès. Le problème se pose si un pirate parvient à prendre les droits d’administrateurs ce qui ne doit pas arriver. 

      Vous allez me dire et si ca arrive ? Bah vu que la clé de décryptage sera elle même en mémoire vous l’avez dans le cul même si vous avez crypté avec un algo de la mort qui tue. Y’a plus qu’à dumper la ram comme un vieux porc et un spécialiste parviendra à faire une analyse post-mortem efficace des data. De même pour les disques, le cryptage des disques durs ne protége pas contre une intrusion logicielle. 

      Pourquoi ces cryptages de disque dur et de RAM alors ? Pour les intrustions physiques ! Pour le disque dur ca se comprend et c’est bien en cas de vol de portable. 

      Pour la RAM c’est de la branlette. Des chercheurs ont effectivement montrés que si l’on abaisse énormément la température de la pièce, coupe le courant brutalement démonte le PC en speed et refous la RAM sur un slot conçu pour on parviennt à la lire car elle n’est pas complétement déchargée électriquement. Mais bon, on va dire que cette attaque est en pratique très difficile à mener. 



    • Christophe Christophe 29 novembre 2008 11:30

      @Marc Bruxman,

      Pour la RAM c’est de la branlette. Des chercheurs ont effectivement montrés que si l’on abaisse énormément la température de la pièce, coupe le courant brutalement démonte le PC en speed et refous la RAM sur un slot conçu pour on parviennt à la lire car elle n’est pas complétement déchargée électriquement. Mais bon, on va dire que cette attaque est en pratique très difficile à mener.

      Pourquoi parlez-vous d’abaissement de température, coupure de courant, ... ?

      Vous dites bien dans votre article qu’il peut être nécessaire de faire usage de la ou les puisances de calculs de un ou différents serveurs.

      Qu’en est-il des accès concurrent à un même serveur ? N’y aura-t-il qu’un et un seul utilisateur en capacité de réaliser ses calculs sur le ou les serveurs ? Je n’en verrais pas l’intérêt.

      Profiter, en "simultané" de la puissance de calcul d’un serveur signifie plusieurs processus en fonctionnement donc chargés en mémoire. Il suffit d’avoir un des processus qui permette d’aller lire le contenu de la mémoire (c’est assez facile à programmer) pour récupérer tout le contenu. Il est aussi simple d’aller lire le contenu des ports d’entrée/sortie et de tout composant matériel.

      Même si il existe un minimum de sécurité informatique, les lacunes de sécurité techniques sont couvertes par des contrôles administratifs ; aucun système actuel ne repose que sur une sécurité technique ; du moins pour ceux qui veulent se protéger. Je vous renvoie au livre au livre orange (américain) et au TCSEC (européen). Les contrôles administratifs permettent d’éviter qu’un agent malveillant accède aux faille du matériel (le coût d’un matériel sécurisé étant très élevé, le matériel n’est pas sécurisé). Beaucoup d’informaticiens font cette erreur, ils connaissent le principe de couches successives applicables à l’informatique (Système opératoire, SGBD, Applications) mais omettent souvent que la première couche est matériel (remarquez, beaucoup d’informaticiens ne savent pas comment fonctionne matériellement un ordinateur). C’est pourtant le point le plus faible d’un système, voire M. Gasser dans building a secure computer system : computer acces control and system design, Van Nostrand Reinhold, 1988. D’autres, parmi les chercheurs, posent l’hypothèse que le matériel est une "boite noire", cela simplifie énormément les approches sécuritaires des systèmes informatiques ; mais leurs conclusions ne signifie pas que le système est sûr, il n’est sûr que si la boîte noire l’est et ce n’est que très rarement le cas.


  • Hecatonchire 28 novembre 2008 17:04

    ahem...
    Me méfie toujours des articles qui commencent par "révolution ceci, révolution cela"
    Cet article n’est pas différent, l’auteur semble découvrir le "travail distribué". D’autres intervenants ont beau lui dire que ça existe depuis l’invention de l’informatique, il insiste le bougre...
    Si c’est juste pour dire qu’on a fait des progrès en la matière et que de plus en plus de frameworks sont disponibles, qui simplifient le travail des programmeurs, alors là non plus ce n’est pas une révolution mais une lente progression.

    Accessoirement je me demande si vous savez vraiment de quoi vous parlez.
    Parce que l’affirmation suivante est tout simplement ridicule :

    "Prenez le Java. Ce langage a la réputation d’être lent parce que à ces débuts, on mettait les plus mauvais programmeurs dessus ou que l’on ne prenait pas le temps de former. Mais si vous prenez un programmeur bien formé et que vous le mettez sur une application complexe, la perte de performance sera de seulement 5 à 10% par rapport au C++. Ce qui est largement amorti par la loi de moore. Et puis le mauvais programmeur qui fait du Java, si vous lui aviez donné un compilo C++ en main je ne vous explique même pas le désastre. Je ne dis pas qu’il ne reste pas des cas ou un codage à l’ancienne même en assembleur n’est pas indispensable. Mais cela concerne un très faible pourcentage des développements
    "
    A qualité égale de programmeur , Il n’y a absolument aucune chance qu’un programme en langage interprété soit seulement 5 ou 10% plus lent qu’avec un langage compilé comme le c++.
    Le rapport est plutôt de 10 à 100 fois plus lent. Je ne vais même pas essayer de vous expliquer pourquoi je perdrais mon temps.


    Bref c’est du grand n’importe quoi et ça confirme ma première impression, vous parlez de choses qui vous dépassent.





    • Marc Bruxman 28 novembre 2008 17:30


      A qualité égale de programmeur , Il n’y a absolument aucune chance qu’un programme en langage interprété soit seulement 5 ou 10% plus lent qu’avec un langage compilé comme le c++.
      Le rapport est plutôt de 10 à 100 fois plus lent. Je ne vais même pas essayer de vous expliquer pourquoi je perdrais mon temps.


      Bref c’est du grand n’importe quoi et ça confirme ma première impression, vous parlez de choses qui vous dépassent.


      C’est vous qui parlez de choses qui vous dépassent. Le JAVA n’est pas un langage interprété mais un langage qui tourne dans une machine virtuelle. Vous n’avez donc pas le coût du parsing et de l’analyse sémantique à l’exécution. Déja c’est ca de fait. Par ailleurs, une partie des optimisations ont également lieu lors de la génération du bytecode. 

      Par ailleurs, la plupart des langages bytecodés utilisent un JIT (http://en.wikipedia.org/wiki/Just-in-time_compilation). Je vous laisse la page wikipedia de cette technologie pour que vous puissiez parler en étant moins ignorant. Je cite donc l’article :
      "
      JIT code generally offers far better performance than interpreters. In addition, it can in some or many cases offer better performance than static compilation, as many optimizations are only feasible at run-time : ...". Il y a toutes les explications dans l’article wikipedia et vous pourrez en trouver d’autres dans tout bon bouquin traitant du sujet. 

      Ce que vous dites était vrai dans les années 80. Si vos cours d’informatique datent des années 80, je vous suggére donc un retour à l’école qui vous évitera de polluer le fil en racontant n’importe quoi. 

      Par ailleurs et pour parler du cas spécifique de Java, voici un lien qui vous apportera des précisions :
      http://en.wikipedia.org/wiki/Java_performance

      Et dont je cite un extrait :
      "
      Java is often Just-in-time compiled at runtime by the Java Virtual Machine, but may also be compiled ahead-of-time, just like C or C++. When Just-in-time compiled, its performance is generally : [10]

      • lower than the performance of compiled languages as C or C++, but not significantly for most tasks,
      • close to other Just-in-time compiled languages such as C#,
      • much better than languages without an effective native-code compiler (JIT or AOT), such as Perl, Ruby, PHP and Python.[25]"
      Ah oui ! "not significantly for most tasks" (5 à 10% doit rentrer dans cette catégorie non ?). Par ailleurs, la page en question vous donnera toutes les explications techniques nécéssaire pour comprendre pourquoi l’informatique a fait des progrès et pourquoi les langages évoluent sans pour autant sacrifier les perfos. 


    • SciFi SciFi 28 novembre 2008 18:16

      @hecatonchire

      Sur la comparaison C++ vs Java, Marc Bruxman a parfaitement raison : on ne verra pas de différence sensible à l’exécution sur des machines actuelles "pour la plupart des utilisations" et si l’on prend la peine d’optimiser le code.

      Il est regrettable de voir que l’optimisation de programme (algorithmique et techniques informatiques) disparait de plus en plus des formations.
      Maintenant, si l’on doit réaliser une application de calcul massif, il est évident que l’on ne s’orientera pas vers Java. Il reste toujours la possibilité d’avoir des routines dédiées au calcul écrites dans le langage adéquat appelés au travers d’un programme écrit dans un autre langage.


    • Marc Bruxman 28 novembre 2008 18:56

      Et au passage, une des choses qui fait que la plupart des programmeurs qui viennent du C++ ont l’impression que le java c’est de la merde c’est parce que si le langage a la même syntaxe que le C++, il est faux de croire qu’il n’est pas différent. 

      Coder rapidement un programme en Java comme on l’aurait fait en C++ est le meilleur moyen d’obtenir un programme lent et peu performant. Il faut apprendre, et cela prend du temps. Mais si on écrit le programme en le pensant correctement pour Java, alors on obtient de bonnes performances. 

      Autre chose, Java a été de la merde. Les premiéres versions étaient de la vrai saloperie ca c’est vrai. Mais tout ca a énormément évolué. 



    • Hecatonchire 28 novembre 2008 19:01

      Merci mais je sais exactement ce qu’est une machine virtuelle pour en avoir déjà codée moi même.
      Machine virtuelle = interprété.
      Tout ce qui n’est pas directement executé par le processeur (donc traduit en code machine) est dit "interprété".
      Le fait qu’on économise ou pas la phase de tokenisation à partir d’un langage source ne change rien à l’affaire, c’est de toute façon plus lent.
      l’utilisation d’un compilo JIT n’est pas aussi performante qu’une "compile statique" ou l’ont peut faire varier les options de compilation à volonté.
      A cela il faut evidemment rajouter le temps de compilation temps réel (qui est loin d’être négligeable).

      Donc j’insiste java est beaucoup plus lent (même en JIT) et c’est tout à fait normal quand on comprend un minimum comment ça fonctionne.
       
      Maintenant il se peut que vous ne voyez pas la différence dans vos applis pour la simple et bonne raison que 90% du temps d’exécution d’une application classique se passe en communication avec l’OS et les autres ressources. Mais en temps d’execution machine, un programme compilé qui ne fait que manipuler la mémoire est evidemment infiniment plus rapide (et ce n’est pas négociable).

      Ainsi, raconter que java est instrinsèquement presque aussi rapide que du compilé natif sous prétexte que ça se voit pas sur des OS chronovore à la windows, c’est que vous n’avez pas bien compris à quoi sert un compilo (allez dire ça aux gars de l’embarqué ils vous riront au nez).



    • Marc Bruxman 29 novembre 2008 01:41

      							

      															
      							
      								Merci mais je sais exactement ce qu’est une machine virtuelle pour en avoir déjà codée moi même.
      Machine virtuelle = interprété.

      Bizarrement pourtant tout le monde fait cette différence dans l’industrie. 
      Que vous ayez codé une machine virtuelle soit. C’est un exo classique en école d’ingénieur. Je crois même savoir d’ou vous venez à lire votre post. Donc vous avez codé votre "corewar" ou un projet similaire destiné à vous montrer comment on peut faire une machine virtuelle. C’est bien. Mais avoir fait un projet scolaire quelle que soit votre note à ce projet ne vous donne pas la connaissance du fonctionnement d’une VM dans l’industrie. Ce projet a un but pédagogique, mais techniquement il est à des années lumiéres d’une VM comme celle de Java. 

      Le fait qu’on économise ou pas la phase de tokenisation à partir d’un langage source ne change rien à l’affaire, c’est de toute façon plus lent.

      Y’a pas que la tokenisation que vous économisez ! Je vous ai parlé de parsing et comme beaucoup d’étudiants vous confondez allégrement l’analyse syntaxique et l’analyse lexicale. 

      Par ailleurs, vous négligez que la phase de compilation et/ou d’interprétation du langage ne correspond pas seulement à une traduction vers le langage machine mais comprend une phase d’optimisation. Et que si certaines optimisations peuvent se faire de façon statique (ce qui sied à du code compilé), d’autres ne peuvent se faire que dynamiquement (à l’exécution). Et c’est pour cela qu’il existe des cas ou votre compilo JIT mais une raclée à votre code en C++ pourtant correct du point de vue de l’écriture. Ce qui veut dire que non un code JIT peut être plus rapide qu’un code C++ (cf les liens Wikipedia que je vous ai donné plus haut) et que toutes les études universitaires l’ont prouvées. Et qu’en moyenne la différence de vitesse ne sera pas énorme. 

      l’utilisation d’un compilo JIT n’est pas aussi performante qu’une "compile statique" ou l’ont peut faire varier les options de compilation à volonté.

      Vous pouvez aussi faire varier les options de votre VM et je vous encourage d’ailleurs vivement à le faire si vous voulez des perfos. Parce que forcément si vous utilisez la VM Sun de base sans la tuner, oui ce n’est probablement pas gagné. (C’est un peu comme laisser le -g et oublier les -O quand vous compilez avec gcc hein !). 

      A cela il faut evidemment rajouter le temps de compilation temps réel (qui est loin d’être négligeable).

      Oui ce surcoût existe je ne le nie pas et il est en grande partie compensé par les optimisations dynamiques du JIT que vous semblez ne pas connaitre. Vous semblez ne pas encore maitriser correctement la différence entre les aspects dynamiques et statiques d’un langage de programmation. Si vous venez bien de l’école que je pense, et que vous êtes en premiére année ce n’est pas très grave, vous avez tout le temps d’apprendre. Je ne peux que vous suggérer de regarder :
      • Le mécanisme des templates en C++ et leur utilisation pour faire de la métaprogrammation. (Allez voir le labo de l’école d’en face, ils pourront vous montrer ce qu’ils font avec). Je ne parles pas ici de la simple utilisation des templates pour faire de la généricité mais bel et bien de leur utilisation pour faire de la métaprog’. Enfin bon au passage posez vous les questions sur la différence entre l’approche statique (template) de la généricité et l’approche dynamique (on dérive tout de java.lang.object) de la généricité. Cela vous ouvrira des pistes de réflexion intéréssantes. 
      • Des langages vraiment dynamiques comme le Ruby (pour le coup effectivements assez lent). Regardez les mécanismes d’introspection et demandez vous comment vous auriez codé l’équivalent en C++. 
      Maintenant il se peut que vous ne voyez pas la différence dans vos applis pour la simple et bonne raison que 90% du temps d’exécution d’une application classique se passe en communication avec l’OS et les autres ressources. Mais en temps d’execution machine, un programme compilé qui ne fait que manipuler la mémoire est evidemment infiniment plus rapide (et ce n’est pas négociable).

      Vous paraissez bien sur de vous. Cela ne sera pas un mal pour votre future vie professionelle (il faut savoir être convainquant) mais vous gagneriez à ne pas avoir de religion en matière de technologie. A ce que je comprend de votre formation (vous êtes en Epitech 1 ou 2 non ?) votre erreur n’est pas extrémement grave et elle est très courante à ce stade de votre formation. Ne vous enfermez pas la dedans. Aussi étrange que cela paraisse, on sait maintenant faire de bons JIT et de bons garbage collector.

      Ainsi, raconter que java est instrinsèquement presque aussi rapide que du compilé natif sous prétexte que ça se voit pas sur des OS chronovore à la windows, c’est que vous n’avez pas bien compris à quoi sert un compilo (allez dire ça aux gars de l’embarqué ils vous riront au nez).

      Il y a d’autres raisons pour lesquelles on n’utilise pas ce genre de langages dans l’embarqué ou plus exactement pour les applications temps réel (parce que beaucoup de téléphones portables utilisent java et donc que votre remarque est fausse. Il y a également des cartes à puces et divers autres gadgets). Si vous voulez la vrai raison pour laquelle Java n’est pas utilisée dans l’informatique temps réelle, je vous suggére ce lien :
      http://en.wikipedia.org/wiki/Real_time_Java

      Ah oui et puis quand même un dernier petit lien pour la forme :
      http://www.ece.arizona.edu/ embedded/Research/JITFPGA
      (Ca parle de JIT mais pas de Java et je suis sur que cela pourra attirer votre attention). 


  • L'enfoiré L’enfoiré 28 novembre 2008 19:08

     @L’auteur,

    Informaticien depuis 40 ans, j’ai écrit mon "eBook" sur le sujet. Je l’ai appelé "La Grande Gaufre" (disponible dans l’URL). Histoire par les machines et surtout par les hommes. 14ème tableau à paraître dimanche. Le 15ème et dernier fera référence à cet article.
    Je les ai toutes vus passer, les folies de l’informatique.
    On est passé de l’age d’or à celui du fer.
    Beaucoup de choses à dire et je n’ai relevé qu’une bonne dizaine d’années, suite à un bouquin "La Grande Trappe".
    Merci, pour cet épisode. 


  • Bernard Dugué Bernard Dugué 28 novembre 2008 21:37

    Bonsoir Marc,

    intéressant billet de prospective, qui décrit quelques transformations pour le monde de l’entreprise, une de plus, après l’électricité, les machines IBM à cartes perforées, les système informatiques intégrés, les PC personnalisés, le Web...

    Cela dit, je n’ai pas changé d’avis, j’apprécie de voir pousser mes hibiscus, d’ailleurs je les ai rentrés, et puis, j’aime tj autant ma compagne et j’écoute avec un plaisir éternel Opeth, Nightwish ou Katchaturian. A vrai dire, je crois que la technologie n’apporte plus grand chose à l’humanité.


    • Marc Bruxman 29 novembre 2008 01:47


      Cela dit, je n’ai pas changé d’avis, j’apprécie de voir pousser mes hibiscus, d’ailleurs je les ai rentrés, et puis, j’aime tj autant ma compagne et j’écoute avec un plaisir éternel Opeth, Nightwish ou Katchaturian. A vrai dire, je crois que la technologie n’apporte plus grand chose à l’humanité.

      Hum... Bien sur la famille passe avant tout, et il y a des distractions en dehors du boulot :)

      Mais dire que la techno n’apporte plus grand chose à l’humanité est surement faux. Vous utilisez d’ailleurs vous même internet pour parler. 

      Et en terme d’art, allez voir le dernier spectacle de Philippe Découfflé qui a utilisé ingénieusement la vidéo et les ombres chinoises dans sa chorégraphie. Clairement un moment magique :)


  • Céline Ertalif Céline Ertalif 28 novembre 2008 21:44

    Bonsoir,

    Je ne voudrais pas dire de Bessonnerie, mais ce qui est un peu bizarre avec cet article, c’est qu’il ne fait pas la moindre allusion au problème d’infrastructure réseau. Or, le partage de capacités informatiques est une évidence à condition que les infrastructures permettent le transport des données. J’ai lu - aujourd’hui même - qu’il faudrait 10 milliads d’euros pour connecter 75% des résidents en fibre (FTTH) et qu’on ne sait pas où les trouver !


    • Bernard Dugué Bernard Dugué 28 novembre 2008 22:10

      Mais est-ce important ces connections machin avec 10 milliards, quand des gens crèvent dans la rue

      donnez moi votre avis Cécile, je ne veux pas penser que... les citoyens oublient les SDF et les pauvres, préférant se préoccuper de systèmes qui peut-être, risquent d’asservir encore plus l’humanité. Vous m’effrayez Cécile, bien plus que Carla Bruni qui n’a aucun impact sur les technologies du futur. Au fait, les fibres, vous en vivez j’imagine, alors vous avez raison, défendez les, un peu de lobbysme ne fait pas de mal


    • Céline Ertalif Céline Ertalif 28 novembre 2008 22:21

      Je n’en vis pas du tout ! Non, non, je m’étonne simplement que la question de la cohérence entre le modèle cloud computing et l’infrastructure en fibre ne soit pas évoquée, c’est tout.

      Je ne vois pas pourquoi on rapporterait cette question d’investissement au luxe. A ce compte-là, il serait sans doute plus urgent de bombarder la rue Montaigne ou même l’allée de Tourny. Le sujet, c’est plutôt que l’Etat semble totalement incapable de penser investissement d’infrastructures publiques et refilent le bébé aux collectivités locales qui n’ont pas la surface financière ni l’autonomie juridique suffisantes.


    • Marc Bruxman 29 novembre 2008 02:25


      Je ne voudrais pas dire de Bessonnerie, mais ce qui est un peu bizarre avec cet article, c’est qu’il ne fait pas la moindre allusion au problème d’infrastructure réseau.

      Le problème existe effectivement vous avez raison. Mais je ne peux pas tout aborder car il y aurait de quoi écrire un bouquin sur le sujet. 

      Mais briévement non ce n’est pas vraiment un problème car :

      • Une partie des bénéfices du cloud concerne les gros sites internet et la façon de les créer, et donc les besoins d’infrastructure sont au coeur du réseau et la il n’y a pas vraiment de problèmes de bande passante. 
      • Les entreprises ont déja accès à des offres de fibres optiques qui sont certes chères (environ 2000 € mensuels sur paris intra-muros) mais extrémement fiables (rien à voir avec une freebox) et rapides (ce n’est pas bridé à 100 Mo). Ce qui permet de faire démarrer le business pour les entreprises les plus demandeuses en matière de cloud (et les plus a même d’essuyer les platres car les premières expériences ne seront pas sans problèmes). Cela laisse le temps au déploiement du réseau de se faire pendant ce temps. 
      Or, le partage de capacités informatiques est une évidence à condition que les infrastructures permettent le transport des données. J’ai lu - aujourd’hui même - qu’il faudrait 10 milliads d’euros pour connecter 75% des résidents en fibre (FTTH) et qu’on ne sait pas où les trouver !

      10 milliards ? Ce n’est pas du tout un problème. La somme parait grosse mais, on va la mettre en perspective. 

      Prenez un retour sur investissement à 20 ans ce qui n’est pas aberrant pour un projet d’infrastructure : Allez hop, avec un taux d’intérêt de 6% cela fait environ 17 milliards à lisser. (J’ai simulé avec un prêt amorti, un financier ferait probablement un meilleur montage, maiis on s’en fout). 

      Pourquoi on s’en fout ? Parce que cela fait donc 850 millions d’euros par an sur 20 ans. Ok. 

      Donc un abonné ADSL rapporte 30 € par mois soit 360 € par an. Il faut donc environ 2 360 000 abonnés pour couvrir cette somme. Or, il y a en France plus de 14 millions d’abonnés ADSL d’après l’ARCEP. Le cout de construction de l’infra fibre est donc de 17% du CA MINIMUM (Les 30 € de base, sans aucune option) des opérateurs. Soit 5.10 € par abonnés. 

      Sachant que les FAI louent actuellement la paire de cuivre à France Telecom, une économie est réalisée une fois une zone fibrée et donc un investissement de 5.10 € par abonnés est en réalité entiérement couvert par l’annulation de la redevance qu’il fallait payer à FT. Et cela explique toute la bataille juridique qu’il y a actuellement sur le marché de la fibre et notamment les problèmes de location entre opérateurs. 

      Bref je ne me fais pas de soucis pour l’atteinte de ce 75% de la population. L’opération est quasiment payée par le démantellement de l’ancienne France Telecom qui devient une coquille vide au profit d’Orange. Les 25% restants, probablement non rentables, risquent d’être plus handicapés


    • Céline Ertalif Céline Ertalif 29 novembre 2008 11:53

      Je suis bien d’accord avec ce que vous dites sur les 10 milliards, ce qui aberrant c’est qu’on ne cherche même pas vraiment à les trouver... Le problème le plus sensible aujourd’hui c’est d’avancer sur la partie capillaire dans les immeubles privés.

      Sur l’autre aspect, sous parlez bien comme un parisien ! Les problèmes d’infrastructure sont à peu près résolus, donc il n’y a plus de problème... Du moment que mon problème à moi est résolu... Remarquez, c’est humain ! Plus sérieusement, je ne cherche pas à chicaner, mais ce que je veux dire c’est qu’on a toujours le même effet : ceux qui sont à la périphérie n’ont pas les mêmes moyens d’évoluer et de se développer et c’est encore plus vrai pour les petites entreprises que pour les grandes : le cloud computing ne fera que répéter un problème qui se répète sans fin. De ce point de vue, je comprends que certains commentateurs aient un peu ricaner du côté positif que vous mettez en avant au bénéfice des petites structures.

      Voir par exemple le témoignage intéressant des dirigeants d’une PME de province, les frères Lippi.



  • wesson wesson 28 novembre 2008 22:09

    Bonsoir l’auteur :

    ""cloud computing" ou en français l’informatique dans les nuages. Derrière ce nom étrange se cache une technologie qui va avoir des répercussions extrément profondes sur notre façon de travailler."

    Derrière ce nom étrange se cache le prochain attrape gogo à investisseurs, et la prochaine bulle à éclater. Il y a tout ce qu’il faut là dedans pour que le piformètre à arnaque se mette à virer au rouge. Un vieux concept retapé, des promesses de révolution, de la techno bien abstraite, et - le plus important - l’usage de la novlangue.

    Bref, tout y est pour attirer le chaland qui, comme dans tout montage de ce type, ne profitera qu’aux premiers qui se seront retirés très vite avant que l’on ne s’attaque réellement à la réalisation du concept.

    Et c’est pas le premier cas du genre !


    • Marc Bruxman 29 novembre 2008 03:10

      Bonjour,

      Vous avez à la fois raison et tort. 

      Raison parce qu’effectivement il va y avoir une bulle spéculative sur cette technologie. Et que plein d’investisseurs vont mettre de la thune dedans, puis la bulle éclatera. Le marché technologique fonctionne comme cela depuis bien avant la bulle internet. Et il a continué à produire ses bulles après. Récemment il y a eu une bulle Web 2.0 qui s’est elle aussi dégonflée. Mais la bulle internet a été la seule à toucher des investisseurs non spécialistes. Les autres bulles sont restées dans le cercle confinés des investisseurs high tech mais ont eu globalement le même fonctionnement. 

      La ou par contre vous avez tord c’est sur le résultat de ces bulles. Car chaque bulle commence par des promesses qui paraissent fumeuses mais magiques. Puis l’argent afflue, certains investisseurs gagnent, d’autres perdent (c’est le jeu). Mais jusqu’à présent la promesse technologique s’est toujours réalisée. Reprenez les rêves de l’an 2000 : Internet partout, y compris en situation de mobilité (téléphones portable), commerce électronique et diffusion de médias en ligne. Tous ces rêves ce sont réalisés, le plus long ayant été la mobilité mais l’iphone vient globalement d’offrir ce qu’on nous promettait en 2000 sur les salons spécialisés. Je peux par contre vous dire un truc, c’est que rien de tout cela ne se serait produit si il n’y avait pas eu à un moment un afflux de fric sur le marché. 

      Et que ces mêmes investisseurs spécialisés dans le marché high tech s’étaient globalement retirés dès la fin de l’année 1999 mais la bulle avait alors trouvée un relai dans l’économie plus "classique". Les mêmes ont réinvestis dans le Web 2.0 et c’est cette fois Microsoft, Google et les autres grosses boites établies qui ont servis de porte de sortie à ces investisseurs. 

      Et le cloud computing ne sera pas différent. Il faudra des milliards d’investissement pour qu’il devienne réalité et pour cela, il faudra des investisseurs. Puis des boites vont émerger, 90% ne seront pas viables (perte sèche pour les investisseurs), 10% brilleront, sur ces 10% la plupart seront rachetés par des grosses boites du secteur technologique, et seule une toute petite poignée restera en vie. Mais à la fin, l’humanité aura gagné une technologie nouvelle.

      C’est ainsi que va le marché technologique !


    • Marc Bruxman 29 novembre 2008 15:48


      Oui, il en est encore aux rêves des années 70 : du calcul partout et pour tous, qui ne coûte rien, tout ça...
      Et puis chacun son hélicoptère, vacances sur Mars, la télé au poignet et les loisirs permanents.
      Il n’a pas compris que les grands groupes n’ont aucun intérêt à baisser les prix de cette façon enchanteresse et que donc cette utopie est et restera longtemps dans les nuages.


      Cher M. Renève,

      Vous me reprochez de penser que la technologie puisse améliorer notre quotidien. Pourtant elle améliore le mien et celui de la plupart de mes connaissances. Et si certains délires des années 70 ne sont pas devenus réalité, notez quand même que le secteur a su faire preuve d’une grande innovation et que vous n’écririez pas vos commentaire sur Agoravox aujourd’hui si il n’y avait pas eu des fous furieux pour bosser dans les années 90 sur un truc bizarre que l’on appelait Internet. A l’époque déja il y avait des sceptiques comme vous qui disaient, cela ne marchera jamais et blah et blah. Il y a ceux qui se sont amendés et ont su tirer parti de l’outil quand ils ont vu que cela marchait (les plus nombreux) et les autres qui ont finis dans les poubelles de l’histoire. Vous n’êtes visiblement pas dans cette dernière catégorie vu que vous utilisez cet outil aujourd’hui pour communiquer. 

      Le concept de "cloud computing" rentre plus ou moins dans la même catégorie : Il y a des preuves de faisabilité (ce n’est pas comme la traduction automatique) chez Google, Amazon, Facebook, dans la recherche scientifique, l’audiovisuel, etc, ... Mais chaque réalisation est pour l’instant faite "sur mesure". Le gros du boulot est donc un boulot de standardisation et consiste à transformer en produit ce qui est actuellement un service. C’est quelque chose que le secteur sait relativement bien faire pour peu qu’il trouve des capitaux. Et justement sur ce sujet précis, les investisseurs sont à l’écoute. Cela va donc se faire, même si cela prendra une dizaine d’années environ et qu’il y aura probablement une crise en millieu de cycle comme Internet l’a connu. Elle se produit généralement au moment ou la technologie a commencée à tenir ses promesses mais ou les utilisateurs ne sont pas encore prêts. Puis les premiers à avoir adopté (dans le sens utilisateur, pas développeur) la technologie en tirent un bénéfice compétitif et les autres se mettent à suivre massivement. 

      Quand à votre fantasme sur les grands groupes qui controlent tout, sachez qu’ils ne controlent en réalité pas grand chose. Les investisseurs des grands groupes industriels ne sont pas les mêmes que les investisseurs technologiques. Il y aura donc investissement dans le cloud, puis une fois la technologie disponible, ellle trouvera ses utilisateur et son prix suivant la loi de l’offre et de la demande, comme d’habitude. 

      D’ailleurs beaucoup de nos grands groupes n’ont pas gagné avec internet bien au contraire : Les médias traditionnels sont dans la merde, le secteur de la vente est durement touché par de nouveaux acteurs qui cassent les prix, le secteur de la musique est sinistré. Le gros des gagnants se situent parmis les nouveaux entrants et cela va continuer ainsi. Et le gros avantage de tout cela, c’est qu’il y a réguliérement un grand coup de pied dans la fourmilliére qui fait bouger les lignes, élimines les dinosaures et permet à de nouveaux entrants de se faire une place au soleil. Et c’est justement l’inverse de ce que vous prétendez. Le grand groupe qui croit que parce qu’il est grand rien ne peut lui arriver finit toujours à la poubelle. Demandez d’ailleurs aux salariés de GM ce qu’ils en pensent ! Ils ont ignorés une autre révolution technique, celle des moteurs qui consomment peu et il en sera bientot fini de cette vieille institution. Quelque part c’est sain. 



  • JoëlP JoëlP 29 novembre 2008 09:01

    Après la lecture de cet excellent article de vulgarisation d’un concept pas facile à expliquer, je me suis farci rapidement la longue série de commentaires.

    On retrouve bien deux catégories de voxeurs :

    - Ceux qui n’ont rien à dire sur le sujet mais que cela n’empêche quand même pas de le faire savoir.

    - Ceux qui savent tout et ont tout vu, étant donné leur grand âge, et qui pensent que "tout est dans tout et réciproquement."

    Etant dans les deux catégories, je me contenterai de dire merci pour l’article smiley


  • romi romi 30 novembre 2008 23:43


    le cloud computing c’est tentant, mais en fait c’est pas si efficace ni écolo que ça
    actuellement les spécialistes disent qu’en moyenne on ne peut pas utiliser plus de 8% réels de chaque CPU !
    donc, oui, les développeurs ont encore du boulot si on veut pas finir de consommer la planète pour calculer des prévisions météo qui sont fausses !



  • jaouaad 22 février 2010 13:56

    bonjour tout le monde ,

    je suis un étudiant dans une école d’ingénieur au Maroc ,mon projet de fin d’étude est de développer une application basant sur le concept de cloud computing ,si vous une documentation qui dirige de faire une app de cloud 

    • pirobat 2 janvier 2011 08:32

      Salam Jaouaad


      Cloud Computing est la nouvelle stratégie qui consiste à contrôler la toile du net et ses utilisateurs avec en plus l’objectif de s’approprier les données professionnelles et privées des utilisateurs.
      Jusqu’à présent nous étions des poissons qu’il fallait cibler et intercepter
      Avec cette trouvaille, nous serons des poissons qui se jetteront dans la gueule de la baleine par notre propre initiative 
      Ainsi ils n’auront plus besoin d’investir pour extorquer les informations, les données et autres ... !!!! trésors pour les quels les clients sont nombreux et diversifiés 
      Alors trouve ton chemin de façon intelligente en tenant compte de cette merde pour ne pas arracher tes cheveux par regret quelques années plus tard
      Fi amani’llah


Réagir