mardi 5 février 2008 - par Alain De Neve

Géopolitique des flops

Preuve de la prise de conscience par l’Europe de son retard dans le domaine des “supercalculateurs”, la France a récemment annoncé la conclusion d’un accord entre le CNRS (Centre national de la recherche scientifique) et la société IBM quant à l’acquisition de puissantes plates-formes de calcul. Cet épisode marque le franchissement d’une nouvelle étape dans la course aux puissances de calcul à travers la planète. Il importe, toutefois, d’indiquer que les enjeux liés à la multiplication des vitesses de travail des superordinateurs s’avèrent tout à la fois plus vastes et, paradoxalement, insuffisamment explorés.

Concrètement, la France, qui disposait « déjà » d’une capacité de calcul de 6,7 téraflops (soit 6 millions de millions d’opérations à la seconde) se hissera à une puissance de près de 207 téraflops grâce à la livraison d’un ordinateur superscalaire constitué de deux ensembles de machines : la première, Blue-Gene/P affiche une capacité de calcul de 139 téraflops, la seconde est composée de 6 machines d’une performance 68 téraflops chacune. Le contrat passé entre le CNRS et IBM porte sur un montant de près de 25 millions d’euros, somme qui intègre les frais de maintenance de l’ordre 5 millions d’euros. Loin de servir la seule quête de la connaissance scientifique, des interrogations méritent d’être posées sur l’impact de ces systèmes sur les secteurs militaire et sécuritaire.

Une progression géométrique

Si, au travers de cette acquisition nationale, l’Europe parvient à réduire l’écart qui la sépare, provisoirement des Etats-Unis dans le domaine des supercalculateurs, il importe, néanmoins, de rappeler que ces derniers demeurent en tête du top 500 des plus puissants systèmes de calcul à l’échelle planétaire. La plus récente édition de ce palmarès (novembre 2007) attestait de la supériorité acquise par les Etats-Unis dans le domaine des mastodontes cybernétiques. Blue-Gene/L, système développé de manière conjointe par IBM, le Département de l’énergie et la National Nuclear Security Administration (NNSA) affichait alors une capacité de traitement de pas moins de 478,2 téraflops, capacité portée aujourd’hui à 596 téraflops. La seconde place du classement est détenue par le Blue-Gene/P du Forschungszentrum Juelich (FZJ), basé en Allemagne et dont la capacité de calcul initialement située à 126,9 téraflops avoisine aujourd’hui les 229 téraflops. La France occupe donc, actuellement, la troisième position dans la course aux supercalculateurs.

Une domination américaine

Au-delà de l’apparente satisfaction que constitue cette acquisition européenne, trois remarques s’imposent qui permettront de placer ces chiffres abyssaux dans une perspective plus prosaïque et somme toute à dimension plus humaine pour le lecteur. Il apparaît, tout d’abord, au vu du classement mondial des supercalculateurs établi en novembre 2007, que la domination américaine demeure incontestable. Et ce sur un double plan. D’une part, les Etats-Unis disposent de la plus importance infrastructure de « superordinateurs » : 298 machines sur les 500 que compte la planète se situent sur leur territoire. D’autre part, le parc européen des supercalculateurs est pour l’essentiel... américain. IBM étant parvenu à exporter avec succès son système Blue-Gene vers la France et l’Allemagne. Ensuite, la compétition qui semble désormais engagée dans le secteur des « supercalculateurs » ne se limite plus à une « coopétition » transatlantique. Les puissances dites émergentes caressent elles aussi l’ambition de fouler les marches d’un podium très prisé. Ainsi, l’Inde a-t-elle dernièrement accueilli le système Helvett-Pachard Cluster Platform 3000 BL460C qui affiche une performance de 117,9 téraflops. Enfin, il est essentiel de souligner que les statistiques relatives au nombre et à la distribution mondiale des superordinateurs n’intègre pas dans ses chiffres les systèmes à vocation exclusivement militaire. Ceci pour des raisons de confidentialité tout à fait compréhensibles. On comprendra, dès lors, que les estimations réalisées se révèlent naturellement et inévitablement biaisées quand on sait la place qu’occupent aujourd’hui les infrastructures cybernétiques dans les systèmes militaires des principaux pays industrialisés. En effet, les supercalculateurs militaires permettent de procéder à des simulations d’une complexité extraordinaire dans le domaine de la définition des systèmes d’armes de demain. À titre d’exemple, le TERA-10 français, d’une capacité de calcul de 50 téraflops, développé par la société Bull pour les besoins de la simulation nucléaire, est détenu par la Direction des applications militaires du Commissariat à l’énergie atomique et financé par le budget militaire.

La connaissance au service de la puissance et du contrôle

Il est parfaitement entendu que cette course à la croissance des puissances de calcul ne se limite point à servir les seuls intérêts scientifiques. Certes, l’accroissement des capacités de traitement de ces plates-formes cybernétiques permet aux nations qui en disposent - et plus encore aux quelques rares puissances qui en maîtrisent parfaitement les technologies constitutives - de réaliser des avancées prodigieuses dans la connaissance de la vie et de la matière. Ce phénomène alimente, au demeurant, un débat fondamental sur les rapports entre les sciences de la vie et la technique. Plus encore, et face à la complexité croissante de nos sociétés et des interactions qui les caractérisent, il semble que le recours aux technologies avancées en matière de traitement de l’information représente désormais une tentation de plus en plus irrésistible pour les institutions et administrations désireuses d’appréhender au mieux les mutations sociales, économiques, géopolitiques et environnementales de notre planète. Elles pourraient également constituer, si nos démocraties n’y prennent point garde, les instruments de dangereuses dérives dans un contexte domestique et international gagné par le « tout technologique et sécuritaire ».

Peu d’entre nous se rappelleront, en effet, le projet de recherche militaire avancée américain « Total Information Awareness » (TIA), débuté en 2002, et dont l’objectif résidait dans la constitution d’une vaste base de données des informations privées et d’origine commerciale (en provenance des compagnies aériennes) relatives aux activités des citoyens nationaux et étrangers. Bien que le programme ait été par la suite arrêté (et réorienté vers la lutte ciblée contre le terrorisme) et ses structures réorganisées, les technologies qui y furent initiées restent en cours de développement. L’hypothèse - loin d’être fantasque - d’une combinaison des technologies de recensement avec celles des supercalculateurs actuels est de nature à susciter de légitimes interrogations.

Si la place occupée par les systèmes cybernétiques est appelée à connaître une croissance que certains qualifient d’irréversible, la réflexion stratégique - éminemment humaine - sur l’impact de telles capacités dans nos modes de perception du monde et de ses dynamiques fait l’objet d’un sous-investissement. Or les déclinaisons d’une telle puissance technique sur les équilibres sociaux, géopolitiques, sécuritaires et militaires sont multiples, voire infinies. « La connaissance, c’est le pouvoir » : tel était le slogan autrefois arboré par le programme militaire TIA. Certes, mais il revient à la connaissance de limiter les dérives du pouvoir et non au pouvoir, a fortiori lorsque celui-ci est essentiellement l’expression d’un système technicien, de brider l’expression de la connaissance.



4 réactions


  • adeline 5 février 2008 17:44

    Bonjour merci de votre article qui donne des chiffres peu connus (par moi pour le moins) n’oublions pas pourtant que les résultats d’un ordinateur quel que soit sa puissance résulte des programmes écrits à la main par des hommes , la qualité d’un programme peut impacter très fortement les temps CPU.

    Cordialement et encore d’autres articles merci à vous


    • Alain De Neve 6 février 2008 10:36

      Cher Monsieur,

      Un grand merci pour vos encouragements et vos commentaires. Vous avez raison : toute programmation logicielle est avant tout une oeuvre humaine. Toutefois, il apparaît que les moyens qui permettent aujourd’hui aux hommes de poursuivre leurs avancées dans le domaine des technologies informatiques reposent de plus en plus sur des techniques déjà existentes. On retombe, en réalité, dans un débat bien connu des philosophes des techniques sur la fracture qui existe depuis l’aube de l’humanité entre la "science contemplative" et "l’artisanat". Disons qu’actuellement cette fracture sépare le "scientifique" de l’ingénieur. Pourtant nos laboratoire, lieux de prédilection pour l’avancement de nos connaissances de la Vie, sont avant tout peuplés... d’ordinateurs. Et je ne suis pas sûr que ceux qui oeuvrent sur ces machines en connaissent le fonctionnement basique et profond. Je dirais que là se situe un risque (je vous conseille, sur ce sujet, un superbe ouvrage d’une chercheuse canadienne, Céline Lafontaine, intitulé l’Empire cybernétique, édité au Seuil (Paris), je pense).

      Bien à vous,

       

      Alain


    • Alain De Neve 6 février 2008 10:37

      Désolé. Bonjour Madame, aurais-je dû dire :)


  • Charles Bwele Charles Bwele 9 février 2008 20:24

    Mr De Neve,

    Merci pour cet article ultra-intéréssant.

    Déjà j’avais été attristée de la fermeture de votre merveilleux site Post-humain. Je continue de lire vos analyses chez RMES qui figure d’ailleurs dans les liens favoris sur mon blog Electrosphère . Je suppose que vous intervenez également dans la remarquable revue DSI que je lis très souvent.

    Amicalement


Réagir