Des bataillons de PC à l'assaut
des supercalculateurs

Par CORINNE MANOURY.
6 septembre 2000
(c) Le Monde, 2000.

« Bienvenue à toutes les espèces. » En apposant ce message à la porte du laboratoire des sciences spatiales de l'université de Californie à Berkeley, les concepteurs du projet SETIhome - la plus importante plate-forme de calcul distribué entre les ordinateurs d'internautes - pensaient-ils aux extraterrestres susceptibles de venir un jour frapper ou à l'hétérogénéité des ressources qu'ils souhaitaient mettre à contribution pour trouver le signal d'une vie dans la Voie lactée ? Leur idée, qui consiste à « fédérer » de simples machines de bureau pour multiplier la puissance de calcul, s'est répandue comme une traînée de poudre de l'autre côté de l'Atlantique. Pour participer, il suffit de télécharger un logiciel pour se voir attribuer une part de calcul que la machine effecte quand son utilisateur cesse de s'en servir.

Pourquoi ce tel engouement ? « Parce que de telles plates-formes de calcul distribué présentent un certain nombre d'avantages, explique Jean-Pierre Goux, chercheur au Laboratoire national d'Argonne (Illinois). Leur prix d'achat est nul puisque l'idée est de fédérer des ressources existantes et sous-utilisées. Leur entretien et leur mise à jour demandent à peine plus de savoir-faire que celui requis pour gérer un réseau. Elles ne coûtent rien puisque la plate-forme bénéficie automatiquement des mises à jour des ordinateurs individuels. Enfin, le nombre de processeurs est facilement plus important que dans un supercalculateur puisqu'on peut fédérer tous les postes d'une entreprise et passer des alliances. Au final, ce sont donc des systèmes très disponibles. »

Au Laboratoire d'Argonne, ce Français travaille sur le projet MetaNEOS financé par la National Science Foundation (NSF). Un projet qui vise justement à utiliser un réseau d'ordinateurs hétérogènes pour résoudre des problèmes complexes comme on se sert aujourd'hui du réseau électrique pour faire fonctionner n'importe quel appareil. Ce qu'on appelle en anglais un grid computer et en français une grille de calcul. L'essentiel du travail consiste alors à mettre au point des programmes robustes et intelligents pour orchestrer le fonctionnement de l'ensemble des machines connectées.

Un sujet sur lequel planchent aussi les Européens. Le CNRS est en effet impliqué dans deux projets financés par la Communauté européenne et respectivement baptisés Eurogrid et Data-Grid. Si le premier cherche surtout à « mutualiser » d'importantes machines pour les utiliser au mieux de leur performance, le second a clairement l'ambition d'appliquer le modèle de grille de calcul à bon nombre de secteurs de recherche. Le traitement des données satellites, la bio informatique, l'étude du génome, la climatologie et l'imagerie médicale n'en seraient que quelques exemple. D'ailleurs, c'est au département de physique des particules du CNRS que revient la charge de tester la pertinence du modèle. Une première grille aura en effet pour mission d'analyser les données produites au CERN (Genève) par le LHC, le tout dernier collisionneur de hadrons. « Pour nous, il n'y a pas de différence entre un supercalculateur et plusieurs calculateurs, explique Guy Wormser, directeur adjoint de l'IN2P3, l'Institut national de physique nucléaire et de physique des particules. Nous avons beaucoup d'événements à traiter mais chacun est indépendant. La grille, que nous avons conçue à plusieurs étages - centres régionaux et nationaux, universités, bureaux des physiciens - va nous permettre de multiplier par cinq notre puissance. »

La recherche de nouvelles particules s'ajoute donc à la liste des sujets scientifiques utilisant le calcul distribué: la recherche de grands nombres premiers, le cassage de clés cryptographiques ou la recherche de solutions optimales pour des problèmes complexes, tel ce Nug30 dont le but était d'assigner trente services à trente lieux de telle façon que la logistique pour déplacer le matériel soit la moins coûteuse possible.