Andrea Danti
|
Informatique répartie
La généralisation des réseaux
large bande à débit élevé et l'accroissement permanent de la
puissance de calcul ont changé notre manière de gérer
l'information et les services informatiques. Des ressources
géographiquement réparties, comme des banques de données ou des
superordinateurs, sont interconnectées et peuvent être
exploitées par des utilisateurs du monde entier en tant que
ressource unique. De plus en plus, des tâches informatiques
répétitives ou exigeant beaucoup de ressources peuvent être
sous-traitées à des fournisseurs de services, donnant naissance
à un nouveau paradigme dans lequel les services informatiques
sont fournis par des tiers. Il n'est plus nécessaire pour les
entreprises de faire leurs travaux informatiques avec leurs
moyens internes, car non seulement les données peuvent être
traitées et les logiciels stockés à distance sur un «nuage»,
mais de grands réseaux d'ordinateurs distants peuvent former une
«grille» d'une puissance considérable.
Le but d'un système informatique réparti
est de relier utilisateurs et ressources d'une manière
transparente, ouverte, économique, fiable et modulable. Des
ressources physiques peuvent être partagées, de même que des
ressources virtuelles, comme les systèmes d'exploitation, les
tâches et les applications.
Connectons-nous au nuage
En général, le nuage peut être assimilé
au système de distribution d'électricité, qui couvre de larges
zones mais constitue une entité unique, alimentant des millions
d'appareils et de clients. Certaines parties appartiennent à
différentes organisations et sont exploitées par elles, mais les
utilisateurs connaissent rarement les détails opérationnels ou
l'emplacement des ressources qu'ils utilisent.
Les entreprises de technologie et
d'Internet, comme Google,
Amazon, Microsoft
et d'autres, ont acquis des compétences considérables dans le
domaine de l'exploitation de grands centres de données. Leur
savoir-faire s'étend aux logiciels de gestion des processus et à
l'informatique décisionnelle, ainsi qu'à d'autres applications,
comme les moteurs de recherche sur Internet, les cartes ou le
courrier électronique. Dans l'informatique dématérialisée, ils
sont hébergés dans un centre de données et offerts à titre
commercial en tant que SaaS («software
as a service»), ou «logiciels en tant que service». Ils
n'ont plus besoin d'être installés dans le système de
l'utilisateur d'où une économie de redevances de licence de
coûts de maintenance et de mise à jour des logiciels.
Pour les petites et moyennes
entreprises, la capacité de sous-traiter peut aussi réduire les
obstacles à l'entrée sur le marché de nombreuses activités qui
exigent un traitement intensif, étant donné que cela élimine la
nécessité d'engager des dépenses d'équipement. Même quelques
grandes entreprises ont opté pour des solutions dématérialisées,
en raison de l'augmentation de la capacité et des possibilités
des fournisseurs de services. Une autre méthode consiste à
sous-traiter certaines tâches au nuage, comme le filtrage
antispam et antivirus, et à conserver d'autres tâches dans le
centre de données, comme le stockage de données sensibles.
Toutefois, pour tirer parti de
l'informatique dématérialisée, il faut avoir accès à des
connexions à l'Internet large bande fiables. Ce n'est pas
toujours possible dans les pays en développement, qui sont
confrontés à des problèmes comme le coût élevé des logiciels et
des matériels, une alimentation en électricité médiocre et un
accès limité au large bande. Bien que le nombre d'abonnés à
l'Internet large bande ait rapidement augmenté dans le monde,
des lacunes importantes demeurent. Le large bande ubiquitaire et
illimité est l'une des clefs les plus importantes du succès de
l'informatique dématérialisée.
L'informatique dématérialisée pose
certains problèmes
Le succès du nouveau paradigme passe par
la solution des problèmes de confidentialité, sécurité,
fiabilité, accès et réglementation.
Fiabilité et responsabilité: Comme avec d'autres services
de télécommunication, les utilisateurs comptent sur la fiabilité
du nuage (notamment si cette ressource est utilisée pour des
applications à mission critique) et sur une définition claire
des responsabilités en cas de problème grave. L'intégrité et
l'exactitude des données sont d'autres aspects de la fiabilité.
Des résultats erronés, ou des données perdues ou altérées
peuvent être lourds de conséquences pour l'utilisateur du nuage.
Des accords de service doivent régler ces questions.
Sécurité, confidentialité et anonymat: Etant donné que
l'infrastructure physique est partagée, les niveaux de
confidentialité et d'anonymat mis à la disposition de
l'utilisateur d'un nuage risquent d'être inférieurs à ceux dont
jouit l'utilisateur d'applications d'ordinateur de bureau. Pour
protéger la confidentialité, il faut prendre soin de protéger
les données des utilisateurs (y compris les informations
concernant les clients), ainsi que les applications utilisées
pour manipuler ces données.
Restrictions d'accès et d'utilisation: Le stockage et le
partage des données via un nuage risquent aussi de susciter des
inquiétudes quant aux droits d'auteur, aux licences et à la
propriété intellectuelle. Il est possible d'accéder aux nuages à
tout moment, pour tout utilisateur possédant une connexion
Internet et depuis n'importe quel endroit. Or, les accords
d'utilisation et les droits de propriété intellectuelle peuvent
varier selon les pays. Les gouvernements devront examiner les
principes et réglementations appropriés pour assurer des
garde-fous suffisants. Par exemple, certaines dispositions
pourraient devoir figurer obligatoirement dans les accords de
service entre utilisateurs et fournisseurs concernant par
exemple:
- Les seuils de fiabilité de base
- La responsabilité en cas de perte
ou de violation de données
- Les attentes concernant la sécurité
des données
- La protection de la confidentialité
- Les attentes concernant l'anonymat
- Les droits d'accès et d'usage.
Les fournisseurs d'informatique répartie
et les décideurs doivent examiner ces questions afin de susciter
la confiance des utilisateurs.
Faire partie d'une grille
L'informatique en grille est un autre
moyen d'exploiter des ressources réparties. Au lieu d'utiliser
des centres de données, cette méthode utilise une immense
«grille» de machines, dont chacune peut ne pas être plus
puissante qu'un ordinateur domestique ordinaire. L'informatique
en grille est bien adaptée à la solution de problèmes demandant
beaucoup de ressources dans les domaines de la science, de
l'ingénierie et du commerce. Par exemple, 80 000 unités
centrales de traitement (CPU) sont partagées au sein du système
Enabling Grids for E-sciencE (EGEE), l'un des plus grands
du monde. Plus de 10 000 utilisateurs de 140 institutions dans
50 pays produisent ensemble une ressource informatique fiable et
modulable mise à la disposition de la communauté scientifique
européenne et mondiale. Les quatre expériences du Grand
collisionneur de hadrons (LHC) au CERN, l'organisation centrale
de recherche nucléaire pour l'Europe, envoient plus de 150 000
tâches par jour à l'infrastructure EGEE, générant des centaines
de térabytes de données par an.
Cette grille a aussi été utilisée pour
aider la Conférence régionale des radiocommunications de l'UIT,
en 2006, à établir une nouveau plan de fréquences pour la mise
en œuvre de la radiodiffusion numérique dans les bandes d'ondes
décimétriques et centimétriques. Pour réaliser des calculs d'une
grande complexité, il faut des moyens importants sur des laps de
temps très courts. Le Secteur des radiocommunications de l'UIT
(UIT–R) a déployé un système réparti de 100 ordinateurs à haut
débit pouvant effectuer 200 tâches simultanément. Pour compléter
le groupe local et assurer davantage de souplesse et de
fiabilité, il s'est mis d'accord avec le CERN pour utiliser des
ressources de l'infrastructure de grille EGEE.
Des projets volontaires peuvent aussi
tirer profit de l'informatique en grille. Des particuliers font
don de ressources inutilisées sur leur ordinateur personnel à
des projets comme SETI@home, qui cherche des signaux
susceptibles d'indiquer une intelligence extra-terrestre. La
technologie de grille a aussi fait son entrée dans le monde
commercial. Par exemple, le plus grand groupe bancaire du monde,
HSBC, utilise une grille de plus de 3500 CPU fonctionnant dans
des centres de données de quatre pays. En accroissant les
ressources informatiques disponibles et en facilitant
l'intégration des données, l'informatique en grille permet à des
organisations de résoudre des problèmes qui auparavant étaient
trop importants ou trop complexes pour qu'elles puissent les
traiter seules.
Informatique à la demande
Un autre type de partage est
l'informatique à la demande, dans laquelle des organisations
s'abonnent à un fournisseur de services extérieur et ne paient
que les ressources matérielles et logicielles qu'elles
utilisent. Les centres de données internes peuvent se trouver la
plupart du temps inoccupés, sauf en période de demande de
pointe. L'entreprise peut décider d'acheter de la capacité
uniquement quand elle en a besoin ou peut vendre son excès de
capacité à d'autres entreprises. Un exemple est le détaillant en
ligne Amazon.com, qui gère ses propres services mais utilise
aussi son système pour héberger de nombreux autres
environnements informatiques isolés pour des clients.
Une normalisation s'impose
Des parallèles peuvent être établis
entre l'état actuel de l'informatique répartie et les débuts des
réseaux informatiques: actuellement, il existe des systèmes
insulaires indépendants ayant peu d'interopérabilité et quelques
normes ou interfaces de gestion propriétaires.
Des solutions normalisées pour
l'automatisation, le contrôle, la fourniture et la configuration
d'applications en nuage et en grille garantiraient
l'interopérabilité. La portabilité aussi est une préoccupation.
Les utilisateurs peuvent vouloir employer des infrastructures et
des services de différents fournisseurs en même temps. Des
normes et des interfaces mondiales le permettraient.
Côté fournisseur, il pourrait être
intéressant d'avoir des normes pour la gestion de réseau
distribuée, la gestion de mémoire et l'équilibrage de la charge,
la gestion des identités et de la sécurité ainsi que des normes
permettant la modularité de l'infrastructure.
|