Trois scientifiques de l'Université de Californie à San Diego ont évalué le volume annuel de données traitées par les serveurs de la planète. Ce calcul est paru dans un rapport ( PDF ) qui est le fruit d'une collaboration entre universitaires et industriels ( AT&T, Cisco, IBM, Intel, Oracle ou encore Seagate ).
Le calcul prend en compte la situation en 2008, avec près de 27 millions de serveurs d'entreprise sur la planète. Il ont dû abattre une charge de travail colossale avec une estimation de 9,57 zettaoctets par an. Si le chiffre ne paraît pas forcément très éloquent compte tenu de l'unité de mesure qui est rarement utilisée ( 1 zettaoctet vaut un million de millions de Go ), son ampleur prend tout son sens quand on aligne les zéros.
9,57 zettaoctets par an, c'est : 9,570,000,000,000,000,000,000 octets par an. Selon l'étude, la charge des serveurs est par ailleurs promise à doubler de volume tous les deux ans. Mesurer le flux d'information à travers la planète demeure toutefois une science inexacte. L'un des co-auteurs de l'étude souligne que la plupart de cette information est du reste " incroyablement transitoire : elle est créée, utilisée, et jetée en quelques secondes sans avoir jamais été vue par personne ".
La charge de travail des 27 millions de serveurs d'entreprise en utilisation en 2008 a été estimée via des critères de coûts et de performance pour le traitement de transactions en ligne, services Web et machines virtuelles.
Publié le
par Jérôme G.
Journaliste GNT spécialisé en nouvelles technologies
Sur le même sujet
Cette page peut contenir des liens affiliés. Si vous achetez un produit depuis ces liens, le site marchand nous reversera une commission sans que cela n'impacte en rien le montant de votre achat. En savoir plus.