Le très corrosif site Internet I, Cringely publie un intéressant article sur la stratégie de croissance de Google. Une fois n'est pas coutume, votre serviteur s'est permis de le traduire quasiment in extenso. Riche d'enseignements et, n'en doutons pas, sujet à quelques vives discussions sur notre forum de lecteurs. Accrochez votre ceinture... C'est parti!
 
"Jouer sur ses points forts. Voilà la clé du succès, dans tous les secteurs de l’industrie. Comme promis, cette semaine, je m’en vais vous expliquer où Google compte aller; et jouer sur ses points forts sera l’élément-clé s’il a bien l’intention de faire ce que je crois, c’est-à-dire faire main basse sur Internet. Oh, Google ne va pas le voler, ni nous forcer la main en aucune manière. En fait, il va nous séduire, et nous le lui donnerons. Et je ne suis pas si sûr que ce soit une mauvaise chose.

Les grandes forces de Google, ce sont la recherche et le développement de services Internet open-source, et l’emploi de dizaines de milliers de serveurs informatiques. Vous noterez que dans cette petite liste, il n’est nullement fait mention de systèmes d’exploitation. Les rumeurs vont bon train à ce sujet : Google préparerait un OS (Operating System; système d'exploitation) dans le but de concurrencer Microsoft. Je ne dis pas que ce n’est pas le cas (honnêtement, je n’en sais rien), mais j’AFFIRME que ce serait une mauvaise idée, car cela ne correspond pas aux métiers de la compagnie.

Idem en ce qui concerne les rumeurs selon lesquelles Google ambitionnerait de devenir un sorte de super-fournisseur d’accès à Internet, sous prétexte qu’il ne cesse de racheter des portions de réseaux câblés souterrains. Cela n’arrivera pas, pour la bonne et simple raison que jouer les FAI est une entreprise hasardeuse, et qu’en créer un, en dehors de l’expérience à petite échelle actuellement en cours d’expérimentation à San Francisco, ne pourrait que nuire à la rentabilité de Google.

Alors pourquoi racheter tous ces réseaux '

La réponse se trouve probablement dans le garage souterrain du siège de la firme, à Mountain View, en Californie. Là bas, dans un secteur interdit au commun des employés de Google, se trouve un container. Ce container est un prototype de centre de stockage et de traitement de données. Google a embauché une paire de talentueux designers industriels afin de parvenir à faire entrer dans cet espace confiné (12 mètres de long sur environ 3,5 mètres de large, et 2,5 mètres de haut) autant de processeurs, de capacité de stockage, de mémoire vive et de systèmes d’alimentation électrique que possible. Nous parlons ici de 5.000 processeurs AMD Opteron, et de 3,5 pétaoctects de stockage, lesquels pourraient être acheminés n’importe où dans le monde. L’idée est d’amener une de ces bestioles là où Google pense qu’il judicieux d’en placer une, et de transformer Internet en une sorte de réseau de stockage et de calcul géant.

Google pourrait déployer ces containers n’importe où, mais la logique voudrait que ce soit aux quelque 300 points névralgiques du réseau mondial. Il y a deux ans, Google disposait d’un seul centre de stockage de données. Aujourd’hui, il en aurait 64. Dans deux ans, on estime qu’il en aura plus de 300. L’intérêt de disposer d’autant d’infrastructures de stockage et de traitement de données va bien au-delà des habituelles redondances techniques. Elles permettent à Google de se rapprocher de l’utilisateur final, et de réduire les délais d’attente après une requête. Elles offrent également un moyen de communication entre différents centres de stockage, et autorise une meilleure répartition de la charge de travail sur ces réseaux dont Google est désormais propriétaire. Et, cerise sur le gâteau, elles autorisent les fournisseurs d’accès à Internet à se connecter en très  haut débit sans que cela grève la rentabilité générale de Google.

Là où n’importe quelle autre compagnie placerait un 'simple' routeur, Google met donc un centre entier de stockage et de traitement de données, et les résultats sont spectaculaires. Prenons l’exemple de la télévision sur Internet. Le programme télévisé de la marque de lingerie féminine Victoria’s Secret, qui a littéralement fait imploser le réseau de Broadcast.com l’an dernier, n’aurait absolument pas les mêmes conséquences pour un opérateur comme Google. Le programme serait expédié simultanément à ses 300-et-quelques centres de stockage et de traitement de données, avant d’être injecté à des vitesses 'supersoniques' sur les réseaux des fournisseurs d’accès à Internet. Les téléspectateurs en recevraient une copie mise en cache localement. Et le format retenu (Windows Media, Real, QuickTime, etc…) n’aurait aucune importance, puisque pour le centre de stockage et de traitement de données qui l’aurait expédié, ce ne serait jamais qu’un signal de plus, sans besoin de codecs ou de protocoles particuliers. Avec un tel schéma, pour la première fois de son histoire, la télévision sur Internet atteindrait la même audience et la même qualité que ses homologues hertzienne ou câblée, tout en permettant à chacun de personnaliser son contenu.

Les futures applications sous AJAX que prépare Google, comme une éventuelle suite bureautique, par exemple, seront stockées localement, elles aussi, à quelques sauts de puce de l’utilisateur final, tout en se voyant affublées de copies de sauvegarde dans deux ou trois centres de stockage et de traitement de données voisins. Les données de l’utilisateur ne seront jamais effacées, à moins que ce dernier ne le demande expressément. Le temps de réponse du système sera réduit à sa plus simple expression, s’agissant d’applications distantes.

Vous vous souvenez de Google Web Accelerator ' Lui aussi reviendra, mais sous une forme différente, avec une infrastructure similaire à celle décrite plus haut, et répondra enfin aux attentes que ses promesses ont fait naître.

[…]

Nous aurons toujours Internet, et nous aurons l’Internet de Google, qui lui sera superposé. Nous l’utiliserons sans même nous en rendre compte. L’Internet de Google sera plus rapide, plus sûr, et moins cher. L’avènement de Google Base (qui n’en est encore qu’à ses balbutiements, mais qui autorise tant d’usages différents, dont la plupart n’ont même pas été envisagés par Google…) signera l’apparition d’un nouveau genre de 'marché de données', dont Google serait en quelque sorte le garant moral et technique. C’est en tout cas le but avoué.

Tout ce qui précède s’appuie, bien entendu, sur l’expertise reconnue de Google en matière de réseaux et d’infrastructure. Avez-vous déjà utilisé un Google Search Appliance (Outil de Recherche Google) ' Il se présente sous la forme d’un serveur  1U (environ 45 mm d'épaisseur) déjà assemblé, que vous devez juste connecter à votre réseau, et qui se configure en deux temps, trois mouvements. Google en gère le fonctionnement à distance, et les données qui y transitent vont automatiquement s’ajouter à celles déjà stockées et traitées par la firme de Mountain View. L’utilisateur de l’appareil n’a rien à faire, et c’est la grande force de Google que d'être capable de concevoir de telles solutions. Une chose que Microsoft ne sait décidément pas faire.

Et c’est là que réside la différence entre les deux compagnies. J’ai déjà eu l’occasion de dire qu’en lançant Windows Live et Office Live, Microsoft 'joue à Google'. Ce dernier proposera ce genre de solutions, lui aussi, mais les incluera dans une infrastructure dont Microsoft ne peut que rêver.

Pour autant, cela ne signifie pas que les clients de Microsoft se verront refuser l’accès à l’Internet de Google. Bien au contraire. Google serait fou d’exclure les clients de Microsoft, qui seront les bienvenus, comme les autres. Google tirera un bénéfice bien plus grand de ce système que Microsoft.

Google a l’expertise et les ressources –techniques et financières—pour s’assurer que le système fonctionnera. Les réseaux dont il n’est pas encore propriétaire, il les louera à leurs détenteurs actuels, qui sont pour la plupart au bord de la faillite. En supposant que les containers mentionnés plus haut coûtent environ 500.000 dollars à l’achat, plus 500.000 autres dollars en budget annuel de fonctionnement, cela représente une dépense de 300 millions de dollars par an, simplement pour employer des ressources inexploitées. Et vous savez qui a imaginé ce type de stratégie ' Wal-Mart. Et à moins que Google n’échafaude un nouveau modèle économique, les autres acteurs de l’Internet actuel sont condamnés à la marginalité. Il y aura toujours des jeunes pousses et des petites compagnies, mais les entreprises de taille moyenne sont vouées à disparaître. Les FAI, dont on dit souvent qu’ils sont une espèce en voie d’extinction, subsisteront, mais leur marge bénéficiaire est si faible qu’elle mérite à peine d’être mentionnée. Après tout, Wal-Mart n’essaie pas de racheter les routes sur lesquelles roulent ses camions. Le résultat final est que Web 2.0 et Google sont une seule et même chose.

Microsoft ne peut pas lutter. Yahoo non plus, probablement. Sun et IBM joueront les poissons-pilotes, à distance respectueuse. Et combien cela coûtera-t-il à Google ' Environ un milliard de dollars par an ' C’est moins que ce que dépense Microsoft pour régler ses disputes judiciaires...

Game Over."     



PS: les prises de position décrites ci-dessus sont celles de l'auteur, Robert X. Cringely. Les éventuelles --et improbables!-- erreurs de traduction sont incontestablement à mettre au débit de votre serviteur...
    


Source : OSNews