La conférence développeurs Google I/O 2016 a été l'occasion de montrer les avancées du machine learning et des intelligences artificielles adaptés à des applications grand public, à l'image de Google Assistant ou de Google Home présentés durant l'événement, où les requêtes vocales et la compréhension de leur contexte, permettant de poser des questions comme on le ferait avec un être humain, ouvrent la voie à des interfaces n'imposant plus une syntaxe prédéfinie et souvent réductrice.

Pour répondre à ces nouveaux défis du deep learning, Google a développé en interne ses propres processeurs, baptisés TensorFlow Processing Units (TPU), qu'il a déjà commencé à déployer dans les serveurs de ses datacenters.

Il répond là à un nouveau besoin de certains grands groupes high-tech (comme Facebook et les équipements réseau, par exemple) de développer leurs propres solutions répondant à des tâches spécifiques, plutôt que de faire appel à des composants standard.

Google TPU

Le groupe ne donne pas d'indications sur l'ampleur de ce déploiement et ne compte pas se passer totalement des CPU et GPU de ses fournisseurs habituels mais il entend exploiter ses propres TPU pour les services de reconnaissance vocale, sans pour autant envisager de les proposer à d'autres entreprises.

Certains observateurs y voient pourtant déjà une menace potentielle pour les grands fabricants de CPU et GPU, comme Intel ou Nvidia, même si ces derniers travaillent déjà sur des solutions capables de gérer les besoins liés aux intelligences artificielles et au machine learning, relève Bloomberg.

Les TPU constituent en tous les cas la première tentative de création par Google d'un hardware spécifique pour les tâches liées à l'intelligence artificielle et ne représentent sans doute que le premier pas visible d'un effort plus large de design de ses propres composants.

Source : Bloomberg