Après les victoires de l'intelligence artificielle AlphaGo au jeu de go face à certains des meilleurs joueurs mondiaux, Alphabet / Google avait dévoilé son TensorFlow Processor Unit (TPU), un composant spécialisé pour répondre aux besoins du deep learning et des systèmes numériques d'apprentissage.

D'autres groupes s'intéressent au développement de composants spécifiques pour l'intelligence artificielle et le géant Intel n'a pas caché son intérêt pour ce domaine lors de son événement IDF 2016 de San Francisco en évoquant le futur de ses puces Xeon Phi.

Intel Xeon Phi Cette famille de processeurs / coprocesseurs a été pensée pour un usage HPC (High Performance Computing) et se retrouve dans certains des supercalculateurs les plus puissants au monde pour des applications de calcul intensif et scientifiques et elle devrait évoluer dès l'an prochain vers le deep learning avec la génération Xeon Phi Knights Mill.

On devrait donc retrouver à terme des composants Xeon Phi pour gérer des systèmes d'interprétation du langage, de reconnaissance d'objets et d'éléments dans des photos ou encore pour animer les intelligences artificielles des véhicules autonomes.

Ces fonctions, par leur type de calcul et de traitement, sont souvent dévolues aux GPU, ce qui fait les affaires de groupes comme Nvidia qui se retrouvent en pointe dans le secteur et leur fournit de nouveaux débouchés compensant le ralentissement des ventes d'ordinateurs.

Les puces aux multiples coeurs Xeon Phi d'Intel sont déjà utilisées dans des applications de deep learning mais le groupe de Santa Clara a indiqué qu'il comptait ajouter un jeu d'instructions répondant spécifiquement aux nécessités des intelligences artificielles pour optimiser les calculs dans une prochaine déclinaison de la gamme.

L'intérêt d'Intel dans le hardware pour intelligence artificielle va dans le sens de sa nouvelle stratégie dévoilée au printemps qui met notamment l'accent sur le cloud, les datacenters et l'Internet des objets.