Google TensorFlow : les secrets de l'architecture du TPU pour intelligence artificielle restent bien gardés

Le par  |  8 commentaire(s) Source : Re/code
Google TPU

Le TensorFlow Processing Unit, ou TPU, de Google est un nouveau composant dédié aux intelligences artificielles. Le groupe de Mountain View distille au compte-goutte les détails de ses caractéristiques.

Lors de la conférence Google I/O 2016, le géant de Mountain View a levé le voile sur le TPU (TensorFlow Processing Unit), un composant qu'il a conçu en interne pour répondre spécifiquement aux besoins des intelligences artificielles.

Le groupe s'est assez peu étendu sur l'architecture de ce nouvel élément déjà déployé dans les serveurs de certains de ses datacenters et l'image officielle fournie révèle peu de détails. Le site Re/code a tenté d'en savoir plus et a demandé des précisions sur le TPU.

Toutes les interrogations n'ont pas trouvé de réponse mais elles apportent quelques détails sur la conception et le fonctionnement du composant. Re/code a tout d'abord demandé si le TPU était "pré-entraîné", à savoir si l'intelligence artificielle (AI) embarquée avait au préalable été entraînée sur un système externe (généralement par un procédé d'essais/erreurs de millions de combinaisons). Aucune réponse n'a été donnée mais cela pourrait bien être le cas, à l'image d'autres composants au fonctionnement similaire du marché.

Google TPU

Puisque les algorithmes d'AI sont susceptibiles d'évoluer au fil du temps, la question suivante a donc été de savoir si le TPU peut être reprogrammé pour prendre en compte ces changements. Le composant est compris comme un ASIC, un élément aux tâches très spécifiques et en principe peu évolutif mais il existe sur le marché des composants facilement reprogrammables connus sous l'acronyme FPGA (Field Programmable Gate Array).

Dans sa réponse, Google souligne que les FPGA, du fait de leur nature non spécifique, ne sont pas très efficients en matière de consommation d'énergie, mais dans le même temps, le groupe confirme que son TPU dispose d'un jeu d'instructions permettant de faire évoluer les algorithmes ou d'en intégrer de nouveaux.

Le groupe de Mountain View explique également que si le composant est optimisé pour sa ressource open source TensorFlow, il peut tout de même exploiter d'autres environnements pour intelligence artificielle. Par ailleurs, il confirme que plusieurs TPU ont été utilisés ensemble pour faire fonctionner AlphaGo, l'intelligence artificielle qui a remporté un duel en cinq manches (4-1) contre l'un des meilleurs joueurs au monde du jeu de go.

Enfin, aucun détail n'est donné sur la quantité de mémoire embarquée, cachée sous le large dissipateur de chaleur, ou sur le fondeur qui a produit ces composants et qui pourrait être TSMC ou GlobalFoundries, selon les premières spéculations.

Complément d'information

Vos commentaires

Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Le #1897900
Vu comment c'est l'avenir, je comprends que Google veuillent garder son bijou pour lui.
Déjà qu'il à ouvert TensorFlow
Le #1897907
Intéressant. Hâte d'en savoir plus
Le #1897909
Zuaaaaart (John), vient viiiiiiiite ! Il y a un truc chez "Gogole" qu'on peut maintenant te greffer pour te donner un peu d'intelligence !
Le #1897914
On y va quand même fort avec "intelligence" artificielle... la plupart du temps c'est un jeu de oui / non face à des situations pré-enseignées, basées sur des cas probables ou ayants déjà été utilisés (par exemple le "carnet de bord" étape par étape d'une méthode d'intrusion connue). Ou une anticipation, à un stade donné, des possibilités sur plusieurs coups d'avances, c'est notamment le cas d'AlphaGo.

Impossible de "communiquer" avec elle, difficile pour elle "d'apprendre" autre chose que du oui / non par le biais de schémas qui lui sont injectés sous forme de mise à jour. Et surtout, tout ce qu'elle "décide" est une série de calculs / probabilités quantifiés par l'homme, de facto subjectif et sujet à ses défauts. Et bien évidement, hors de toute imagination car elle n'apprend que de ce que nous vivons, elle n'anticipera pas de nouvelles façon de faire.

Perso, je trouve qu'automates correspond mieux, dans ce domaine on devient bon, pour le coté "guideon" et autres IA futuristes des séries et films... ne jamais dire jamais, mais je suis plus que dubitatif vu le patchwork binaires sur lesquels on s'appuie systématiquement aujourd'hui. (Personne n'a osé repenser l'informatique depuis le début, coté software, on recompile et on rafistole du vieux pour faire du neuf)
Le #1897919
DownTown a écrit :

On y va quand même fort avec "intelligence" artificielle... la plupart du temps c'est un jeu de oui / non face à des situations pré-enseignées, basées sur des cas probables ou ayants déjà été utilisés (par exemple le "carnet de bord" étape par étape d'une méthode d'intrusion connue). Ou une anticipation, à un stade donné, des possibilités sur plusieurs coups d'avances, c'est notamment le cas d'AlphaGo.

Impossible de "communiquer" avec elle, difficile pour elle "d'apprendre" autre chose que du oui / non par le biais de schémas qui lui sont injectés sous forme de mise à jour. Et surtout, tout ce qu'elle "décide" est une série de calculs / probabilités quantifiés par l'homme, de facto subjectif et sujet à ses défauts. Et bien évidement, hors de toute imagination car elle n'apprend que de ce que nous vivons, elle n'anticipera pas de nouvelles façon de faire.

Perso, je trouve qu'automates correspond mieux, dans ce domaine on devient bon, pour le coté "guideon" et autres IA futuristes des séries et films... ne jamais dire jamais, mais je suis plus que dubitatif vu le patchwork binaires sur lesquels on s'appuie systématiquement aujourd'hui. (Personne n'a osé repenser l'informatique depuis le début, coté software, on recompile et on rafistole du vieux pour faire du neuf)


Notre cerveau fait quasiment la même chose au final.. Chacune de nos actions, nos choix comme on dit, sont basés sur des situations précédentes qu'on a mémorisé et assimilé. Nos neurones font des connexion pour associer telle situation à telle décision et nos choix sont souvent déterminés à l'avance car notre façon de penser est créée physiquement dans notre cerveau.

J'avais vu une vidéo de je ne sais quel youtubeur là dessus d'ailleur... DirtyBiologie ou e-penser, je sais plus.

Donc bon, avec ce type de processeur, on n'est plus si loin que ça d'un vrai cerveau d'IA. Reste plus qu'à créer l'IA.
Le #1897935
Safirion a écrit :

DownTown a écrit :

On y va quand même fort avec "intelligence" artificielle... la plupart du temps c'est un jeu de oui / non face à des situations pré-enseignées, basées sur des cas probables ou ayants déjà été utilisés (par exemple le "carnet de bord" étape par étape d'une méthode d'intrusion connue). Ou une anticipation, à un stade donné, des possibilités sur plusieurs coups d'avances, c'est notamment le cas d'AlphaGo.

Impossible de "communiquer" avec elle, difficile pour elle "d'apprendre" autre chose que du oui / non par le biais de schémas qui lui sont injectés sous forme de mise à jour. Et surtout, tout ce qu'elle "décide" est une série de calculs / probabilités quantifiés par l'homme, de facto subjectif et sujet à ses défauts. Et bien évidement, hors de toute imagination car elle n'apprend que de ce que nous vivons, elle n'anticipera pas de nouvelles façon de faire.

Perso, je trouve qu'automates correspond mieux, dans ce domaine on devient bon, pour le coté "guideon" et autres IA futuristes des séries et films... ne jamais dire jamais, mais je suis plus que dubitatif vu le patchwork binaires sur lesquels on s'appuie systématiquement aujourd'hui. (Personne n'a osé repenser l'informatique depuis le début, coté software, on recompile et on rafistole du vieux pour faire du neuf)


Notre cerveau fait quasiment la même chose au final.. Chacune de nos actions, nos choix comme on dit, sont basés sur des situations précédentes qu'on a mémorisé et assimilé. Nos neurones font des connexion pour associer telle situation à telle décision et nos choix sont souvent déterminés à l'avance car notre façon de penser est créée physiquement dans notre cerveau.

J'avais vu une vidéo de je ne sais quel youtubeur là dessus d'ailleur... DirtyBiologie ou e-penser, je sais plus.

Donc bon, avec ce type de processeur, on n'est plus si loin que ça d'un vrai cerveau d'IA. Reste plus qu'à créer l'IA.


Les choix en situation très stressante ou d'urgence, sont déterminés par des réactions primitives, souvent influençables par l'apprentissage ou la redondance de ce type de situation (entrainement de marine, parler en public et cetera).

Mais pour ce qui est du raisonnement, on est loin, très loin du pré-déterminé, c'est même pour ça qu'on peut créer, imaginer, projeter, changer et cetera.

Nôtre cerveau primitif (le reptilien ?) est là pour nous "sauver" dans une situation immédiate (danger, stress et cetera), lui fonctionne peut-être de manière "comparable" à une machine, vu qu'il décide d'office d'une réaction primitive, peur, fuite, combat etc. Mais l'intégralité de nôtre cerveau fonctionne avec tellement de données, de nuances et de projections qui en découlent en si peu de temps, tout ça à base de "mots" ou "sensations", ce qui est impossible pour une machine.

Une machine peut résoudre des équations très complexes en moins d'une seconde, quand il faudra des heures ou jours à l'homme pour y parvenir, sans garantie du résultat, contrairement à la machine. Mais hors calculs et interactions via des schémas, elle est incapable de battre un cerveau humain. Et le sera probablement jamais. Même dans 200 années, on aura aucun équivalent, juste des bots perfectionnés simulant toujours mieux la personnalité humaine.

Il y a néanmoins une utilité non négligeable à perfectionner les choses, et pourquoi pas me contredire un jour. J'ai lu récemment un article expliquant que le seul moyen de rencontrer ou d'aller à la rencontre d'une vie extraterrestre,était de passer par une "vie artificielle". Question de probabilités et de pratiques. L'article démontait des utopies cinématographiques, comme aller plus vite que la lumière, la cryogénisation, l'apesanteur simulée, et cetera, tous irréalisables aujourd'hui et sûrement pour toujours au regard des lois de la physique connues. Il s'appuyait aussi sur les dégâts d'un séjour de "seulement" six mois sur le corps humain en apesanteur, pourtant toujours soumis à une attraction terrestre, perte osseuse, atrophie de certains muscle, compression de certains organes, et j'en passe... tout ça pour dire que si l'on veut un jour "prendre contact" avec une autre intelligence, il vaut mieux en développer une très poussée, "autonome" et la projeter dans un ensemble qui ne craindra pas les effets du temps et du vide spatial, contrairement à nous (et potentiellement tout autre espèce dans l'univers)
Le #1897962
DownTown a écrit :

On y va quand même fort avec "intelligence" artificielle... la plupart du temps c'est un jeu de oui / non face à des situations pré-enseignées, basées sur des cas probables ou ayants déjà été utilisés (par exemple le "carnet de bord" étape par étape d'une méthode d'intrusion connue). Ou une anticipation, à un stade donné, des possibilités sur plusieurs coups d'avances, c'est notamment le cas d'AlphaGo.

Impossible de "communiquer" avec elle, difficile pour elle "d'apprendre" autre chose que du oui / non par le biais de schémas qui lui sont injectés sous forme de mise à jour. Et surtout, tout ce qu'elle "décide" est une série de calculs / probabilités quantifiés par l'homme, de facto subjectif et sujet à ses défauts. Et bien évidement, hors de toute imagination car elle n'apprend que de ce que nous vivons, elle n'anticipera pas de nouvelles façon de faire.

Perso, je trouve qu'automates correspond mieux, dans ce domaine on devient bon, pour le coté "guideon" et autres IA futuristes des séries et films... ne jamais dire jamais, mais je suis plus que dubitatif vu le patchwork binaires sur lesquels on s'appuie systématiquement aujourd'hui. (Personne n'a osé repenser l'informatique depuis le début, coté software, on recompile et on rafistole du vieux pour faire du neuf)


Bien qu'on ne l'explique pas vraiment, mais que quelque part ton cerveau pourrait être vulgarisé en le résumant à une série de oui/non et de j'aime/j'aime pas se basant sur une "base de données" d'expériences vécues/classées comme positives ou non, je ne serais pas surpris qu'on finisse par arriver à quelque chose d'impressionnant avec des artifices aussi simples que cela.
Au départ de ton existence, tu ne pesais même pas un milligramme et ce n'est qu'une longue série de phénomènes chimiques très basiques et d'expériences qui font de toi qui tu es aujourd'hui.
La magie n'existe pas, mais je te concède qu'on est pas encore rendu

N'empêche que ça pue de plus en plus le Skynet cette histoire...
Le #1897967
Truffor a écrit :

DownTown a écrit :

On y va quand même fort avec "intelligence" artificielle... la plupart du temps c'est un jeu de oui / non face à des situations pré-enseignées, basées sur des cas probables ou ayants déjà été utilisés (par exemple le "carnet de bord" étape par étape d'une méthode d'intrusion connue). Ou une anticipation, à un stade donné, des possibilités sur plusieurs coups d'avances, c'est notamment le cas d'AlphaGo.

Impossible de "communiquer" avec elle, difficile pour elle "d'apprendre" autre chose que du oui / non par le biais de schémas qui lui sont injectés sous forme de mise à jour. Et surtout, tout ce qu'elle "décide" est une série de calculs / probabilités quantifiés par l'homme, de facto subjectif et sujet à ses défauts. Et bien évidement, hors de toute imagination car elle n'apprend que de ce que nous vivons, elle n'anticipera pas de nouvelles façon de faire.

Perso, je trouve qu'automates correspond mieux, dans ce domaine on devient bon, pour le coté "guideon" et autres IA futuristes des séries et films... ne jamais dire jamais, mais je suis plus que dubitatif vu le patchwork binaires sur lesquels on s'appuie systématiquement aujourd'hui. (Personne n'a osé repenser l'informatique depuis le début, coté software, on recompile et on rafistole du vieux pour faire du neuf)


Bien qu'on ne l'explique pas vraiment, mais que quelque part ton cerveau pourrait être vulgarisé en le résumant à une série de oui/non et de j'aime/j'aime pas se basant sur une "base de données" d'expériences vécues/classées comme positives ou non, je ne serais pas surpris qu'on finisse par arriver à quelque chose d'impressionnant avec des artifices aussi simples que cela.
Au départ de ton existence, tu ne pesais même pas un milligramme et ce n'est qu'une longue série de phénomènes chimiques très basiques et d'expériences qui font de toi qui tu es aujourd'hui.
La magie n'existe pas, mais je te concède qu'on est pas encore rendu

N'empêche que ça pue de plus en plus le Skynet cette histoire...


Voilà, je suis plutôt de ton avis que celui de DownTown

@Downtown : Je te trouve un peu trop pessimiste sur l'avenir de l'IA. Pour moi, nous ne sommes pas très loin de la singularité technologique et l'évolution des IA pour les rendre réellement "intelligente", avec une capacité de réflexion devrait intervenir très prochainement. (horizon 2040)
Suivre les commentaires
Poster un commentaire
Anonyme
:) ;) :D ^^ 8) :| :lol: :p :-/ :o :w00t: :roll: :( :cry: :facepalm:
:andy: :annoyed: :bandit: :alien: :ninja: :agent: :doh: :@ :sick: :kiss: :love: :sleep: :whistle: =]