Nvidia : démonstration technique époustouflante sous Titan

Le par  |  7 commentaire(s) Source : Geeky-gadget
demo technique Nvidia

Nvidia a dévoilé une grande partie de sa feuille de route pour les années à venir lors de divers événements diffusés cette semaine. Et la firme a terminé en beauté en présentant les dernières avancées en termes de graphismes et particulièrement au niveau du visage humain.

Nvidia a été assez enthousiaste et confiant au moment de présenter sa vidéo technique, et s’est confronté sans peur à la mythique « Vallée dérangeante » (uncanny valley). La vallée dérangeante est un point au-dessous duquel l’apparence d’un robot ou d’une identité artificielle ne se rapproche pas suffisamment de l’être humain pour être confondue avec la réalité.

Ira demo technique nvidia titanConcrètement, la vallée dérangeante intervient lorsque les représentations artificielles se rapprochent trop de la réalité sans pour autant réussir à parfaire totalement l’illusion, provoquant ainsi un phénomène de malaise et de dégout.

La firme a vraisemblablement réussi son pari en dépassant ce point et propose une démonstration technique époustouflante opérant sous processeur Titan, ce qui laisse supposer d’une disponibilité immédiate ou proche de résultats similaires dans des applications réelles.

Le visage proposé est bluffant de réalisme, les détails sont impressionnants et les émotions retranscrites, tout comme la synchronisation labiale créent une illusion parfaite.

Jamais un tel niveau de réalisme n’a été atteint jusqu’à présent, principalement du fait de limites techniques. En effet, le cofondateur de Nvidia Jen Hsun Huang explique que des résultats similaires nécessitaient jusqu’à présent plus de 25 Go d’informations... une taille ramenée actuellement à 300 Mo seulement.

Avec sans doute un peu d’ironie, Jen Hsun Huang a annoncé que l’animation d’Ira représentait un traitement de 2 téraflops, soit moins de la moitié de la capacité gérée par le processeur Titan (qui affiche une capacité de 4,5 Teraflops). Une donnée mise en relation avec la PlayStation 4 de Sony capable de gérer « seulement » 1,84 téraflops. De quoi laisser sous-entendre que ce type de résultat ne sera pas possible sur les consoles next gen avant quelques temps, et rappeler à Sony qu’il aurait sans doute mieux valu proposer une offre plus conséquente pour s’offrir les services de la firme plutôt que d’opter pour la solution AMD.

  

Complément d'information

Vos commentaires

Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Le #1234012
"proposer une offre plus conséquente pour s’offrir les services de la firme plutôt que d’opter pour la solution AMD." :... Tu m'étonnes ... Si NVidia avait dit à Sony : "Vous avez bien fait de prendre la solution AMD car nous sommes en retard !" ... Là, j'aurais été épaté
Le #1234072
La démo technique est en effet assez bluffante et propose sans doute ce qu'on a vu de mieux en simulation humaine en temps réel.

2 détails me chiffonnent pourtant : tout d'abord le choix d'un homme chauve indique que si le réalisme de la peau et de l'animation du visage est proche de la perfection (ou l'atteint dans certains secteurs) nvidia a encore des soucis avec le reproduction ultra réaliste des cheveux et des poils qui est bien plus complexe qu'on ne le pense.
Ensuite on "voit" toujours que si la motion capture fonctionne parfaitement bien, dès que l'humain ajoute sa patte artificielle, le résultat est moins convaincant. Ainsi les yeux sont toujours dans cette fameuse vallée et gâchent un peu la perfection de la reproduction des mouvements captés par les caméras.
C'est loin d'être un détail car dans la plupart des usages notamment dans les jeux vidéos il sera difficile voire impossible de tout "enregistrer" en live pour le reproduire dans le jeu.
L'avenir des avatars dépasse sans doute ce que la plupart des gens peuvent imaginer aujourd'hui. On avance vite mais il y a encore du boulot pour qu'ils soit impossible de différencier un personnage réel et un avatar généré par un ordinateur aussi puissant soit-il.

Beau boulot en tous cas.
Le #1234112
spamnco a écrit :

La démo technique est en effet assez bluffante et propose sans doute ce qu'on a vu de mieux en simulation humaine en temps réel.

2 détails me chiffonnent pourtant : tout d'abord le choix d'un homme chauve indique que si le réalisme de la peau et de l'animation du visage est proche de la perfection (ou l'atteint dans certains secteurs) nvidia a encore des soucis avec le reproduction ultra réaliste des cheveux qui est bien plus complexe qu'on ne le pense.
Ensuite on "voit" toujours que si la motion capture fonctionne parfaitement bien, dès que l'humain ajoute sa patte artificielle, le résultat est moins convaincant. Ainsi les yeux sont toujours dans cette fameuse vallée et gâchent un peu la perfection de la reproduction des mouvements captés par les caméras.
C'est loin d'être un détail car dans la plupart des usages notamment dans les jeux vidéos il sera difficile voire impossible de tout "enregistrer" en live pour le reproduire dans le jeu.
L'avenir des avatars dépasse sans doute ce que la plupart des gens peuvent imaginer aujourd'hui. On avance vite mais il y a encore du boulot pour qu'ils soit impossible de différencier un personnage réel et un avatar généré par un ordinateur aussi puissant soit-il.

Beau boulot en tous cas.


Pour les cheveux, il y a un rendu sur le visage de la femme, en sombre, ok, mais quand même, et c'est franchement plutôt bien foutu ! Les mouvements et tout semblent réalistes. A voir sur des cheveux blondes avec le visage qui bouge en même temps. Mais en tout cas, chouette capacité !
Le #1234132
SyrDK a écrit :

spamnco a écrit :

La démo technique est en effet assez bluffante et propose sans doute ce qu'on a vu de mieux en simulation humaine en temps réel.

2 détails me chiffonnent pourtant : tout d'abord le choix d'un homme chauve indique que si le réalisme de la peau et de l'animation du visage est proche de la perfection (ou l'atteint dans certains secteurs) nvidia a encore des soucis avec le reproduction ultra réaliste des cheveux qui est bien plus complexe qu'on ne le pense.
Ensuite on "voit" toujours que si la motion capture fonctionne parfaitement bien, dès que l'humain ajoute sa patte artificielle, le résultat est moins convaincant. Ainsi les yeux sont toujours dans cette fameuse vallée et gâchent un peu la perfection de la reproduction des mouvements captés par les caméras.
C'est loin d'être un détail car dans la plupart des usages notamment dans les jeux vidéos il sera difficile voire impossible de tout "enregistrer" en live pour le reproduire dans le jeu.
L'avenir des avatars dépasse sans doute ce que la plupart des gens peuvent imaginer aujourd'hui. On avance vite mais il y a encore du boulot pour qu'ils soit impossible de différencier un personnage réel et un avatar généré par un ordinateur aussi puissant soit-il.

Beau boulot en tous cas.


Pour les cheveux, il y a un rendu sur le visage de la femme, en sombre, ok, mais quand même, et c'est franchement plutôt bien foutu ! Les mouvements et tout semblent réalistes. A voir sur des cheveux blondes avec le visage qui bouge en même temps. Mais en tout cas, chouette capacité !


Et ça, c'était la démo technique de la précédente génération de puces Nvidia ( la fée ) ...
Le #1234282
Dommage que cette carte soit capable de seulement afficher un visage et non un décor complet comme dans Crysis 3 mais en next-gen comme le visage....
Le #1234622
cerbereOrion a écrit :

SyrDK a écrit :

spamnco a écrit :

La démo technique est en effet assez bluffante et propose sans doute ce qu'on a vu de mieux en simulation humaine en temps réel.

2 détails me chiffonnent pourtant : tout d'abord le choix d'un homme chauve indique que si le réalisme de la peau et de l'animation du visage est proche de la perfection (ou l'atteint dans certains secteurs) nvidia a encore des soucis avec le reproduction ultra réaliste des cheveux qui est bien plus complexe qu'on ne le pense.
Ensuite on "voit" toujours que si la motion capture fonctionne parfaitement bien, dès que l'humain ajoute sa patte artificielle, le résultat est moins convaincant. Ainsi les yeux sont toujours dans cette fameuse vallée et gâchent un peu la perfection de la reproduction des mouvements captés par les caméras.
C'est loin d'être un détail car dans la plupart des usages notamment dans les jeux vidéos il sera difficile voire impossible de tout "enregistrer" en live pour le reproduire dans le jeu.
L'avenir des avatars dépasse sans doute ce que la plupart des gens peuvent imaginer aujourd'hui. On avance vite mais il y a encore du boulot pour qu'ils soit impossible de différencier un personnage réel et un avatar généré par un ordinateur aussi puissant soit-il.

Beau boulot en tous cas.


Pour les cheveux, il y a un rendu sur le visage de la femme, en sombre, ok, mais quand même, et c'est franchement plutôt bien foutu ! Les mouvements et tout semblent réalistes. A voir sur des cheveux blondes avec le visage qui bouge en même temps. Mais en tout cas, chouette capacité !


Et ça, c'était la démo technique de la précédente génération de puces Nvidia ( la fée ) ...


Au temps pour moi !
Le #1235092
mart666 a écrit :

Dommage que cette carte soit capable de seulement afficher un visage et non un décor complet comme dans Crysis 3 mais en next-gen comme le visage....


La carte n'a rien avoir avec un décor ou un visage à proprement parlé. Ce qui est souligné c'est sa capacité à traiter les polygones et particules en temps réel (une capacité de 4,5 Teraflops). C'est cela qui démontre la performance de la puce. NVidia n'allait par se coltiner un moteur 3D complet pour une simple démo, hein
Suivre les commentaires
Poster un commentaire
Anonyme
:) ;) :D ^^ 8) :| :lol: :p :-/ :o :w00t: :roll: :( :cry: :facepalm:
:andy: :annoyed: :bandit: :alien: :ninja: :agent: :doh: :@ :sick: :kiss: :love: :sleep: :whistle: =]