Nvidia officialise sa carte graphique GeForce GTX Titan X et donne son prix

Le par  |  5 commentaire(s)
Nvidia GeForce GTX Titan X (1)

La société Nvidia vient d’officialiser sa nouvelle carte graphique haut de gamme GeForce GTX Titan X. On a donc ses caractéristiques détaillées et son prix.

Après une brève apparition à la Game Developer Conference entre les mains du patron et co-fondateur de Nvidia, la carte graphique GeForce GTX Titan X a eu droit à une officialisation en bonne et due forme, toujours en compagnie de Jen-Hsun Huang.

Nvidia GeForce GTX Titan X (1)  Nvidia GeForce GTX Titan X (2) 
La présentation par Nvidia ( cliquer pour agrandir )

En prenant appui sur la micro-architecture Maxwell 28 nanomètres, cette nouvelle vitrine technologique pour la firme au caméléon promet des performances de haut vol, tout en assurant une maitrise énergétique. Grâce à son cœur GM200 à 1 GHz ( ou 1,075 GHz en mode Turbo ) composé de 3 072 processeurs de traitement et sa mémoire vidéo GDDR5 de 12 Go interfacée en 384-bit, elle permet en effet jusqu’à 7,1 TFlop/s en simple précision. Et cela avec un TDP de 250 Watts. Autrement dit, plus de performances que la GeForce GTX Titan Black Edition ( 5,1 TFop/s ), mais avec la même consommation. De quoi assurer du jeu vidéo en ultra haute définition 4K avec une fluidité continue.

Comme précisé par Nvidia, tous les acheteurs seront logés à la même enseigne, puisqu’il n’y aura pas de modèle customisé chez les partenaires. Ces derniers devront en effet se limiter au modèle de référence, qui sera d’ailleurs vendu 999 dollars ( environ 1 000 euros chez nous donc ) et qui a déjà été annoncé chez Zotac et Gigabyte.

Gigabyte GeForce GTX Titan X  Zotac GeForce GTX Titan X 
Les GeForce GTX Titan X de Gigabyte et Zotac ( cliquer pour agrandir )

Complément d'information

Vos commentaires

Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Le #1836743
hebin... le même prix qu'un iphone6 +
une vrai carte pour de la 4k vivement que ça démocratise.
Le #1836758
W8 GTX980Ti

M'enfin, c'est pas comme si j'esperais passer d'une HD5870 à une GTX780 en remplaçant ma 780 par une 980Ti ( déjà que la Titan X ne m'apporterai qu'à peine 30% de gain ).

http://img11.hostingpics.net/pics/325438621.png
( test home made )

Bref, W8 & C



Le #1836768
sdekaar a écrit :

hebin... le même prix qu'un iphone6 +
une vrai carte pour de la 4k vivement que ça démocratise.


Un iphone 6+, c'est à peu près 0.15 TFlop/s

Et dire qu'il va encore falloir doubler cette puissance pour avoir une expérience 4K 3D acceptable... La 4K va occuper les industriels encore un bon paquet de temps avant qu'elle ne soit "démocratisée".
Le #1836773
Truffor a écrit :

sdekaar a écrit :

hebin... le même prix qu'un iphone6 +
une vrai carte pour de la 4k vivement que ça démocratise.


Un iphone 6+, c'est à peu près 0.15 TFlop/s

Et dire qu'il va encore falloir doubler cette puissance pour avoir une expérience 4K 3D acceptable... La 4K va occuper les industriels encore un bon paquet de temps avant qu'elle ne soit "démocratisée".


TFlops/s ? Autant que ça ? Je ne dis pas ça parce que c'est un Iphone, juste que bah pour du smartphone, je m'attendais à une autre échelle de perf.

Après une petite vérification, tu semble tout à fait être dans le vrai
http://kyokojap.myweb.hinet.net/gpu_gflops/
Le #1836778
Le plus étonnant dans tout ça, c'est que la performance par Watt entre le soc graphique de l'iphone et de cette GTX est à peu prés équivalente. Même si AMD semble commencer à combler son retard de ce côté là, cela n'enlève rien à NVIDIA qui continue de faire du très bon boulot.
Suivre les commentaires
Poster un commentaire
Anonyme
:) ;) :D ^^ 8) :| :lol: :p :-/ :o :w00t: :roll: :( :cry: :facepalm:
:andy: :annoyed: :bandit: :alien: :ninja: :agent: :doh: :@ :sick: :kiss: :love: :sleep: :whistle: =]