SnapDragon 620 et 820 en 14 nm FinFET et Krait Taipan : la roadmap 2015 de Qualcomm dévoilée ?

Le par  |  9 commentaire(s) Source : Phone Arena
SnapDragon

Alors que Qualcomm vient tout juste de dévoiler sa plate-forme SnapDragon 810, une supposée roadmap évoque l'existence d'un successeur SnapDragon 820 octocore mais gravé en 14 nm FinFET.

Le salon CES 2015 de Las Vegas a déjà permis de dévoiler un premier smartphone sous SnapDragon 810 (dévoilé en exclusivité française sur GNT en avril 2014) avec le LG G Flex 2, amenant la configuration haut de gamme octocore gravée en 20 nm entre les mains du public.

SnapDragon La suite des événements pourrait passer par une plate-forme SnapDragon 820 attendue au second semestre de l'année et qui pourrait passer à une gravure 14 nm FinFET et exploiter une structure octocore mais avec des coeurs Krait Taipan 64-Bit conçus par Qualcomm, et non plus des coeurs ARM Cortex-A53 / A57 comme pour le S810.

La gravure en 14 nm FinFET suggère que c'est le couple Samsung / GlobalFoundries qui sera chargé de sa production de masse, alors que le groupe américain est plutôt lié au fondeur taiwanais TSMC pour la fabrication de ses processeurs.

Ce processeur serait accompagné d'un GPU Adreno 530, ce qui suggère l'annonce d'une nouvelle génération, et utiliserait de la RAM LPDDR4. Il serait enfin associé à un modem MDM9X55 LTE Cat 10. A cette plate-forme s'ajouterait un SoC SnapDragon 815 octocore en configuration big.LITTLE (qu'a pourtant toujours évitée Qualcomm) avec GPU Adreno 450, modem 4G LTE Cat 10 et gravée en 20 nm.

Parmi les autres processeurs décrits dans cette roadmap supposée, on trouve une extension de la famille SnapDragon 61x composée des variantes SnapDragon 616 (octocore ARM Cortex-A53 / Adreno 408), SnapDragon 620 (quadcore avec de nouveaux coeurs Krait Taipan cadencés à 2 à 2,5 GHz et Adreno 418), et SnapDragon 625 / 619 (octocore avec Adreno 418).

A voir si cette roadmap se confirme en fin d'année. On sait que Samsung comme TSMC seront prêts pour la production de masse en 14 nm FinFET et 16 nm FinFET respectivement début et mi-2015.

Complément d'information

Vos commentaires

Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Anonyme
Le #1829914
Plus d'innovations possible du côté des smartphones et donc on continue dans la course aux Cores et aux GHz comme avec Intel dans les PC ???
Le #1829953
Arobase40 a écrit :

Plus d'innovations possible du côté des smartphones et donc on continue dans la course aux Cores et aux GHz comme avec Intel dans les PC ???


Tu voudrais quoi ?

Qu'on régresse, et qu'on propose des processeurs toujours moins performant ?
Anonyme
Le #1829957
FRANCKYIV a écrit :

Arobase40 a écrit :

Plus d'innovations possible du côté des smartphones et donc on continue dans la course aux Cores et aux GHz comme avec Intel dans les PC ???


Tu voudrais quoi ?

Qu'on régresse, et qu'on propose des processeurs toujours moins performant ?


Disons que les processeurs actuels sont plus que suffisants pour un usage... SMARTPHONE... donc effectivement j'attends après d'autres innovations plus... utiles...
Le #1829960
Dis toi que c'est le genre d'évolutions qui tire aussi la conso vers le bas (la meilleure fonctionnalité "mobile"). Quant à la charge graphique induite par des définitions de plus en plus débiles, elle peut encore subir quelques évolutions sur son GPU avant de parler de superflu (souviens toi de la news du 8k qui parlait de smartphones...).
Anonyme
Le #1829962
Truffor a écrit :

Dis toi que c'est le genre d'évolutions qui tire aussi la conso vers le bas (la meilleure fonctionnalité "mobile"). Quant à la charge graphique induite par des définitions de plus en plus débiles, elle peut encore subir quelques évolutions sur son GPU avant de parler de superflu (souviens toi de la news du 8k qui parlait de smartphones...).


Mouais bof, si tu baisses la finesse de gravure et que dans le même temps tu augmentes les fréquences de fonctionnement, je ne vois pas ce que ça apporte de plus en terme d'autonomie.

De plus, Je pense que les produits actuels sont capable de sortir du 4k ou du 8k, sans qu'il soit nécessaire que ceux-ci fonctionne en 4k ou en 8k en interne...
Le #1829967
1. Faux pbm. Tu vas mettre moins de temps à accomplir une tâche avant de retourner idle, conso réduite dans tous les cas (même si permettre plus sur ce genre d'appareil a moins de sens que sur un desktop). Pour les mêmes raisons, note aussi que ça chauffera moins, et dans un smartphone c'est pas du luxe.
2. C'est le hardware qui doit se charger de décoder la 4k/8k. Même si le CPU peut le faire, passer par le GPU consomme beaucoup moins. Sur le SnapDragon 805 par exemple, la prise en charge hardware du décodage 4k en H.265 a occasionné une économie d'énergie allant jusqu'à 75%. L'affichage interne n'a effectivement aucune importance, là on parle d'une fonctionnalité dédiée du GPU, pas de chier des Gigatexels/s pour le plaisir de l'affichage du smartphone.
Anonyme
Le #1829971
Truffor a écrit :

1. Faux pbm. Tu vas mettre moins de temps à accomplir une tâche avant de retourner idle, conso réduite dans tous les cas (même si permettre plus sur ce genre d'appareil a moins de sens que sur un desktop). Pour les mêmes raisons, note aussi que ça chauffera moins, et dans un smartphone c'est pas du luxe.
2. C'est le hardware qui doit se charger de décoder la 4k/8k. Même si le CPU peut le faire, passer par le GPU consomme beaucoup moins. Sur le SnapDragon 805 par exemple, la prise en charge hardware du décodage 4k en H.265 a occasionné une économie d'énergie allant jusqu'à 75%. L'affichage interne n'a effectivement aucune importance, là on parle d'une fonctionnalité dédiée du GPU, pas de chier des Gigatexels/s pour le plaisir de l'affichage du smartphone.


Plusieurs erreurs grossières, car la gravure n'a jamais été aussi basse depuis par exemple 2009, et les fréquences de fonctionnement plus élevées ce qui n'empêchent pas les smartphones de toujours chauffer plus car si le hardware évolue, mais les applis également mais pas forcément dans le bon sens, puisque dans le pire des cas les applis sont toujours plus sophistiquées et font donc chauffer encore plus les produits mobiles : en particuliers les jeux !!!

Pour ce qui est de la prise en charge de l'affichage interne vs l'affichage déportée, tu fais encore erreur, peu importe que ce soit le CPU ou le GPU qui le gère.

Prenons l'exemple du tout premier Galaxy tab 7" de chez Samsung (GT-P1000), c'était un Cortex-A8 mono-core fonctionnant à 1 Ghz avec un PowerVR SGX540, il était parfaitement capable de gérer du 1080p pour le visionnage de vidéos en déporté alors qu'il aurait été incapable de gérer du 1080p en interne, c'est à dire s'il avait un écran avec cette résolution en prenant en compte le fait qu'il n'avait que 512 Mo de RAM dont une partie sert justement à la gestion de l'affichage comme c'est le cas avec les CPU Intel Desktop avec du Intel Graphics...

Ben ouais, faut pas comparer un OS Desktop du genre Windows avec un OS mobile dans un produit intégrant son propre affichage...

Le #1829976
1. Sophisme. Exploiter l’excès de puissance sort du cadre de la comparaison. A tâche égale, tu consommes moins, period. Si les jeux veulent faire mieux, ne limitent pas leur FPS, si tu tiens à utiliser des applis plus gourmandes, il faut accepter la réalité, ou rester sur un matériel vétuste qui va ramer de plus en plus.
2. J'ai du mal à saisir où tu veux en venir. Que le téléphone puisse ou non exploiter le format de sortie à son compte est une toute autre problématique. La gestion du décodage en hard que ce soit pour une sortie déportée ou pas reste un gros avantage pour la conso. De plus, les formats plus "light" sont bien souvent aussi pris en charge avec ces mêmes avantages.
Ton exemple est aussi le brillant exemple du pourquoi certaines tâches sont confiées à des processeurs spécialisés (qui doivent évoluer au grès des "standards") plutôt qu'à l'environnement CPU qui n'en est pas forcément capable.

L'essence même du CPU est bel et bien de se taper à la force du poignet tout ce que le hardware ne gère pas nativement. Si un excès de puissance à la sortie peut paraître inadapté, cela peut par la suite agréablement prolonger la durée de vie avec un peu d'huile de coude (si ce n'était ces batteries à la con).
Anonyme
Le #1830030
Truffor a écrit :

1. Sophisme. Exploiter l’excès de puissance sort du cadre de la comparaison. A tâche égale, tu consommes moins, period. Si les jeux veulent faire mieux, ne limitent pas leur FPS, si tu tiens à utiliser des applis plus gourmandes, il faut accepter la réalité, ou rester sur un matériel vétuste qui va ramer de plus en plus.
2. J'ai du mal à saisir où tu veux en venir. Que le téléphone puisse ou non exploiter le format de sortie à son compte est une toute autre problématique. La gestion du décodage en hard que ce soit pour une sortie déportée ou pas reste un gros avantage pour la conso. De plus, les formats plus "light" sont bien souvent aussi pris en charge avec ces mêmes avantages.
Ton exemple est aussi le brillant exemple du pourquoi certaines tâches sont confiées à des processeurs spécialisés (qui doivent évoluer au grès des "standards") plutôt qu'à l'environnement CPU qui n'en est pas forcément capable.

L'essence même du CPU est bel et bien de se taper à la force du poignet tout ce que le hardware ne gère pas nativement. Si un excès de puissance à la sortie peut paraître inadapté, cela peut par la suite agréablement prolonger la durée de vie avec un peu d'huile de coude (si ce n'était ces batteries à la con).


Je persiste à penser que cette course à la puissance tant CPU que de l'affichage est totalement dérisoire et superflue pour un smartphone d'autant que l'autonomie n'augmente pas pour autant, alors que pour un usage Tablette cela pourrait "éventuellement" se comprendre si on se veut se rapprocher d'un usage PC Desktop/Laptop.

C'est pas pour rien s'il y a de plus en plus de smartphones se contentant du 720 avec justement une plus grosse batterie, alors qu'on pourrait aller jusqu'au 1080, ce qui serait plus que suffisant pour l'oeil humain tout en préservant une très bonne autonomie !


"Ton exemple est aussi le brillant exemple du pourquoi certaines tâches sont confiées à des processeurs spécialisés (qui doivent évoluer au grès des "standards") plutôt qu'à l'environnement CPU qui n'en est pas forcément capable."

Voilà justement un excellent exemple sur ce quoi les constructeurs devraient se concentrer : les processeurs spécialisés qui déchargeraient le CPU des tâches ingrates...

Suivre les commentaires
Poster un commentaire
Anonyme
:) ;) :D ^^ 8) :| :lol: :p :-/ :o :w00t: :roll: :( :cry: :facepalm:
:andy: :annoyed: :bandit: :alien: :ninja: :agent: :doh: :@ :sick: :kiss: :love: :sleep: :whistle: =]