On Wed, 08 Nov 2006 12:24:44 +0100, Pierre PANTALÉON wrote:
Yves a écrit :
Pierre PANTALÉON a écrit :
Yves a écrit :
Nicolas Croiset a écrit :
L'amélioration de la correction d'erreur est obligatoire car le MP2 autorise un taux d'erreur de 1 10-4 alors que le HE-AAC V2 impose un taux d'erreur inférieur à 1 10-9 (sans les outils de complémentaires lié à la resilience d'erreur). Pour mémoire entre un canal en UEP et
Heu, j'ai bien compris ? le HE-AAC v2 autorise un taux d'erreur 100 000 fois moindre que le MP2 ? ou j'ai loupé un truc ?
autant pour moi, mais la phrase et sacrément mal tournée !!
C'est vrai, j'ai répondu un peu vite, mais je suis sidéré de la différence d'erreurs acceptables... Un facteur 100 000 est quand même énorme !
Pour comprendre il faudrait voir comment le son est encodé.
En mp2 je crois, il me semble que le son est décomposé en bande de 750 Hz, donc en fait une simple erreur dans le flux, va perturbé certaines fréquences en déformant mais sans couper le son je pense, mais par contre pour HE-AAC v2 je n'ai aucune idée du principe et de l'organisation des données. Si quelqu'un peut essayer de nous(m')expliquer on comprendra mieux.
La norme MPEG associée à l'audio (ISO 14496-3) fait plus de 1100 pages, il est donc difficile de résumer.
Il faut déjà comprendre que la dimension des trames audio sont différentes. En MPEG 1 layer II, la trame à 48kHz d'échantillonnage fait 24ms, ce qui rends toute erreur imperceptible vu sa durée (le son est coupé durant 24ms). En HE-AAC V2, une trame fait environ 120ms, donc toute erreur est perceptible du fait de sa durée (le son est coupé durant 120ms)... Ensuite le layer II est plus robuste à l'erreur et on peut avoir jusqu'à 5 bits faux par trame de 24ms sans que cela soit audible, c'est d'ailleurs une des raisons pourquoi en broadcast on utilise le layer II et non le layer III. En HE-AAC, sans les outils ER, n'accepte pas d'erreur sur l'ensemble des octets de chaque trame (pour simplifier).
Le plus long dans l'écriture de la norme, ce sont les tests dans des conditions réelles ou simulées pour voir comment réagi le décodeur audio face au monde impitoyable qu'est le broadcast (on ne peut pas répéter la trame quand une personne l'a mal reçue contrairement aux télécoms !) et comment corriger les erreurs en étant le plus efficace possible et sans avoir une centrale nucléaire dans le dos car chaque process de correction d'erreur coûte en MIPS, overhead et en consommation électrique.
A+
On Wed, 08 Nov 2006 12:24:44 +0100, Pierre PANTALÉON
<000pipantal@free.fr000> wrote:
Yves a écrit :
Pierre PANTALÉON a écrit :
Yves a écrit :
Nicolas Croiset a écrit :
L'amélioration de la correction d'erreur est obligatoire car le MP2
autorise un taux d'erreur de 1 10-4 alors que le HE-AAC V2 impose un
taux d'erreur inférieur à 1 10-9 (sans les outils de complémentaires
lié à la resilience d'erreur). Pour mémoire entre un canal en UEP et
Heu, j'ai bien compris ? le HE-AAC v2 autorise un taux d'erreur 100 000
fois moindre que le MP2 ? ou j'ai loupé un truc ?
autant pour moi, mais la phrase et sacrément mal tournée !!
C'est vrai, j'ai répondu un peu vite, mais je suis sidéré de la
différence d'erreurs acceptables... Un facteur 100 000 est quand même
énorme !
Pour comprendre il faudrait voir comment le son est encodé.
En mp2 je crois, il me semble que le son est décomposé en bande de 750
Hz, donc en fait une simple erreur dans le flux, va perturbé certaines
fréquences en déformant mais sans couper le son je pense, mais par
contre pour HE-AAC v2 je n'ai aucune idée du principe et de
l'organisation des données. Si quelqu'un peut essayer de
nous(m')expliquer on comprendra mieux.
La norme MPEG associée à l'audio (ISO 14496-3) fait plus de 1100
pages, il est donc difficile de résumer.
Il faut déjà comprendre que la dimension des trames audio sont
différentes. En MPEG 1 layer II, la trame à 48kHz d'échantillonnage
fait 24ms, ce qui rends toute erreur imperceptible vu sa durée (le son
est coupé durant 24ms). En HE-AAC V2, une trame fait environ 120ms,
donc toute erreur est perceptible du fait de sa durée (le son est
coupé durant 120ms)... Ensuite le layer II est plus robuste à l'erreur
et on peut avoir jusqu'à 5 bits faux par trame de 24ms sans que cela
soit audible, c'est d'ailleurs une des raisons pourquoi en broadcast
on utilise le layer II et non le layer III. En HE-AAC, sans les outils
ER, n'accepte pas d'erreur sur l'ensemble des octets de chaque trame
(pour simplifier).
Le plus long dans l'écriture de la norme, ce sont les tests dans des
conditions réelles ou simulées pour voir comment réagi le décodeur
audio face au monde impitoyable qu'est le broadcast (on ne peut pas
répéter la trame quand une personne l'a mal reçue contrairement aux
télécoms !) et comment corriger les erreurs en étant le plus efficace
possible et sans avoir une centrale nucléaire dans le dos car chaque
process de correction d'erreur coûte en MIPS, overhead et en
consommation électrique.
On Wed, 08 Nov 2006 12:24:44 +0100, Pierre PANTALÉON wrote:
Yves a écrit :
Pierre PANTALÉON a écrit :
Yves a écrit :
Nicolas Croiset a écrit :
L'amélioration de la correction d'erreur est obligatoire car le MP2 autorise un taux d'erreur de 1 10-4 alors que le HE-AAC V2 impose un taux d'erreur inférieur à 1 10-9 (sans les outils de complémentaires lié à la resilience d'erreur). Pour mémoire entre un canal en UEP et
Heu, j'ai bien compris ? le HE-AAC v2 autorise un taux d'erreur 100 000 fois moindre que le MP2 ? ou j'ai loupé un truc ?
autant pour moi, mais la phrase et sacrément mal tournée !!
C'est vrai, j'ai répondu un peu vite, mais je suis sidéré de la différence d'erreurs acceptables... Un facteur 100 000 est quand même énorme !
Pour comprendre il faudrait voir comment le son est encodé.
En mp2 je crois, il me semble que le son est décomposé en bande de 750 Hz, donc en fait une simple erreur dans le flux, va perturbé certaines fréquences en déformant mais sans couper le son je pense, mais par contre pour HE-AAC v2 je n'ai aucune idée du principe et de l'organisation des données. Si quelqu'un peut essayer de nous(m')expliquer on comprendra mieux.
La norme MPEG associée à l'audio (ISO 14496-3) fait plus de 1100 pages, il est donc difficile de résumer.
Il faut déjà comprendre que la dimension des trames audio sont différentes. En MPEG 1 layer II, la trame à 48kHz d'échantillonnage fait 24ms, ce qui rends toute erreur imperceptible vu sa durée (le son est coupé durant 24ms). En HE-AAC V2, une trame fait environ 120ms, donc toute erreur est perceptible du fait de sa durée (le son est coupé durant 120ms)... Ensuite le layer II est plus robuste à l'erreur et on peut avoir jusqu'à 5 bits faux par trame de 24ms sans que cela soit audible, c'est d'ailleurs une des raisons pourquoi en broadcast on utilise le layer II et non le layer III. En HE-AAC, sans les outils ER, n'accepte pas d'erreur sur l'ensemble des octets de chaque trame (pour simplifier).
Le plus long dans l'écriture de la norme, ce sont les tests dans des conditions réelles ou simulées pour voir comment réagi le décodeur audio face au monde impitoyable qu'est le broadcast (on ne peut pas répéter la trame quand une personne l'a mal reçue contrairement aux télécoms !) et comment corriger les erreurs en étant le plus efficace possible et sans avoir une centrale nucléaire dans le dos car chaque process de correction d'erreur coûte en MIPS, overhead et en consommation électrique.