Mon APN prend au max des jpeg fine.
Je veux une réelle sécuritée.
Que pensez vous d'une double gravure sur DVD des photos brutes (je pensez
juste effectuer une rotation des verticales sans perte mais je ne sais pas
si il n'y a pas quand même une perte)
Puis retouche des meilleures et là probleme, que faut il faire?
enregistrer et graver en tiff pour sauver le temps passsé de travail et
pouvoir plus tard faire des impressions ? (les fichier sont si gros!!!!)
ou peut on par l'utitlisation de calques faire toutes les operations et
n'enregistrer que les calques?
Le Fri, 24 Sep 2004 15:25:57 +0000 (UTC), "Francois Fornier" écrivait dans fr.rec.photo.numerique:
Bonjour,
"Denis Beauregard" wrote in message news:
Appliquer le principe de Nyquist !
<snip >
En d'autres mots, si on prend une image .jpg de 1000 x 1000 et qu'on la transforme en 2000 x 2000 pour la manipuler, il ne devrait y avoir aucune perte. Idem si on considère que notre image de 1000 x 1000 a la précision d'une 500 x 500.
Ca, c'est valable pour l'acquisition de l'image sur un capteur, pas pour la compression, il me semble.
C'est la même chose. En radio, cela s'applique à la transmission du message. En photo, la transmission du message, c'est le fichier dans lequel l'image est conservé.
Mais, comme je disais, ce n'est pas le nombre de points pour l'affichage qui compte, mais le nombre de points pour représenter l'image. Il est bien possible qu'une image de 1000 pixels de large soit approximée par 100 points (pour s'en convaincre, regardez l'effet que donne la meilleure compression ou la pire qualité avec l'image d'une ligne verticale.
C'est le nombre de points d'approximation qui compte et je ne sais pas si on peut le calculer.
Denis
Le Fri, 24 Sep 2004 15:25:57 +0000 (UTC), "Francois Fornier"
<francois.fornier@alcatel.fr> écrivait dans fr.rec.photo.numerique:
Bonjour,
"Denis Beauregard" <no@nospam.com.invalid> wrote in message
news:gg46l01ludo6okrp08r8emaigfotqin4cb@4ax.com
Appliquer le principe de Nyquist !
<snip >
En d'autres mots, si on prend une image .jpg de 1000 x 1000 et qu'on
la transforme en 2000 x 2000 pour la manipuler, il ne devrait y avoir
aucune perte. Idem si on considère que notre image de 1000 x 1000
a la précision d'une 500 x 500.
Ca, c'est valable pour l'acquisition de l'image sur un capteur, pas
pour la compression, il me semble.
C'est la même chose. En radio, cela s'applique à la transmission
du message. En photo, la transmission du message, c'est le fichier
dans lequel l'image est conservé.
Mais, comme je disais, ce n'est pas le nombre de points pour
l'affichage qui compte, mais le nombre de points pour représenter
l'image. Il est bien possible qu'une image de 1000 pixels de large
soit approximée par 100 points (pour s'en convaincre, regardez
l'effet que donne la meilleure compression ou la pire qualité avec
l'image d'une ligne verticale.
C'est le nombre de points d'approximation qui compte et je ne sais pas
si on peut le calculer.
Le Fri, 24 Sep 2004 15:25:57 +0000 (UTC), "Francois Fornier" écrivait dans fr.rec.photo.numerique:
Bonjour,
"Denis Beauregard" wrote in message news:
Appliquer le principe de Nyquist !
<snip >
En d'autres mots, si on prend une image .jpg de 1000 x 1000 et qu'on la transforme en 2000 x 2000 pour la manipuler, il ne devrait y avoir aucune perte. Idem si on considère que notre image de 1000 x 1000 a la précision d'une 500 x 500.
Ca, c'est valable pour l'acquisition de l'image sur un capteur, pas pour la compression, il me semble.
C'est la même chose. En radio, cela s'applique à la transmission du message. En photo, la transmission du message, c'est le fichier dans lequel l'image est conservé.
Mais, comme je disais, ce n'est pas le nombre de points pour l'affichage qui compte, mais le nombre de points pour représenter l'image. Il est bien possible qu'une image de 1000 pixels de large soit approximée par 100 points (pour s'en convaincre, regardez l'effet que donne la meilleure compression ou la pire qualité avec l'image d'une ligne verticale.
C'est le nombre de points d'approximation qui compte et je ne sais pas si on peut le calculer.
Denis
Peter Pan
C'est comme ça que je le comprends. Maintenant, j'enfile ma combi en amiante, sait-on jamais... voila, je suis prêt!
Excellent ! Mais trouve autre chose que l'amiante steup' ;-)
-- Pierre http://www.1966.fr/
C'est comme ça que je le comprends. Maintenant, j'enfile ma combi
en amiante, sait-on jamais... voila, je suis prêt!
Excellent ! Mais trouve autre chose que l'amiante steup' ;-)
C'est comme ça que je le comprends. Maintenant, j'enfile ma combi en amiante, sait-on jamais... voila, je suis prêt!
Excellent ! Mais trouve autre chose que l'amiante steup' ;-)
-- Pierre http://www.1966.fr/
Francois Fornier
"Denis Beauregard" wrote in message news:
Le Fri, 24 Sep 2004 15:25:57 +0000 (UTC), "Francois Fornier" écrivait dans fr.rec.photo.numerique:
Bonjour,
"Denis Beauregard" wrote in message news:
Appliquer le principe de Nyquist !
<snip >
En d'autres mots, si on prend une image .jpg de 1000 x 1000 et qu'on la transforme en 2000 x 2000 pour la manipuler, il ne devrait y avoir aucune perte. Idem si on considère que notre image de 1000 x 1000 a la précision d'une 500 x 500.
Ca, c'est valable pour l'acquisition de l'image sur un capteur, pas pour la compression, il me semble.
C'est la même chose. En radio, cela s'applique à la transmission du message. En photo, la transmission du message, c'est le fichier dans lequel l'image est conservé.
Oui bien sûr. Ceci dit, le fichier image n'est pas nécessairement compressé (le jpeg n'étant qu'un format parmis d'autres).
Dès que la compression entre en ligne de compte, à partir du moment ou c'est une compression avec perte, on s'interdit de reconstruire le signal à l'identique.
A titre d'exemple, supposons que je prennes ce fameux fichier 1000x1000 et que je le transforme en fichier 2000x2000 pour le travailler. Déjà j'introduit des approximations, l'interpolation, qui va recréer de l'information qui n'existait pas dans le fichier original (à tort ou à raison).
Ensuite, je le sauve, donc sous-échantillonnage à 1000x1000 suivi d'une compression avec perte.
Si le théorème de Nyquist s'applique, alors je n'ai pas perte, puisque je suis capable de reconstruire le signal original (l'image) fidèlement.
Et pourtant, la compression est avec perte et je n'ai pas encore abordé le sujet du niveau de compression requis (x% ou autre) qui a une effet non négligeable sur le résultat obtenu.
Je veux dire que si Nyquist s'appliquait, on ré-echantillonnerais tous nos image avant traitement pour ensuite les enregistrer à la compression maximale.
C'est comme ça que je le comprends. Maintenant, j'enfile ma combi en amiante, sait-on jamais... voila, je suis prêt!
François ignifugé
-- Posted via Mailgate.ORG Server - http://www.Mailgate.ORG
"Denis Beauregard" <no@nospam.com.invalid> wrote in message
news:ghg8l0h99e8rvvrfackrvcrlgns377t764@4ax.com
Le Fri, 24 Sep 2004 15:25:57 +0000 (UTC), "Francois Fornier"
<francois.fornier@alcatel.fr> écrivait dans fr.rec.photo.numerique:
Bonjour,
"Denis Beauregard" <no@nospam.com.invalid> wrote in message
news:gg46l01ludo6okrp08r8emaigfotqin4cb@4ax.com
Appliquer le principe de Nyquist !
<snip >
En d'autres mots, si on prend une image .jpg de 1000 x 1000 et qu'on
la transforme en 2000 x 2000 pour la manipuler, il ne devrait y avoir
aucune perte. Idem si on considère que notre image de 1000 x 1000
a la précision d'une 500 x 500.
Ca, c'est valable pour l'acquisition de l'image sur un capteur, pas
pour la compression, il me semble.
C'est la même chose. En radio, cela s'applique à la transmission
du message. En photo, la transmission du message, c'est le fichier
dans lequel l'image est conservé.
Oui bien sûr. Ceci dit, le fichier image n'est pas nécessairement
compressé (le jpeg n'étant qu'un format parmis d'autres).
Dès que la compression entre en ligne de compte, à partir du moment
ou c'est une compression avec perte, on s'interdit de reconstruire
le signal à l'identique.
A titre d'exemple, supposons que je prennes ce fameux fichier 1000x1000
et que je le transforme en fichier 2000x2000 pour le travailler. Déjà
j'introduit des approximations, l'interpolation, qui va recréer de
l'information qui n'existait pas dans le fichier original (à tort ou
à raison).
Ensuite, je le sauve, donc sous-échantillonnage à 1000x1000 suivi d'une
compression avec perte.
Si le théorème de Nyquist s'applique, alors je n'ai pas perte, puisque
je suis capable de reconstruire le signal original (l'image) fidèlement.
Et pourtant, la compression est avec perte et je n'ai pas encore
abordé le sujet du niveau de compression requis (x% ou autre) qui a
une effet non négligeable sur le résultat obtenu.
Je veux dire que si Nyquist s'appliquait, on ré-echantillonnerais tous
nos image avant traitement pour ensuite les enregistrer à la compression
maximale.
C'est comme ça que je le comprends. Maintenant, j'enfile ma combi
en amiante, sait-on jamais... voila, je suis prêt!
François
ignifugé
--
Posted via Mailgate.ORG Server - http://www.Mailgate.ORG
Le Fri, 24 Sep 2004 15:25:57 +0000 (UTC), "Francois Fornier" écrivait dans fr.rec.photo.numerique:
Bonjour,
"Denis Beauregard" wrote in message news:
Appliquer le principe de Nyquist !
<snip >
En d'autres mots, si on prend une image .jpg de 1000 x 1000 et qu'on la transforme en 2000 x 2000 pour la manipuler, il ne devrait y avoir aucune perte. Idem si on considère que notre image de 1000 x 1000 a la précision d'une 500 x 500.
Ca, c'est valable pour l'acquisition de l'image sur un capteur, pas pour la compression, il me semble.
C'est la même chose. En radio, cela s'applique à la transmission du message. En photo, la transmission du message, c'est le fichier dans lequel l'image est conservé.
Oui bien sûr. Ceci dit, le fichier image n'est pas nécessairement compressé (le jpeg n'étant qu'un format parmis d'autres).
Dès que la compression entre en ligne de compte, à partir du moment ou c'est une compression avec perte, on s'interdit de reconstruire le signal à l'identique.
A titre d'exemple, supposons que je prennes ce fameux fichier 1000x1000 et que je le transforme en fichier 2000x2000 pour le travailler. Déjà j'introduit des approximations, l'interpolation, qui va recréer de l'information qui n'existait pas dans le fichier original (à tort ou à raison).
Ensuite, je le sauve, donc sous-échantillonnage à 1000x1000 suivi d'une compression avec perte.
Si le théorème de Nyquist s'applique, alors je n'ai pas perte, puisque je suis capable de reconstruire le signal original (l'image) fidèlement.
Et pourtant, la compression est avec perte et je n'ai pas encore abordé le sujet du niveau de compression requis (x% ou autre) qui a une effet non négligeable sur le résultat obtenu.
Je veux dire que si Nyquist s'appliquait, on ré-echantillonnerais tous nos image avant traitement pour ensuite les enregistrer à la compression maximale.
C'est comme ça que je le comprends. Maintenant, j'enfile ma combi en amiante, sait-on jamais... voila, je suis prêt!
François ignifugé
-- Posted via Mailgate.ORG Server - http://www.Mailgate.ORG
Francois Fornier
"Peter Pan" wrote in message news:41544ebe$0$15752$
Excellent ! Mais trouve autre chose que l'amiante steup' ;-)
Désolé, je suis de la vieille école (celle ou l'on avait floqué tous les faux plafonds)! La prochaine fois, peut-être...
-- Posted via Mailgate.ORG Server - http://www.Mailgate.ORG
"Peter Pan" <no@spam.com> wrote in message
news:41544ebe$0$15752$7a628cd7@news.club-internet.fr
Excellent ! Mais trouve autre chose que l'amiante steup' ;-)
Désolé, je suis de la vieille école (celle ou l'on avait floqué tous les
faux plafonds)! La prochaine fois, peut-être...
--
Posted via Mailgate.ORG Server - http://www.Mailgate.ORG
"Peter Pan" wrote in message news:41544ebe$0$15752$
Excellent ! Mais trouve autre chose que l'amiante steup' ;-)
Désolé, je suis de la vieille école (celle ou l'on avait floqué tous les faux plafonds)! La prochaine fois, peut-être...
-- Posted via Mailgate.ORG Server - http://www.Mailgate.ORG
Denis Beauregard
Le Fri, 24 Sep 2004 16:41:03 +0000 (UTC), "Francois Fornier" écrivait dans fr.rec.photo.numerique:
Oui bien sûr. Ceci dit, le fichier image n'est pas nécessairement compressé (le jpeg n'étant qu'un format parmis d'autres).
Non, justement, ce n'est pas un format comme les autres. Les autres compriment en fonction des points qui se répètent, donc peuvent reproduire les données initiales. jpg considère que c'est une courbe qui est enregistrée. Et une courbe, on peut approximer cela avec plus ou moins de points, et on la reconstitue en faisant passer une courbe par les points conservés. C'est pour cela qu'en jpg, on peut comprimer à différents niveaux une ligne d'un nombre fixe de points, ce qui ne se fait pas en gif, tiff comprimé, png ou zip.
Dès que la compression entre en ligne de compte, à partir du moment ou c'est une compression avec perte, on s'interdit de reconstruire le signal à l'identique.
C'est une erreur de dire cela. La perte intervient seulement si on échantillonne un nombre insuffisant de points. Si on passe de 1000 à 2000 pour travailler et qu'on redescend à 1000 **avant** de comprimer, donc de réduire l'échantillonnage, on a une perte. Si on comprime à 2000 points avec un échantillonnage suffisant, il n'y a pas de perte.
A titre d'exemple, supposons que je prennes ce fameux fichier 1000x1000 et que je le transforme en fichier 2000x2000 pour le travailler. Déjà j'introduit des approximations, l'interpolation, qui va recréer de l'information qui n'existait pas dans le fichier original (à tort ou à raison).
C'est le contraire de ce que dit le théorème de Nyquist. Si on prend le fichier de 1000 pixels, qu'on passe à 2000 et qu'on ramène à 1000, il n'y a pas de perte. L'interpolation des 1000 points manquants n'introduit pas de perte quand on revient en arrière. Mais si on passe de 1000 à 1500 et à 1000 encore, alors il y a une perte parce qu'on n'a pas doublé le nombre de points.
Ensuite, je le sauve, donc sous-échantillonnage à 1000x1000 suivi d'une compression avec perte.
Si le théorème de Nyquist s'applique, alors je n'ai pas perte, puisque je suis capable de reconstruire le signal original (l'image) fidèlement.
Il y a perte, au contraire. C'est à 2000 points qu'il n'y a pas de perte (2 fois la fréquence d'échantillonnage).
Et pourtant, la compression est avec perte et je n'ai pas encore abordé le sujet du niveau de compression requis (x% ou autre) qui a une effet non négligeable sur le résultat obtenu.
Ce niveau de compression est une diminution du nombre de points d'échantillonnages. Il faut bien garder en vue que c'est le nombre de points échantillonnés et non affichés qui compte.
Je veux dire que si Nyquist s'appliquait, on ré-echantillonnerais tous nos image avant traitement pour ensuite les enregistrer à la compression maximale.
C'est comme ça que je le comprends. Maintenant, j'enfile ma combi en amiante, sait-on jamais... voila, je suis prêt!
Le théorême de Nyquist s'applique plus facilement à la voix. Avec une image, on n'a pas le nombre réel de points d'échantillonnages, ce qui rend difficile les explications.
Denis
Le Fri, 24 Sep 2004 16:41:03 +0000 (UTC), "Francois Fornier"
<francois.fornier@alcatel.fr> écrivait dans fr.rec.photo.numerique:
Oui bien sûr. Ceci dit, le fichier image n'est pas nécessairement
compressé (le jpeg n'étant qu'un format parmis d'autres).
Non, justement, ce n'est pas un format comme les autres.
Les autres compriment en fonction des points qui se
répètent, donc peuvent reproduire les données initiales.
jpg considère que c'est une courbe qui est enregistrée.
Et une courbe, on peut approximer cela avec plus ou moins
de points, et on la reconstitue en faisant passer une courbe
par les points conservés. C'est pour cela qu'en jpg, on peut
comprimer à différents niveaux une ligne d'un nombre fixe de
points, ce qui ne se fait pas en gif, tiff comprimé, png ou zip.
Dès que la compression entre en ligne de compte, à partir du moment
ou c'est une compression avec perte, on s'interdit de reconstruire
le signal à l'identique.
C'est une erreur de dire cela. La perte intervient seulement si
on échantillonne un nombre insuffisant de points. Si on passe de
1000 à 2000 pour travailler et qu'on redescend à 1000 **avant** de
comprimer, donc de réduire l'échantillonnage, on a une perte. Si
on comprime à 2000 points avec un échantillonnage suffisant, il n'y
a pas de perte.
A titre d'exemple, supposons que je prennes ce fameux fichier 1000x1000
et que je le transforme en fichier 2000x2000 pour le travailler. Déjà
j'introduit des approximations, l'interpolation, qui va recréer de
l'information qui n'existait pas dans le fichier original (à tort ou
à raison).
C'est le contraire de ce que dit le théorème de Nyquist. Si on
prend le fichier de 1000 pixels, qu'on passe à 2000 et qu'on ramène
à 1000, il n'y a pas de perte. L'interpolation des 1000 points
manquants n'introduit pas de perte quand on revient en arrière.
Mais si on passe de 1000 à 1500 et à 1000 encore, alors il y a une
perte parce qu'on n'a pas doublé le nombre de points.
Ensuite, je le sauve, donc sous-échantillonnage à 1000x1000 suivi d'une
compression avec perte.
Si le théorème de Nyquist s'applique, alors je n'ai pas perte, puisque
je suis capable de reconstruire le signal original (l'image) fidèlement.
Il y a perte, au contraire. C'est à 2000 points qu'il n'y a pas de
perte (2 fois la fréquence d'échantillonnage).
Et pourtant, la compression est avec perte et je n'ai pas encore
abordé le sujet du niveau de compression requis (x% ou autre) qui a
une effet non négligeable sur le résultat obtenu.
Ce niveau de compression est une diminution du nombre de points
d'échantillonnages. Il faut bien garder en vue que c'est le nombre
de points échantillonnés et non affichés qui compte.
Je veux dire que si Nyquist s'appliquait, on ré-echantillonnerais tous
nos image avant traitement pour ensuite les enregistrer à la compression
maximale.
C'est comme ça que je le comprends. Maintenant, j'enfile ma combi
en amiante, sait-on jamais... voila, je suis prêt!
Le théorême de Nyquist s'applique plus facilement à la voix. Avec une
image, on n'a pas le nombre réel de points d'échantillonnages, ce qui
rend difficile les explications.
Le Fri, 24 Sep 2004 16:41:03 +0000 (UTC), "Francois Fornier" écrivait dans fr.rec.photo.numerique:
Oui bien sûr. Ceci dit, le fichier image n'est pas nécessairement compressé (le jpeg n'étant qu'un format parmis d'autres).
Non, justement, ce n'est pas un format comme les autres. Les autres compriment en fonction des points qui se répètent, donc peuvent reproduire les données initiales. jpg considère que c'est une courbe qui est enregistrée. Et une courbe, on peut approximer cela avec plus ou moins de points, et on la reconstitue en faisant passer une courbe par les points conservés. C'est pour cela qu'en jpg, on peut comprimer à différents niveaux une ligne d'un nombre fixe de points, ce qui ne se fait pas en gif, tiff comprimé, png ou zip.
Dès que la compression entre en ligne de compte, à partir du moment ou c'est une compression avec perte, on s'interdit de reconstruire le signal à l'identique.
C'est une erreur de dire cela. La perte intervient seulement si on échantillonne un nombre insuffisant de points. Si on passe de 1000 à 2000 pour travailler et qu'on redescend à 1000 **avant** de comprimer, donc de réduire l'échantillonnage, on a une perte. Si on comprime à 2000 points avec un échantillonnage suffisant, il n'y a pas de perte.
A titre d'exemple, supposons que je prennes ce fameux fichier 1000x1000 et que je le transforme en fichier 2000x2000 pour le travailler. Déjà j'introduit des approximations, l'interpolation, qui va recréer de l'information qui n'existait pas dans le fichier original (à tort ou à raison).
C'est le contraire de ce que dit le théorème de Nyquist. Si on prend le fichier de 1000 pixels, qu'on passe à 2000 et qu'on ramène à 1000, il n'y a pas de perte. L'interpolation des 1000 points manquants n'introduit pas de perte quand on revient en arrière. Mais si on passe de 1000 à 1500 et à 1000 encore, alors il y a une perte parce qu'on n'a pas doublé le nombre de points.
Ensuite, je le sauve, donc sous-échantillonnage à 1000x1000 suivi d'une compression avec perte.
Si le théorème de Nyquist s'applique, alors je n'ai pas perte, puisque je suis capable de reconstruire le signal original (l'image) fidèlement.
Il y a perte, au contraire. C'est à 2000 points qu'il n'y a pas de perte (2 fois la fréquence d'échantillonnage).
Et pourtant, la compression est avec perte et je n'ai pas encore abordé le sujet du niveau de compression requis (x% ou autre) qui a une effet non négligeable sur le résultat obtenu.
Ce niveau de compression est une diminution du nombre de points d'échantillonnages. Il faut bien garder en vue que c'est le nombre de points échantillonnés et non affichés qui compte.
Je veux dire que si Nyquist s'appliquait, on ré-echantillonnerais tous nos image avant traitement pour ensuite les enregistrer à la compression maximale.
C'est comme ça que je le comprends. Maintenant, j'enfile ma combi en amiante, sait-on jamais... voila, je suis prêt!
Le théorême de Nyquist s'applique plus facilement à la voix. Avec une image, on n'a pas le nombre réel de points d'échantillonnages, ce qui rend difficile les explications.
Denis
François FORNIER
Attends! Pour moi ce théorême s'applique à la numérisation d'un s ignal analogique (en pratique qui peut-être décomposé en une somme de sinusoïdes), et la tu parles de numériser un signal numérique...
Si seulement je pouvais me rappeler un peu mieux de mes cours de maths/physique...
F.
Attends! Pour moi ce théorême s'applique à la numérisation d'un s ignal
analogique (en pratique qui peut-être décomposé en une somme de
sinusoïdes), et la tu parles de numériser un signal numérique...
Si seulement je pouvais me rappeler un peu mieux de mes cours de
maths/physique...
Attends! Pour moi ce théorême s'applique à la numérisation d'un s ignal analogique (en pratique qui peut-être décomposé en une somme de sinusoïdes), et la tu parles de numériser un signal numérique...
Si seulement je pouvais me rappeler un peu mieux de mes cours de maths/physique...
F.
Denis Beauregard
Le Fri, 24 Sep 2004 22:22:18 +0200, François FORNIER écrivait dans fr.rec.photo.numerique:
Attends! Pour moi ce théorême s'applique à la numérisation d'un signal analogique (en pratique qui peut-être décomposé en une somme de sinusoïdes), et la tu parles de numériser un signal numérique...
Et comment on le traite ce signal analogique ? En le transformant en signal numérique !
Je rappelle que le format jpg est mieux adapté aux photos car il comprime mieux, pour une qualité égale, les variations de teinte que l'on trouve dans la nature, comme le visage d'une personne, les ombres diffuses, etc. Donc, il est mieux adapté à la photo, alors que les .gif ou .png sont mieux adaptés à des graphiques, à des copies d'écran (bouton print screen), à des cartes routières, etc.
L'effet de la courbure devient évident quand on prend l'image d'une ligne verticale et qu'on augmente de beaucoup le taux de compression.
Denis
Le Fri, 24 Sep 2004 22:22:18 +0200, François FORNIER
<nospam@nospam.com> écrivait dans fr.rec.photo.numerique:
Attends! Pour moi ce théorême s'applique à la numérisation d'un signal
analogique (en pratique qui peut-être décomposé en une somme de
sinusoïdes), et la tu parles de numériser un signal numérique...
Et comment on le traite ce signal analogique ? En le transformant
en signal numérique !
Je rappelle que le format jpg est mieux adapté aux photos car
il comprime mieux, pour une qualité égale, les variations de
teinte que l'on trouve dans la nature, comme le visage d'une
personne, les ombres diffuses, etc. Donc, il est mieux adapté
à la photo, alors que les .gif ou .png sont mieux adaptés
à des graphiques, à des copies d'écran (bouton print screen),
à des cartes routières, etc.
L'effet de la courbure devient évident quand on prend l'image
d'une ligne verticale et qu'on augmente de beaucoup le taux
de compression.
Le Fri, 24 Sep 2004 22:22:18 +0200, François FORNIER écrivait dans fr.rec.photo.numerique:
Attends! Pour moi ce théorême s'applique à la numérisation d'un signal analogique (en pratique qui peut-être décomposé en une somme de sinusoïdes), et la tu parles de numériser un signal numérique...
Et comment on le traite ce signal analogique ? En le transformant en signal numérique !
Je rappelle que le format jpg est mieux adapté aux photos car il comprime mieux, pour une qualité égale, les variations de teinte que l'on trouve dans la nature, comme le visage d'une personne, les ombres diffuses, etc. Donc, il est mieux adapté à la photo, alors que les .gif ou .png sont mieux adaptés à des graphiques, à des copies d'écran (bouton print screen), à des cartes routières, etc.
L'effet de la courbure devient évident quand on prend l'image d'une ligne verticale et qu'on augmente de beaucoup le taux de compression.
Denis
François FORNIER
Denis Beauregard wrote:
Le Fri, 24 Sep 2004 22:22:18 +0200, François FORNIER écrivait dans fr.rec.photo.numerique:
Attends! Pour moi ce théorême s'applique à la numérisation d'un signal analogique (en pratique qui peut-être décomposé en une somme de sinusoïdes), et la tu parles de numériser un signal numérique...
Et comment on le traite ce signal analogique ? En le transformant en signal numérique !
Le signal _analogique_ en question dans la photographie numérique est l'onde qui à traversé l'objectif et se projette sur le capteur.
La résultante de l'échantillonnage qui le transforme en signal analogique est la sortie brute de capteur.
Le fichier jpeg que tu proposes de ré-échantillonner étant déjà numérisé par définition, le théorême de Nyquist ne s'applique pas.
Quand tu prends le signal en sortie de l'objectif, analogique lui, et que tu l'échantillonnes à l'aide du capteur, là il s'applique.
J'abandonne, ça me fiche la migraine.
Bonne soirée, François
Denis Beauregard wrote:
Le Fri, 24 Sep 2004 22:22:18 +0200, François FORNIER
<nospam@nospam.com> écrivait dans fr.rec.photo.numerique:
Attends! Pour moi ce théorême s'applique à la numérisation d'un signal
analogique (en pratique qui peut-être décomposé en une somme de
sinusoïdes), et la tu parles de numériser un signal numérique...
Et comment on le traite ce signal analogique ? En le transformant
en signal numérique !
Le signal _analogique_ en question dans la photographie numérique est
l'onde qui à traversé l'objectif et se projette sur le capteur.
La résultante de l'échantillonnage qui le transforme en signal
analogique est la sortie brute de capteur.
Le fichier jpeg que tu proposes de ré-échantillonner étant déjà numérisé
par définition, le théorême de Nyquist ne s'applique pas.
Quand tu prends le signal en sortie de l'objectif, analogique lui, et
que tu l'échantillonnes à l'aide du capteur, là il s'applique.
Le Fri, 24 Sep 2004 22:22:18 +0200, François FORNIER écrivait dans fr.rec.photo.numerique:
Attends! Pour moi ce théorême s'applique à la numérisation d'un signal analogique (en pratique qui peut-être décomposé en une somme de sinusoïdes), et la tu parles de numériser un signal numérique...
Et comment on le traite ce signal analogique ? En le transformant en signal numérique !
Le signal _analogique_ en question dans la photographie numérique est l'onde qui à traversé l'objectif et se projette sur le capteur.
La résultante de l'échantillonnage qui le transforme en signal analogique est la sortie brute de capteur.
Le fichier jpeg que tu proposes de ré-échantillonner étant déjà numérisé par définition, le théorême de Nyquist ne s'applique pas.
Quand tu prends le signal en sortie de l'objectif, analogique lui, et que tu l'échantillonnes à l'aide du capteur, là il s'applique.
J'abandonne, ça me fiche la migraine.
Bonne soirée, François
Macatack
"François FORNIER" a écrit dans le message de news: cj24eo$efj$ Denis Beauregard wrote:
Le Fri, 24 Sep 2004 22:22:18 +0200, François FORNIER écrivait dans fr.rec.photo.numerique:
Attends! Pour moi ce théorême s'applique à la numérisation d'un signal analogique (en pratique qui peut-être décomposé en une somme de sinusoïdes), et la tu parles de numériser un signal numérique...
Et comment on le traite ce signal analogique ? En le transformant en signal numérique !
Le signal _analogique_ en question dans la photographie numérique est l'onde qui à traversé l'objectif et se projette sur le capteur.
La résultante de l'échantillonnage qui le transforme en signal analogique est la sortie brute de capteur.
Le fichier jpeg que tu proposes de ré-échantillonner étant déjà numérisé par définition, le théorême de Nyquist ne s'applique pas.
Quand tu prends le signal en sortie de l'objectif, analogique lui, et que tu l'échantillonnes à l'aide du capteur, là il s'applique.
J'abandonne, ça me fiche la migraine.
Bonne soirée, François
Oulala c'est compliqué tout ça... jcomprends pas grand chose. En definitive vous utilisez simplement quel logiciel pour effectuer des rotations sans perte avant archivage? Je me contenterai de vous imiter...
"François FORNIER" <nospam@nospam.com> a écrit dans le message de news:
cj24eo$efj$1@news.tiscali.fr...
Denis Beauregard wrote:
Le Fri, 24 Sep 2004 22:22:18 +0200, François FORNIER
<nospam@nospam.com> écrivait dans fr.rec.photo.numerique:
Attends! Pour moi ce théorême s'applique à la numérisation d'un signal
analogique (en pratique qui peut-être décomposé en une somme de
sinusoïdes), et la tu parles de numériser un signal numérique...
Et comment on le traite ce signal analogique ? En le transformant
en signal numérique !
Le signal _analogique_ en question dans la photographie numérique est
l'onde qui à traversé l'objectif et se projette sur le capteur.
La résultante de l'échantillonnage qui le transforme en signal
analogique est la sortie brute de capteur.
Le fichier jpeg que tu proposes de ré-échantillonner étant déjà numérisé
par définition, le théorême de Nyquist ne s'applique pas.
Quand tu prends le signal en sortie de l'objectif, analogique lui, et
que tu l'échantillonnes à l'aide du capteur, là il s'applique.
J'abandonne, ça me fiche la migraine.
Bonne soirée,
François
Oulala c'est compliqué tout ça... jcomprends pas grand chose.
En definitive vous utilisez simplement quel logiciel pour effectuer des
rotations sans perte avant archivage?
Je me contenterai de vous imiter...
"François FORNIER" a écrit dans le message de news: cj24eo$efj$ Denis Beauregard wrote:
Le Fri, 24 Sep 2004 22:22:18 +0200, François FORNIER écrivait dans fr.rec.photo.numerique:
Attends! Pour moi ce théorême s'applique à la numérisation d'un signal analogique (en pratique qui peut-être décomposé en une somme de sinusoïdes), et la tu parles de numériser un signal numérique...
Et comment on le traite ce signal analogique ? En le transformant en signal numérique !
Le signal _analogique_ en question dans la photographie numérique est l'onde qui à traversé l'objectif et se projette sur le capteur.
La résultante de l'échantillonnage qui le transforme en signal analogique est la sortie brute de capteur.
Le fichier jpeg que tu proposes de ré-échantillonner étant déjà numérisé par définition, le théorême de Nyquist ne s'applique pas.
Quand tu prends le signal en sortie de l'objectif, analogique lui, et que tu l'échantillonnes à l'aide du capteur, là il s'applique.
J'abandonne, ça me fiche la migraine.
Bonne soirée, François
Oulala c'est compliqué tout ça... jcomprends pas grand chose. En definitive vous utilisez simplement quel logiciel pour effectuer des rotations sans perte avant archivage? Je me contenterai de vous imiter...
Francois Fornier
"Macatack" wrote in message news:41549af0$0$1677$
En definitive vous utilisez simplement quel logiciel pour effectuer des rotations sans perte avant archivage? Je me contenterai de vous imiter...
Je ne fait pas de rotation avant archivage car mes images incluent l'info permettant de les afficher dans le bon sens avec le soft kivabien.
Perso, j'utilise pmview. et il sait aussi faire des rotations sans perte pour les fichiers sans cette info.
-- Posted via Mailgate.ORG Server - http://www.Mailgate.ORG
"Macatack" <makhno2000@noos.fr> wrote in message
news:41549af0$0$1677$79c14f64@nan-newsreader-05.noos.net
En definitive vous utilisez simplement quel logiciel pour effectuer des
rotations sans perte avant archivage?
Je me contenterai de vous imiter...
Je ne fait pas de rotation avant archivage car mes images incluent
l'info permettant de les afficher dans le bon sens avec le soft
kivabien.
Perso, j'utilise pmview. et il sait aussi faire des rotations sans perte
pour les fichiers sans cette info.
--
Posted via Mailgate.ORG Server - http://www.Mailgate.ORG