Une petite question qui tombera sur un expert, je l'espère :
Comment évaluer sur mon écran le degré de netteté que je doit apporté à un
scan en vue d'un tirage précis. Je m'essplique :
Si je scanne une image en 300 dpi pour un tirage de 24x30 soit 10'x12' il va
falloir que mon image fasse 3000px X 3600px.
Pour voir cette image sur mon écran en plein ecran (ce qui correspond grosso
modo à du 24x30) elle sera reduite en affichage de 30% et selon les
logiciels cet affichage n'aura pas du tout le même rendu, chaque logiciel
calculant à sa manière cette reduction d'affichage, dans certain cas l'image
parait très molle dans d'autres au contraire on est à la limite d'effet de
moire avec le grain de l'image originale.
Du coup comment regler de manière fiable le "sharpening" de l'image en vue
du tirage ???
Une petite question qui tombera sur un expert, je l'espère :
Comment évaluer sur mon écran le degré de netteté que je doit apporté à un
scan en vue d'un tirage précis. Je m'essplique :
Si je scanne une image en 300 dpi pour un tirage de 24x30 soit 10'x12' il va
falloir que mon image fasse 3000px X 3600px.
Pour voir cette image sur mon écran en plein ecran (ce qui correspond grosso
modo à du 24x30) elle sera reduite en affichage de 30% et selon les
logiciels cet affichage n'aura pas du tout le même rendu, chaque logiciel
calculant à sa manière cette reduction d'affichage, dans certain cas l'image
parait très molle dans d'autres au contraire on est à la limite d'effet de
moire avec le grain de l'image originale.
Du coup comment regler de manière fiable le "sharpening" de l'image en vue
du tirage ???
Une petite question qui tombera sur un expert, je l'espère :
Comment évaluer sur mon écran le degré de netteté que je doit apporté à un
scan en vue d'un tirage précis. Je m'essplique :
Si je scanne une image en 300 dpi pour un tirage de 24x30 soit 10'x12' il va
falloir que mon image fasse 3000px X 3600px.
Pour voir cette image sur mon écran en plein ecran (ce qui correspond grosso
modo à du 24x30) elle sera reduite en affichage de 30% et selon les
logiciels cet affichage n'aura pas du tout le même rendu, chaque logiciel
calculant à sa manière cette reduction d'affichage, dans certain cas l'image
parait très molle dans d'autres au contraire on est à la limite d'effet de
moire avec le grain de l'image originale.
Du coup comment regler de manière fiable le "sharpening" de l'image en vue
du tirage ???
Une petite question qui tombera sur un expert, je l'espère :
Comment évaluer sur mon écran le degré de netteté que je doit apporté à un
scan en vue d'un tirage précis. Je m'essplique :
Si je scanne une image en 300 dpi pour un tirage de 24x30 soit 10'x12' il va
falloir que mon image fasse 3000px X 3600px.
Pour voir cette image sur mon écran en plein ecran (ce qui correspond grosso
modo à du 24x30) elle sera reduite en affichage de 30% et selon les
logiciels cet affichage n'aura pas du tout le même rendu, chaque logiciel
calculant à sa manière cette reduction d'affichage, dans certain cas l'image
parait très molle dans d'autres au contraire on est à la limite d'effet de
moire avec le grain de l'image originale.
Du coup comment regler de manière fiable le "sharpening" de l'image en vue
du tirage ???
Quelqu'un a-t-il une methode ? Sachant qu'à la base je fais mon scan sans
reglage de netteté, ni reduction de grain.
Une petite question qui tombera sur un expert, je l'espère :
Comment évaluer sur mon écran le degré de netteté que je doit apporté à un
scan en vue d'un tirage précis. Je m'essplique :
Si je scanne une image en 300 dpi pour un tirage de 24x30 soit 10'x12' il va
falloir que mon image fasse 3000px X 3600px.
Pour voir cette image sur mon écran en plein ecran (ce qui correspond grosso
modo à du 24x30) elle sera reduite en affichage de 30% et selon les
logiciels cet affichage n'aura pas du tout le même rendu, chaque logiciel
calculant à sa manière cette reduction d'affichage, dans certain cas l'image
parait très molle dans d'autres au contraire on est à la limite d'effet de
moire avec le grain de l'image originale.
Du coup comment regler de manière fiable le "sharpening" de l'image en vue
du tirage ???
Quelqu'un a-t-il une methode ? Sachant qu'à la base je fais mon scan sans
reglage de netteté, ni reduction de grain.
Une petite question qui tombera sur un expert, je l'espère :
Comment évaluer sur mon écran le degré de netteté que je doit apporté à un
scan en vue d'un tirage précis. Je m'essplique :
Si je scanne une image en 300 dpi pour un tirage de 24x30 soit 10'x12' il va
falloir que mon image fasse 3000px X 3600px.
Pour voir cette image sur mon écran en plein ecran (ce qui correspond grosso
modo à du 24x30) elle sera reduite en affichage de 30% et selon les
logiciels cet affichage n'aura pas du tout le même rendu, chaque logiciel
calculant à sa manière cette reduction d'affichage, dans certain cas l'image
parait très molle dans d'autres au contraire on est à la limite d'effet de
moire avec le grain de l'image originale.
Du coup comment regler de manière fiable le "sharpening" de l'image en vue
du tirage ???
Quelqu'un a-t-il une methode ? Sachant qu'à la base je fais mon scan sans
reglage de netteté, ni reduction de grain.
>
Vaste sujet ! Bruce Fraser a même écrit tout un bouquin autour, en
français aux éditions Eyrolles... au bout duquel je ne sais pas si on
est vraiment avancé.
En un mot, on ne peut pas se fier aveuglément à un écran. Les écrans
eux-même ne restituent pas tous de la même façon une même image ;
notamment, d'une manière générale, les écrans plats sont plus nets que
les CRT. Mais une chose est certaine : **en aucun cas** on ne peut
préjuger pas de la netteté d'une impression en affichant la totalité
d'une (grosse) image à l'écran. Il faut la voir de plus près
En gros (si j'ai bien compris) la théorie de Bruce Fraser est qu'il
faut opérer en plusieurs temps. Avant toute chose, ce n'est pas dit
en toutes lettres, mais point de salut hors Photoshop. Ensuite,
(i) Il faut d'abord compenser le flou d'origine et cela se fait
forcément à l'écran, jusqu'à ce que l'image soit la plus "nette"
possible, sans chercher à surcompenser. Pour en juger, ne pas hésiter
à se mettre à 100%.
(ii) il y a ensuite une phase facultative d'accentuation "créative" à
la discrétion de l'artiste
(iii) il faut enfin appliquer une suraccentuation sur un rayon
correspondant à la définition effective de l'imprimante, et cela sans
se soucier de l'aspect que l'image va prendre à l'écran.
Tout ça est très logique, mais je n'y crois pas trop (avis perso).
C'est évidemment sur le dernier point que je tique. D'abord Fraser ne
donne pas de démarche précise sur le paramétrage de cette
suraccentuation (rayon et surtout intensité); ensuite, dans le cas
des jets d'encre, la «définition effective» n'existe pas, tout
bonnement. Cependant, il est évident qu'on peut accentuer plus fort
que ce qu'on ferait en restant à une échelle de 100%.
Faisons donc des essais ! J'ai essayé : sur une image préalablement
mise à mon goût sur l'écran, j'ai appliqué des suraccentuations
croissantesc'était évidemment de plus en plus «net» sur le papier, mais ça
l'était aussi sur l'écran. On passe tout doucettement du correct à
l'exagéré sans qu'on puisse définir une limite bien claire à ne pas
franchir, et à chaque fois, je retrouvais sur le papier la sensation
que j'avais sur l'écran.
Mon credo du moment -- je ne peux rien offrir de mieux -- est que
(i) il faut un bon écran
(ii) être bien habitué à l'imprimante qu'on utilise. Il y a un facteur
d'échelle pour lequel la netteté à l'écran donnera une bonne idée de
ce qui sortira sur le papier (une bonne idée, hein ! sans plus). Pour
moi, c'est 50% avec des images de 10 Mpx pour du 20x30 ou 30x40, mais
ça peut changer avec votre matériel, c'est forcément assez flou.
Incidemment, un fort bruit dans l'image peut beaucoup gêner, de par le
moirage qu'il engendre et qui dépend très fortement du facteur
d'échelle; il faut essayer d'en faire abstraction si on a choisi de le
conserver -- dans le cas de scans de clichés argentiques par exemple.
Charles
>
Vaste sujet ! Bruce Fraser a même écrit tout un bouquin autour, en
français aux éditions Eyrolles... au bout duquel je ne sais pas si on
est vraiment avancé.
En un mot, on ne peut pas se fier aveuglément à un écran. Les écrans
eux-même ne restituent pas tous de la même façon une même image ;
notamment, d'une manière générale, les écrans plats sont plus nets que
les CRT. Mais une chose est certaine : **en aucun cas** on ne peut
préjuger pas de la netteté d'une impression en affichant la totalité
d'une (grosse) image à l'écran. Il faut la voir de plus près
En gros (si j'ai bien compris) la théorie de Bruce Fraser est qu'il
faut opérer en plusieurs temps. Avant toute chose, ce n'est pas dit
en toutes lettres, mais point de salut hors Photoshop. Ensuite,
(i) Il faut d'abord compenser le flou d'origine et cela se fait
forcément à l'écran, jusqu'à ce que l'image soit la plus "nette"
possible, sans chercher à surcompenser. Pour en juger, ne pas hésiter
à se mettre à 100%.
(ii) il y a ensuite une phase facultative d'accentuation "créative" à
la discrétion de l'artiste
(iii) il faut enfin appliquer une suraccentuation sur un rayon
correspondant à la définition effective de l'imprimante, et cela sans
se soucier de l'aspect que l'image va prendre à l'écran.
Tout ça est très logique, mais je n'y crois pas trop (avis perso).
C'est évidemment sur le dernier point que je tique. D'abord Fraser ne
donne pas de démarche précise sur le paramétrage de cette
suraccentuation (rayon et surtout intensité); ensuite, dans le cas
des jets d'encre, la «définition effective» n'existe pas, tout
bonnement. Cependant, il est évident qu'on peut accentuer plus fort
que ce qu'on ferait en restant à une échelle de 100%.
Faisons donc des essais ! J'ai essayé : sur une image préalablement
mise à mon goût sur l'écran, j'ai appliqué des suraccentuations
croissantes
c'était évidemment de plus en plus «net» sur le papier, mais ça
l'était aussi sur l'écran. On passe tout doucettement du correct à
l'exagéré sans qu'on puisse définir une limite bien claire à ne pas
franchir, et à chaque fois, je retrouvais sur le papier la sensation
que j'avais sur l'écran.
Mon credo du moment -- je ne peux rien offrir de mieux -- est que
(i) il faut un bon écran
(ii) être bien habitué à l'imprimante qu'on utilise. Il y a un facteur
d'échelle pour lequel la netteté à l'écran donnera une bonne idée de
ce qui sortira sur le papier (une bonne idée, hein ! sans plus). Pour
moi, c'est 50% avec des images de 10 Mpx pour du 20x30 ou 30x40, mais
ça peut changer avec votre matériel, c'est forcément assez flou.
Incidemment, un fort bruit dans l'image peut beaucoup gêner, de par le
moirage qu'il engendre et qui dépend très fortement du facteur
d'échelle; il faut essayer d'en faire abstraction si on a choisi de le
conserver -- dans le cas de scans de clichés argentiques par exemple.
Charles
>
Vaste sujet ! Bruce Fraser a même écrit tout un bouquin autour, en
français aux éditions Eyrolles... au bout duquel je ne sais pas si on
est vraiment avancé.
En un mot, on ne peut pas se fier aveuglément à un écran. Les écrans
eux-même ne restituent pas tous de la même façon une même image ;
notamment, d'une manière générale, les écrans plats sont plus nets que
les CRT. Mais une chose est certaine : **en aucun cas** on ne peut
préjuger pas de la netteté d'une impression en affichant la totalité
d'une (grosse) image à l'écran. Il faut la voir de plus près
En gros (si j'ai bien compris) la théorie de Bruce Fraser est qu'il
faut opérer en plusieurs temps. Avant toute chose, ce n'est pas dit
en toutes lettres, mais point de salut hors Photoshop. Ensuite,
(i) Il faut d'abord compenser le flou d'origine et cela se fait
forcément à l'écran, jusqu'à ce que l'image soit la plus "nette"
possible, sans chercher à surcompenser. Pour en juger, ne pas hésiter
à se mettre à 100%.
(ii) il y a ensuite une phase facultative d'accentuation "créative" à
la discrétion de l'artiste
(iii) il faut enfin appliquer une suraccentuation sur un rayon
correspondant à la définition effective de l'imprimante, et cela sans
se soucier de l'aspect que l'image va prendre à l'écran.
Tout ça est très logique, mais je n'y crois pas trop (avis perso).
C'est évidemment sur le dernier point que je tique. D'abord Fraser ne
donne pas de démarche précise sur le paramétrage de cette
suraccentuation (rayon et surtout intensité); ensuite, dans le cas
des jets d'encre, la «définition effective» n'existe pas, tout
bonnement. Cependant, il est évident qu'on peut accentuer plus fort
que ce qu'on ferait en restant à une échelle de 100%.
Faisons donc des essais ! J'ai essayé : sur une image préalablement
mise à mon goût sur l'écran, j'ai appliqué des suraccentuations
croissantesc'était évidemment de plus en plus «net» sur le papier, mais ça
l'était aussi sur l'écran. On passe tout doucettement du correct à
l'exagéré sans qu'on puisse définir une limite bien claire à ne pas
franchir, et à chaque fois, je retrouvais sur le papier la sensation
que j'avais sur l'écran.
Mon credo du moment -- je ne peux rien offrir de mieux -- est que
(i) il faut un bon écran
(ii) être bien habitué à l'imprimante qu'on utilise. Il y a un facteur
d'échelle pour lequel la netteté à l'écran donnera une bonne idée de
ce qui sortira sur le papier (une bonne idée, hein ! sans plus). Pour
moi, c'est 50% avec des images de 10 Mpx pour du 20x30 ou 30x40, mais
ça peut changer avec votre matériel, c'est forcément assez flou.
Incidemment, un fort bruit dans l'image peut beaucoup gêner, de par le
moirage qu'il engendre et qui dépend très fortement du facteur
d'échelle; il faut essayer d'en faire abstraction si on a choisi de le
conserver -- dans le cas de scans de clichés argentiques par exemple.
Charles