Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

Reglage de la netteté en vue d'un tirage

3 réponses
Avatar
philpavans
Une petite question qui tombera sur un expert, je l'espère :
Comment évaluer sur mon écran le degré de netteté que je doit apporté à un
scan en vue d'un tirage précis. Je m'essplique :
Si je scanne une image en 300 dpi pour un tirage de 24x30 soit 10'x12' il va
falloir que mon image fasse 3000px X 3600px.
Pour voir cette image sur mon écran en plein ecran (ce qui correspond grosso
modo à du 24x30) elle sera reduite en affichage de 30% et selon les
logiciels cet affichage n'aura pas du tout le même rendu, chaque logiciel
calculant à sa manière cette reduction d'affichage, dans certain cas l'image
parait très molle dans d'autres au contraire on est à la limite d'effet de
moire avec le grain de l'image originale.
Du coup comment regler de manière fiable le "sharpening" de l'image en vue
du tirage ???

Quelqu'un a-t-il une methode ? Sachant qu'à la base je fais mon scan sans
reglage de netteté, ni reduction de grain.


Merci à tous.
Philpavans

3 réponses

Avatar
Jean-Pierre Roche
philpavans a écrit :
Une petite question qui tombera sur un expert, je l'espère :
Comment évaluer sur mon écran le degré de netteté que je doit apporté à un
scan en vue d'un tirage précis. Je m'essplique :
Si je scanne une image en 300 dpi pour un tirage de 24x30 soit 10'x12' il va
falloir que mon image fasse 3000px X 3600px.
Pour voir cette image sur mon écran en plein ecran (ce qui correspond grosso
modo à du 24x30) elle sera reduite en affichage de 30% et selon les
logiciels cet affichage n'aura pas du tout le même rendu, chaque logiciel
calculant à sa manière cette reduction d'affichage, dans certain cas l'image
parait très molle dans d'autres au contraire on est à la limite d'effet de
moire avec le grain de l'image originale.
Du coup comment regler de manière fiable le "sharpening" de l'image en vue
du tirage ???



C'est très simple : la netteté s'apprécie (et donc se règle)
avec un affichage 100 % de l'image. D'ailleurs certains
logiciels le rappellent dès qu'on veut faire le réglage de
netteté à une autre échelle...

--
Jean-Pierre Roche

enlever sanspub pour m'écrire...
Avatar
Charles VASSALLO
philpavans wrote:
Une petite question qui tombera sur un expert, je l'espère :
Comment évaluer sur mon écran le degré de netteté que je doit apporté à un
scan en vue d'un tirage précis. Je m'essplique :
Si je scanne une image en 300 dpi pour un tirage de 24x30 soit 10'x12' il va
falloir que mon image fasse 3000px X 3600px.
Pour voir cette image sur mon écran en plein ecran (ce qui correspond grosso
modo à du 24x30) elle sera reduite en affichage de 30% et selon les
logiciels cet affichage n'aura pas du tout le même rendu, chaque logiciel
calculant à sa manière cette reduction d'affichage, dans certain cas l'image
parait très molle dans d'autres au contraire on est à la limite d'effet de
moire avec le grain de l'image originale.
Du coup comment regler de manière fiable le "sharpening" de l'image en vue
du tirage ???

Quelqu'un a-t-il une methode ? Sachant qu'à la base je fais mon scan sans
reglage de netteté, ni reduction de grain.



Vaste sujet ! Bruce Fraser a même écrit tout un bouquin autour, en
français aux éditions Eyrolles... au bout duquel je ne sais pas si on
est vraiment avancé.

En un mot, on ne peut pas se fier aveuglément à un écran. Les écrans
eux-même ne restituent pas tous de la même façon une même image ;
notamment, d'une manière générale, les écrans plats sont plus nets que
les CRT. Mais une chose est certaine : **en aucun cas** on ne peut
préjuger pas de la netteté d'une impression en affichant la totalité
d'une (grosse) image à l'écran. Il faut la voir de plus près

En gros (si j'ai bien compris) la théorie de Bruce Fraser est qu'il faut
opérer en plusieurs temps. Avant toute chose, ce n'est pas dit en toutes
lettres, mais point de salut hors Photoshop. Ensuite,
(i) Il faut d'abord compenser le flou d'origine et cela se fait
forcément à l'écran, jusqu'à ce que l'image soit la plus "nette"
possible, sans chercher à surcompenser. Pour en juger, ne pas hésiter à
se mettre à 100%.
(ii) il y a ensuite une phase facultative d'accentuation "créative" à la
discrétion de l'artiste
(iii) il faut enfin appliquer une suraccentuation sur un rayon
correspondant à la définition effective de l'imprimante, et cela sans se
soucier de l'aspect que l'image va prendre à l'écran.

Tout ça est très logique, mais je n'y crois pas trop (avis perso). C'est
évidemment sur le dernier point que je tique. D'abord Fraser ne donne
pas de démarche précise sur le paramétrage de cette suraccentuation
(rayon et surtout intensité); ensuite, dans le cas des jets d'encre, la
«définition effective» n'existe pas, tout bonnement. Cependant, il est
évident qu'on peut accentuer plus fort que ce qu'on ferait en restant à
une échelle de 100%.

Faisons donc des essais ! J'ai essayé : sur une image préalablement mise
à mon goût sur l'écran, j'ai appliqué des suraccentuations croissantes
: c'était évidemment de plus en plus «net» sur le papier, mais ça
l'était aussi sur l'écran. On passe tout doucettement du correct à
l'exagéré sans qu'on puisse définir une limite bien claire à ne pas
franchir, et à chaque fois, je retrouvais sur le papier la sensation que
j'avais sur l'écran.

Mon credo du moment -- je ne peux rien offrir de mieux -- est que
(i) il faut un bon écran
(ii) être bien habitué à l'imprimante qu'on utilise. Il y a un facteur
d'échelle pour lequel la netteté à l'écran donnera une bonne idée de ce
qui sortira sur le papier (une bonne idée, hein ! sans plus). Pour moi,
c'est 50% avec des images de 10 Mpx pour du 20x30 ou 30x40, mais ça peut
changer avec votre matériel, c'est forcément assez flou.

Incidemment, un fort bruit dans l'image peut beaucoup gêner, de par le
moirage qu'il engendre et qui dépend très fortement du facteur
d'échelle; il faut essayer d'en faire abstraction si on a choisi de le
conserver -- dans le cas de scans de clichés argentiques par exemple.

Charles
Avatar
Eric
Charles VASSALLO wrote:
>
Vaste sujet ! Bruce Fraser a même écrit tout un bouquin autour, en
français aux éditions Eyrolles... au bout duquel je ne sais pas si on
est vraiment avancé.



je suis bien d'accord avec toi, mais bon, il a écrit un ouvrage qui " fait
autorité "
on le retrouve dilué, bricolé chez microapp ou d'autres pompeurs.

En un mot, on ne peut pas se fier aveuglément à un écran. Les écrans
eux-même ne restituent pas tous de la même façon une même image ;
notamment, d'une manière générale, les écrans plats sont plus nets que
les CRT. Mais une chose est certaine : **en aucun cas** on ne peut
préjuger pas de la netteté d'une impression en affichant la totalité
d'une (grosse) image à l'écran. Il faut la voir de plus près

En gros (si j'ai bien compris) la théorie de Bruce Fraser est qu'il
faut opérer en plusieurs temps. Avant toute chose, ce n'est pas dit
en toutes lettres, mais point de salut hors Photoshop. Ensuite,
(i) Il faut d'abord compenser le flou d'origine et cela se fait
forcément à l'écran, jusqu'à ce que l'image soit la plus "nette"
possible, sans chercher à surcompenser. Pour en juger, ne pas hésiter
à se mettre à 100%.
(ii) il y a ensuite une phase facultative d'accentuation "créative" à
la discrétion de l'artiste
(iii) il faut enfin appliquer une suraccentuation sur un rayon
correspondant à la définition effective de l'imprimante, et cela sans
se soucier de l'aspect que l'image va prendre à l'écran.

Tout ça est très logique, mais je n'y crois pas trop (avis perso).
C'est évidemment sur le dernier point que je tique. D'abord Fraser ne
donne pas de démarche précise sur le paramétrage de cette
suraccentuation (rayon et surtout intensité); ensuite, dans le cas
des jets d'encre, la «définition effective» n'existe pas, tout
bonnement. Cependant, il est évident qu'on peut accentuer plus fort
que ce qu'on ferait en restant à une échelle de 100%.

Faisons donc des essais ! J'ai essayé : sur une image préalablement
mise à mon goût sur l'écran, j'ai appliqué des suraccentuations
croissantes
c'était évidemment de plus en plus «net» sur le papier, mais ça


l'était aussi sur l'écran. On passe tout doucettement du correct à
l'exagéré sans qu'on puisse définir une limite bien claire à ne pas
franchir, et à chaque fois, je retrouvais sur le papier la sensation
que j'avais sur l'écran.

Mon credo du moment -- je ne peux rien offrir de mieux -- est que
(i) il faut un bon écran
(ii) être bien habitué à l'imprimante qu'on utilise. Il y a un facteur
d'échelle pour lequel la netteté à l'écran donnera une bonne idée de
ce qui sortira sur le papier (une bonne idée, hein ! sans plus). Pour
moi, c'est 50% avec des images de 10 Mpx pour du 20x30 ou 30x40, mais
ça peut changer avec votre matériel, c'est forcément assez flou.

Incidemment, un fort bruit dans l'image peut beaucoup gêner, de par le
moirage qu'il engendre et qui dépend très fortement du facteur
d'échelle; il faut essayer d'en faire abstraction si on a choisi de le
conserver -- dans le cas de scans de clichés argentiques par exemple.

Charles



Merci Bruce Vassalo, moi je l'examine en taille d'impession a l'écran,
j'essaie de reuler pour me faire une idée, en gros, mais en fait a part
tirer une bande d'essai je n'ai rien trouvé d'autre, pas pour un 24 x 30, je
tire, sauf s il en faut 50 exemplaires.
Ah le temps où tu faisais le point sur le grain et c'est tout.
C'éatait forcément le point le plus net.
A part un " photographe " à Puteaux, une fois il ne semblait pas convaincu
que le point sur le grain etait forcément le point le plus net, mais bon,
ce n'est pas un critère, il y est toujours , et moi pas ...alors ?

ricco