OVH Cloud OVH Cloud

question basique..

58 réponses
Avatar
L'Ours
Bonsoir...

Un truc que je n'arrive pas a m'expliquer et qui se reproduit chaque fois :

Un exemple :

Une photo prise avec un Nikon 4500 en 1024x768 :
http://cjoint.com/?lftD2mcahb

Elle fait *303* ko
===================

Redimensionnée en 800x600 avec Acdsee 3.0 et enregistrée en asterr.jpg :

http://cjoint.com/?lftE4J54hM

Elle fait *436* ko, pourtant plus petite !
===================

Cette dernière ouverte avec Paint en enregistrée en asterp.jpg :
http://cjoint.com/?lftFNZtlK3

Elle ne fait plus que *92* ko !
====================

Comment ce-fait-ce ?

Bon,j'utilise cette procédure depuis longtemps pour envoyer une photo (comme
le dernière) en ci-joint sur les forums, et j'aimerais bien comprendre.

NB : je ne suis qu'un petit photographe amateur qui n'imprime jamais.

Merci à vous si vous avez une explication...

--
L'Ours
A toujours imaginer le pire, on est rarement déçu..
Photos, fleurs, champignons et choses étranges...
http://perso.wanadoo.fr/rag/rg/

8 réponses

2 3 4 5 6
Avatar
sebastienmarty
Anne wrote:

Ofnuts wrote:

>
> Alors que le vrai problème, ce n'est qu'un problème de mauvais réglage
> des DPI effectifs de l"cran (Windows a longtemps consideré que les
> écrans faisaient 75dpi)

tiens, j'ai souvent, et même peut être toujours, lu qu'un écran windows
est à 96 dpi par défaut, un écran Apple à 72.

http://www.cuk.ch/articles/2779



L'article que tu cites montre que ce n'est plus le cas depuis longtemps.

--
[SbM]
<http://sebastienmarty.free.fr> - <http://tradintosh.free.fr>
<http://sbm.ordinotheque.free.fr> - <http://palmiciel.free.fr>
"If the French were really intelligent, they'd speak English" (W. Sheed)
Avatar
sebastienmarty
Anne wrote:

Ceci dit, je pense qu'un bon display postscript réduit les soucis



Ça n'a rien à voir. Si tu utilises une réso inférieure à la réso native
de ton écran, tu te retrouves avec des pixels logiques "à cheval" sur
plusieurs pixels physiques, d'où flou et bavures.

Et Display Postcript (qui date du NeXT et n'est plus de mise dans Mac OS
X, d'ailleurs, me semble-t-il) ne peut rien y changer.

Alors oui, tu es peut-être plus myope que tu ne penses. Ça ne coûte
(presque) rien de consulter.
--
[SbM]
<http://sebastienmarty.free.fr> - <http://tradintosh.free.fr>
<http://sbm.ordinotheque.free.fr> - <http://palmiciel.free.fr>
"If the French were really intelligent, they'd speak English" (W. Sheed)
Avatar
Sylvain SF
Anne a écrit :

Pour reprendre une pub célèbre, nous n'avons pas la même gestion des
dalles.



je ne regarde jamais les pubs.

Ou je suis plus myope que je pense.

Ceci dit, je pense qu'un bon display postscript réduit les soucis



ton point est qu'afficher N pts sur une dalle de M pixels (N < M)
peut produire des tracés nets, c'est faux et cela n'a rien à voir
avec le moteur de rendu (PS, GL, GDI, ou ce que tu veux - cela n'a
rien à voir, ou seulement avec une confusion de plus)

je sais que pour un utilisateur Windows, un écran MacOSX paraît
toujours flou.



encore raté, j'utilise des dalles Apple sur mes PC depuis des années,
parce qu'elles sont justement généralement plus nettes que les produits
cheap du monde PC.

sinon un "écran MacOSX" c'est quoi ? un écran qui ne s'allume pas avec
un autre OS, un écran avec OS incorporé ou un n'importe quoi de + ?

Ceci dit, j'ai testé plusieurs fois sur des iMac/G5, et ça passe plutôt
bien, et quand je remets l'écran en 1680*1050 sur les 20", personne ne
râle plus.



?! je ne sais pas qui rale sur quoi ... et ce n'est sûrement
pas si intéressant; la résolution d'une dalle 20" est en effet
de 1680x1050.

La loupe activée facilement, ça aide bien aussi. Loupe générale à la
façon des gadgets hors de prix vendus pour les mal voyants.



rien à voir.

Sylvain.
Avatar
anneleguennec
SbM wrote:

> > Alors que le vrai problème, ce n'est qu'un problème de mauvais réglage
> > des DPI effectifs de l"cran (Windows a longtemps consideré que les
> > écrans faisaient 75dpi)
>
> tiens, j'ai souvent, et même peut être toujours, lu qu'un écran windows
> est à 96 dpi par défaut, un écran Apple à 72.
>
> http://www.cuk.ch/articles/2779

L'article que tu cites montre que ce n'est plus le cas depuis longtemps.



C'était sur tout pour rectifier l'info sur les 75 dpi, qui n'a jamais
existé.
Avatar
Charles VASSALLO
Anne wrote:
SbM wrote:

Alors que le vrai problème, ce n'est qu'un problème de mauvais réglage
des DPI effectifs de l"cran (Windows a longtemps consideré que les
écrans faisaient 75dpi)


tiens, j'ai souvent, et même peut être toujours, lu qu'un écran windows
est à 96 dpi par défaut, un écran Apple à 72.

http://www.cuk.ch/articles/2779


L'article que tu cites montre que ce n'est plus le cas depuis longtemps.



C'était sur tout pour rectifier l'info sur les 75 dpi, qui n'a jamais
existé.



Les chiffres magiques 72 et 96 n'ont jamais été associés à des
résolutions d'écrans, mais à des réponses à une grosse question
existentielle dans les débuts des traitements de texte : à combien de
pixels écrans doit on faire correspondre un "point" typographique ? Ce
point est l'unité de mesure traditionnelle pour la taille des
caractères, redéfinie par Adobe comme 1/72 pouce.

Apple (ce devait être Steve à cette époque) a opté pour 1 px par point,
d'où les 72 pixels pour 1 pouce imprimé tandis que Billou prenait 4
pixels pour 3 points, d'où les 96 dpi.

Il y a tout de même bel et bien un "75 dpi" qui traine dans la
littérature et qui est associé aux polices dans le monde unix, mais je
n'en connais pas la signification

Charles
Avatar
Papy Bernard
Bonjour

De Anne

C'était sur tout pour rectifier l'info sur les 75 dpi, qui n'a jamais
existé.



Les DPI font encore des ravages.

A propos d'écran, que signifie "DPI".

S'il s'agit du nombre de cellules/pouce, cette grandeur -la cellule-,
physique, est finie. Déterminée par la technologie. Pour un écran CRT, on
parle de "pitch" -taille de la maille du masque de l'écran, cellule dont les
dimensions en dessous desquelles on ne peut descendre pour représenter un
"pixel", unité de base d'une image numérique. Le mieux que j'ai connu pour
un CRT a été un pitch de 0,2 mm. Le tout venant avait un pitch de 0,33 mm
sur des écrans 13/14" d'où cette "fameuse" "résolution" de 72 "DPI".
Affichage de 800x600
pixels sur un 14" sous 72 "DPI". En fait on déduisait les "DPI" des
possibilités de l'écran. A technologie d'écran égale, la "r*e*olution" de
l'écran (en pixels) était joyeusement -voire glorieusement- affichée par les
marketeux des constructeurs. Alors que ce n'était que la diagonale de
l'écran qui, augmentant, permettait un afiichage plus conséquent.

Pour un écran LCD, à bien y regarder, on voit la "grille" de la dalle. Des
raies verticales rouge, vert, bleu et des lignes horizontales noires
délimitant/découpant sur la hauteur les raies verticales pour définir les
"cellules" analogues au pitch d'un CRT.

Quant à l'affichage des polices sous "96 dpi" que l'on peut pousser à "125
dpi", il s'agit non plus de "DPI" physiques mais de "DPI" informatiques.
Passer d'un affichage de polices de 96 à 125 "dpi" n'est qu'un artifice
électronique. On étale un caractère sur plusieurs cellules. Même si l'on est
pas pile poil sur un multiple du pas de la dalle, on peut compter sur
l'informatique, via l'électronique, pour soumettre le physique pour que la
perception reste satisfaisante.

Maintenant, pour les puristes (argentés, *très* argentés) pour qui il y a
toujours mieux, il y a l'écran IBM T221:
22" de diagonale, 3840×2400 pixels (204 pixels per inch)
Voilà qui devrait en titiller, voire le faire baver, quelques uns.
Je suis d'ailleurs très surpris que certains intervenants sur ce NG ne se
soient encore cette douceur !!!!

--
A+
Papy Bernard


--
A+
Papy Bernard
Avatar
Papy Bernard
Bonjour

De Charles VASSALLO

Les chiffres magiques 72 et 96 n'ont jamais été associés à des
résolutions d'écrans, mais à des réponses à une grosse question
existentielle dans les débuts des traitements de texte : à combien de
pixels écrans doit on faire correspondre un "point" typographique ? Ce
point est l'unité de mesure traditionnelle pour la taille des
caractères, redéfinie par Adobe comme 1/72 pouce.

Apple (ce devait être Steve à cette époque) a opté pour 1 px par
point, d'où les 72 pixels pour 1 pouce imprimé tandis que Billou
prenait 4 pixels pour 3 points, d'où les 96 dpi.



Qui a fait l'oeuf ? Qui a fait la poule ?

Je serais tenté de croire que l'imprimerie avait de l'avance sur
l'informatique avec son 1/72". Néanmoins, bien forcé de reconnaître que la
technologie des écrans a longtemps patiné avec un pitch de 0,33 mm, avec des
écrans de 14", limitant ainsi l'affichage "full screen" à 800x600 pixels,
soit "72 dpi". Pure coïncidence ????
Par contre, je ne vois pas comment on peut afficher 4 pixels sur 3 "points".
Il y a quelque chose qui m'échappe.

Merci pour tes éclaircissements.

--
A+
Papy Bernard
Avatar
Sylvain SF
Papy Bernard a écrit :

Je serais tenté de croire que l'imprimerie avait de l'avance sur
l'informatique avec son 1/72". Néanmoins, bien forcé de reconnaître que la
technologie des écrans a longtemps patiné avec un pitch de 0,33 mm, avec des
écrans de 14", limitant ainsi l'affichage "full screen" à 800x600 pixels,
soit "72 dpi". Pure coïncidence ????



ben, 72 dpi = 72 pts par 25,4mm = 1 pt tous les 0.33mm
ça ne ressemble pas vraiment à une coïncidence, plutôt
à une répétition, non ?

Sylvain.
2 3 4 5 6