> > Alors que le vrai problème, ce n'est qu'un problème de mauvais réglage > des DPI effectifs de l"cran (Windows a longtemps consideré que les > écrans faisaient 75dpi)
tiens, j'ai souvent, et même peut être toujours, lu qu'un écran windows est à 96 dpi par défaut, un écran Apple à 72.
http://www.cuk.ch/articles/2779
L'article que tu cites montre que ce n'est plus le cas depuis longtemps.
-- [SbM] <http://sebastienmarty.free.fr> - <http://tradintosh.free.fr> <http://sbm.ordinotheque.free.fr> - <http://palmiciel.free.fr> "If the French were really intelligent, they'd speak English" (W. Sheed)
Anne <anneleguennec@free.fr> wrote:
Ofnuts <o.f.n.u.t.s@la.poste.net> wrote:
>
> Alors que le vrai problème, ce n'est qu'un problème de mauvais réglage
> des DPI effectifs de l"cran (Windows a longtemps consideré que les
> écrans faisaient 75dpi)
tiens, j'ai souvent, et même peut être toujours, lu qu'un écran windows
est à 96 dpi par défaut, un écran Apple à 72.
http://www.cuk.ch/articles/2779
L'article que tu cites montre que ce n'est plus le cas depuis longtemps.
--
[SbM]
<http://sebastienmarty.free.fr> - <http://tradintosh.free.fr>
<http://sbm.ordinotheque.free.fr> - <http://palmiciel.free.fr>
"If the French were really intelligent, they'd speak English" (W. Sheed)
> > Alors que le vrai problème, ce n'est qu'un problème de mauvais réglage > des DPI effectifs de l"cran (Windows a longtemps consideré que les > écrans faisaient 75dpi)
tiens, j'ai souvent, et même peut être toujours, lu qu'un écran windows est à 96 dpi par défaut, un écran Apple à 72.
http://www.cuk.ch/articles/2779
L'article que tu cites montre que ce n'est plus le cas depuis longtemps.
-- [SbM] <http://sebastienmarty.free.fr> - <http://tradintosh.free.fr> <http://sbm.ordinotheque.free.fr> - <http://palmiciel.free.fr> "If the French were really intelligent, they'd speak English" (W. Sheed)
sebastienmarty
Anne wrote:
Ceci dit, je pense qu'un bon display postscript réduit les soucis
Ça n'a rien à voir. Si tu utilises une réso inférieure à la réso native de ton écran, tu te retrouves avec des pixels logiques "à cheval" sur plusieurs pixels physiques, d'où flou et bavures.
Et Display Postcript (qui date du NeXT et n'est plus de mise dans Mac OS X, d'ailleurs, me semble-t-il) ne peut rien y changer.
Alors oui, tu es peut-être plus myope que tu ne penses. Ça ne coûte (presque) rien de consulter. -- [SbM] <http://sebastienmarty.free.fr> - <http://tradintosh.free.fr> <http://sbm.ordinotheque.free.fr> - <http://palmiciel.free.fr> "If the French were really intelligent, they'd speak English" (W. Sheed)
Anne <anneleguennec@free.fr> wrote:
Ceci dit, je pense qu'un bon display postscript réduit les soucis
Ça n'a rien à voir. Si tu utilises une réso inférieure à la réso native
de ton écran, tu te retrouves avec des pixels logiques "à cheval" sur
plusieurs pixels physiques, d'où flou et bavures.
Et Display Postcript (qui date du NeXT et n'est plus de mise dans Mac OS
X, d'ailleurs, me semble-t-il) ne peut rien y changer.
Alors oui, tu es peut-être plus myope que tu ne penses. Ça ne coûte
(presque) rien de consulter.
--
[SbM]
<http://sebastienmarty.free.fr> - <http://tradintosh.free.fr>
<http://sbm.ordinotheque.free.fr> - <http://palmiciel.free.fr>
"If the French were really intelligent, they'd speak English" (W. Sheed)
Ceci dit, je pense qu'un bon display postscript réduit les soucis
Ça n'a rien à voir. Si tu utilises une réso inférieure à la réso native de ton écran, tu te retrouves avec des pixels logiques "à cheval" sur plusieurs pixels physiques, d'où flou et bavures.
Et Display Postcript (qui date du NeXT et n'est plus de mise dans Mac OS X, d'ailleurs, me semble-t-il) ne peut rien y changer.
Alors oui, tu es peut-être plus myope que tu ne penses. Ça ne coûte (presque) rien de consulter. -- [SbM] <http://sebastienmarty.free.fr> - <http://tradintosh.free.fr> <http://sbm.ordinotheque.free.fr> - <http://palmiciel.free.fr> "If the French were really intelligent, they'd speak English" (W. Sheed)
Sylvain SF
Anne a écrit :
Pour reprendre une pub célèbre, nous n'avons pas la même gestion des dalles.
je ne regarde jamais les pubs.
Ou je suis plus myope que je pense.
Ceci dit, je pense qu'un bon display postscript réduit les soucis
ton point est qu'afficher N pts sur une dalle de M pixels (N < M) peut produire des tracés nets, c'est faux et cela n'a rien à voir avec le moteur de rendu (PS, GL, GDI, ou ce que tu veux - cela n'a rien à voir, ou seulement avec une confusion de plus)
je sais que pour un utilisateur Windows, un écran MacOSX paraît toujours flou.
encore raté, j'utilise des dalles Apple sur mes PC depuis des années, parce qu'elles sont justement généralement plus nettes que les produits cheap du monde PC.
sinon un "écran MacOSX" c'est quoi ? un écran qui ne s'allume pas avec un autre OS, un écran avec OS incorporé ou un n'importe quoi de + ?
Ceci dit, j'ai testé plusieurs fois sur des iMac/G5, et ça passe plutôt bien, et quand je remets l'écran en 1680*1050 sur les 20", personne ne râle plus.
?! je ne sais pas qui rale sur quoi ... et ce n'est sûrement pas si intéressant; la résolution d'une dalle 20" est en effet de 1680x1050.
La loupe activée facilement, ça aide bien aussi. Loupe générale à la façon des gadgets hors de prix vendus pour les mal voyants.
rien à voir.
Sylvain.
Anne a écrit :
Pour reprendre une pub célèbre, nous n'avons pas la même gestion des
dalles.
je ne regarde jamais les pubs.
Ou je suis plus myope que je pense.
Ceci dit, je pense qu'un bon display postscript réduit les soucis
ton point est qu'afficher N pts sur une dalle de M pixels (N < M)
peut produire des tracés nets, c'est faux et cela n'a rien à voir
avec le moteur de rendu (PS, GL, GDI, ou ce que tu veux - cela n'a
rien à voir, ou seulement avec une confusion de plus)
je sais que pour un utilisateur Windows, un écran MacOSX paraît
toujours flou.
encore raté, j'utilise des dalles Apple sur mes PC depuis des années,
parce qu'elles sont justement généralement plus nettes que les produits
cheap du monde PC.
sinon un "écran MacOSX" c'est quoi ? un écran qui ne s'allume pas avec
un autre OS, un écran avec OS incorporé ou un n'importe quoi de + ?
Ceci dit, j'ai testé plusieurs fois sur des iMac/G5, et ça passe plutôt
bien, et quand je remets l'écran en 1680*1050 sur les 20", personne ne
râle plus.
?! je ne sais pas qui rale sur quoi ... et ce n'est sûrement
pas si intéressant; la résolution d'une dalle 20" est en effet
de 1680x1050.
La loupe activée facilement, ça aide bien aussi. Loupe générale à la
façon des gadgets hors de prix vendus pour les mal voyants.
Pour reprendre une pub célèbre, nous n'avons pas la même gestion des dalles.
je ne regarde jamais les pubs.
Ou je suis plus myope que je pense.
Ceci dit, je pense qu'un bon display postscript réduit les soucis
ton point est qu'afficher N pts sur une dalle de M pixels (N < M) peut produire des tracés nets, c'est faux et cela n'a rien à voir avec le moteur de rendu (PS, GL, GDI, ou ce que tu veux - cela n'a rien à voir, ou seulement avec une confusion de plus)
je sais que pour un utilisateur Windows, un écran MacOSX paraît toujours flou.
encore raté, j'utilise des dalles Apple sur mes PC depuis des années, parce qu'elles sont justement généralement plus nettes que les produits cheap du monde PC.
sinon un "écran MacOSX" c'est quoi ? un écran qui ne s'allume pas avec un autre OS, un écran avec OS incorporé ou un n'importe quoi de + ?
Ceci dit, j'ai testé plusieurs fois sur des iMac/G5, et ça passe plutôt bien, et quand je remets l'écran en 1680*1050 sur les 20", personne ne râle plus.
?! je ne sais pas qui rale sur quoi ... et ce n'est sûrement pas si intéressant; la résolution d'une dalle 20" est en effet de 1680x1050.
La loupe activée facilement, ça aide bien aussi. Loupe générale à la façon des gadgets hors de prix vendus pour les mal voyants.
rien à voir.
Sylvain.
anneleguennec
SbM wrote:
> > Alors que le vrai problème, ce n'est qu'un problème de mauvais réglage > > des DPI effectifs de l"cran (Windows a longtemps consideré que les > > écrans faisaient 75dpi) > > tiens, j'ai souvent, et même peut être toujours, lu qu'un écran windows > est à 96 dpi par défaut, un écran Apple à 72. > > http://www.cuk.ch/articles/2779
L'article que tu cites montre que ce n'est plus le cas depuis longtemps.
C'était sur tout pour rectifier l'info sur les 75 dpi, qui n'a jamais existé.
SbM <sebastienmarty@yahoo.fr> wrote:
> > Alors que le vrai problème, ce n'est qu'un problème de mauvais réglage
> > des DPI effectifs de l"cran (Windows a longtemps consideré que les
> > écrans faisaient 75dpi)
>
> tiens, j'ai souvent, et même peut être toujours, lu qu'un écran windows
> est à 96 dpi par défaut, un écran Apple à 72.
>
> http://www.cuk.ch/articles/2779
L'article que tu cites montre que ce n'est plus le cas depuis longtemps.
C'était sur tout pour rectifier l'info sur les 75 dpi, qui n'a jamais
existé.
> > Alors que le vrai problème, ce n'est qu'un problème de mauvais réglage > > des DPI effectifs de l"cran (Windows a longtemps consideré que les > > écrans faisaient 75dpi) > > tiens, j'ai souvent, et même peut être toujours, lu qu'un écran windows > est à 96 dpi par défaut, un écran Apple à 72. > > http://www.cuk.ch/articles/2779
L'article que tu cites montre que ce n'est plus le cas depuis longtemps.
C'était sur tout pour rectifier l'info sur les 75 dpi, qui n'a jamais existé.
Charles VASSALLO
Anne wrote:
SbM wrote:
Alors que le vrai problème, ce n'est qu'un problème de mauvais réglage des DPI effectifs de l"cran (Windows a longtemps consideré que les écrans faisaient 75dpi)
tiens, j'ai souvent, et même peut être toujours, lu qu'un écran windows est à 96 dpi par défaut, un écran Apple à 72.
http://www.cuk.ch/articles/2779
L'article que tu cites montre que ce n'est plus le cas depuis longtemps.
C'était sur tout pour rectifier l'info sur les 75 dpi, qui n'a jamais existé.
Les chiffres magiques 72 et 96 n'ont jamais été associés à des résolutions d'écrans, mais à des réponses à une grosse question existentielle dans les débuts des traitements de texte : à combien de pixels écrans doit on faire correspondre un "point" typographique ? Ce point est l'unité de mesure traditionnelle pour la taille des caractères, redéfinie par Adobe comme 1/72 pouce.
Apple (ce devait être Steve à cette époque) a opté pour 1 px par point, d'où les 72 pixels pour 1 pouce imprimé tandis que Billou prenait 4 pixels pour 3 points, d'où les 96 dpi.
Il y a tout de même bel et bien un "75 dpi" qui traine dans la littérature et qui est associé aux polices dans le monde unix, mais je n'en connais pas la signification
Charles
Anne wrote:
SbM <sebastienmarty@yahoo.fr> wrote:
Alors que le vrai problème, ce n'est qu'un problème de mauvais réglage
des DPI effectifs de l"cran (Windows a longtemps consideré que les
écrans faisaient 75dpi)
tiens, j'ai souvent, et même peut être toujours, lu qu'un écran windows
est à 96 dpi par défaut, un écran Apple à 72.
http://www.cuk.ch/articles/2779
L'article que tu cites montre que ce n'est plus le cas depuis longtemps.
C'était sur tout pour rectifier l'info sur les 75 dpi, qui n'a jamais
existé.
Les chiffres magiques 72 et 96 n'ont jamais été associés à des
résolutions d'écrans, mais à des réponses à une grosse question
existentielle dans les débuts des traitements de texte : à combien de
pixels écrans doit on faire correspondre un "point" typographique ? Ce
point est l'unité de mesure traditionnelle pour la taille des
caractères, redéfinie par Adobe comme 1/72 pouce.
Apple (ce devait être Steve à cette époque) a opté pour 1 px par point,
d'où les 72 pixels pour 1 pouce imprimé tandis que Billou prenait 4
pixels pour 3 points, d'où les 96 dpi.
Il y a tout de même bel et bien un "75 dpi" qui traine dans la
littérature et qui est associé aux polices dans le monde unix, mais je
n'en connais pas la signification
Alors que le vrai problème, ce n'est qu'un problème de mauvais réglage des DPI effectifs de l"cran (Windows a longtemps consideré que les écrans faisaient 75dpi)
tiens, j'ai souvent, et même peut être toujours, lu qu'un écran windows est à 96 dpi par défaut, un écran Apple à 72.
http://www.cuk.ch/articles/2779
L'article que tu cites montre que ce n'est plus le cas depuis longtemps.
C'était sur tout pour rectifier l'info sur les 75 dpi, qui n'a jamais existé.
Les chiffres magiques 72 et 96 n'ont jamais été associés à des résolutions d'écrans, mais à des réponses à une grosse question existentielle dans les débuts des traitements de texte : à combien de pixels écrans doit on faire correspondre un "point" typographique ? Ce point est l'unité de mesure traditionnelle pour la taille des caractères, redéfinie par Adobe comme 1/72 pouce.
Apple (ce devait être Steve à cette époque) a opté pour 1 px par point, d'où les 72 pixels pour 1 pouce imprimé tandis que Billou prenait 4 pixels pour 3 points, d'où les 96 dpi.
Il y a tout de même bel et bien un "75 dpi" qui traine dans la littérature et qui est associé aux polices dans le monde unix, mais je n'en connais pas la signification
Charles
Papy Bernard
Bonjour
De Anne
C'était sur tout pour rectifier l'info sur les 75 dpi, qui n'a jamais existé.
Les DPI font encore des ravages.
A propos d'écran, que signifie "DPI".
S'il s'agit du nombre de cellules/pouce, cette grandeur -la cellule-, physique, est finie. Déterminée par la technologie. Pour un écran CRT, on parle de "pitch" -taille de la maille du masque de l'écran, cellule dont les dimensions en dessous desquelles on ne peut descendre pour représenter un "pixel", unité de base d'une image numérique. Le mieux que j'ai connu pour un CRT a été un pitch de 0,2 mm. Le tout venant avait un pitch de 0,33 mm sur des écrans 13/14" d'où cette "fameuse" "résolution" de 72 "DPI". Affichage de 800x600 pixels sur un 14" sous 72 "DPI". En fait on déduisait les "DPI" des possibilités de l'écran. A technologie d'écran égale, la "r*e*olution" de l'écran (en pixels) était joyeusement -voire glorieusement- affichée par les marketeux des constructeurs. Alors que ce n'était que la diagonale de l'écran qui, augmentant, permettait un afiichage plus conséquent.
Pour un écran LCD, à bien y regarder, on voit la "grille" de la dalle. Des raies verticales rouge, vert, bleu et des lignes horizontales noires délimitant/découpant sur la hauteur les raies verticales pour définir les "cellules" analogues au pitch d'un CRT.
Quant à l'affichage des polices sous "96 dpi" que l'on peut pousser à "125 dpi", il s'agit non plus de "DPI" physiques mais de "DPI" informatiques. Passer d'un affichage de polices de 96 à 125 "dpi" n'est qu'un artifice électronique. On étale un caractère sur plusieurs cellules. Même si l'on est pas pile poil sur un multiple du pas de la dalle, on peut compter sur l'informatique, via l'électronique, pour soumettre le physique pour que la perception reste satisfaisante.
Maintenant, pour les puristes (argentés, *très* argentés) pour qui il y a toujours mieux, il y a l'écran IBM T221: 22" de diagonale, 3840×2400 pixels (204 pixels per inch) Voilà qui devrait en titiller, voire le faire baver, quelques uns. Je suis d'ailleurs très surpris que certains intervenants sur ce NG ne se soient encore cette douceur !!!!
-- A+ Papy Bernard
-- A+ Papy Bernard
Bonjour
De Anne
C'était sur tout pour rectifier l'info sur les 75 dpi, qui n'a jamais
existé.
Les DPI font encore des ravages.
A propos d'écran, que signifie "DPI".
S'il s'agit du nombre de cellules/pouce, cette grandeur -la cellule-,
physique, est finie. Déterminée par la technologie. Pour un écran CRT, on
parle de "pitch" -taille de la maille du masque de l'écran, cellule dont les
dimensions en dessous desquelles on ne peut descendre pour représenter un
"pixel", unité de base d'une image numérique. Le mieux que j'ai connu pour
un CRT a été un pitch de 0,2 mm. Le tout venant avait un pitch de 0,33 mm
sur des écrans 13/14" d'où cette "fameuse" "résolution" de 72 "DPI".
Affichage de 800x600
pixels sur un 14" sous 72 "DPI". En fait on déduisait les "DPI" des
possibilités de l'écran. A technologie d'écran égale, la "r*e*olution" de
l'écran (en pixels) était joyeusement -voire glorieusement- affichée par les
marketeux des constructeurs. Alors que ce n'était que la diagonale de
l'écran qui, augmentant, permettait un afiichage plus conséquent.
Pour un écran LCD, à bien y regarder, on voit la "grille" de la dalle. Des
raies verticales rouge, vert, bleu et des lignes horizontales noires
délimitant/découpant sur la hauteur les raies verticales pour définir les
"cellules" analogues au pitch d'un CRT.
Quant à l'affichage des polices sous "96 dpi" que l'on peut pousser à "125
dpi", il s'agit non plus de "DPI" physiques mais de "DPI" informatiques.
Passer d'un affichage de polices de 96 à 125 "dpi" n'est qu'un artifice
électronique. On étale un caractère sur plusieurs cellules. Même si l'on est
pas pile poil sur un multiple du pas de la dalle, on peut compter sur
l'informatique, via l'électronique, pour soumettre le physique pour que la
perception reste satisfaisante.
Maintenant, pour les puristes (argentés, *très* argentés) pour qui il y a
toujours mieux, il y a l'écran IBM T221:
22" de diagonale, 3840×2400 pixels (204 pixels per inch)
Voilà qui devrait en titiller, voire le faire baver, quelques uns.
Je suis d'ailleurs très surpris que certains intervenants sur ce NG ne se
soient encore cette douceur !!!!
C'était sur tout pour rectifier l'info sur les 75 dpi, qui n'a jamais existé.
Les DPI font encore des ravages.
A propos d'écran, que signifie "DPI".
S'il s'agit du nombre de cellules/pouce, cette grandeur -la cellule-, physique, est finie. Déterminée par la technologie. Pour un écran CRT, on parle de "pitch" -taille de la maille du masque de l'écran, cellule dont les dimensions en dessous desquelles on ne peut descendre pour représenter un "pixel", unité de base d'une image numérique. Le mieux que j'ai connu pour un CRT a été un pitch de 0,2 mm. Le tout venant avait un pitch de 0,33 mm sur des écrans 13/14" d'où cette "fameuse" "résolution" de 72 "DPI". Affichage de 800x600 pixels sur un 14" sous 72 "DPI". En fait on déduisait les "DPI" des possibilités de l'écran. A technologie d'écran égale, la "r*e*olution" de l'écran (en pixels) était joyeusement -voire glorieusement- affichée par les marketeux des constructeurs. Alors que ce n'était que la diagonale de l'écran qui, augmentant, permettait un afiichage plus conséquent.
Pour un écran LCD, à bien y regarder, on voit la "grille" de la dalle. Des raies verticales rouge, vert, bleu et des lignes horizontales noires délimitant/découpant sur la hauteur les raies verticales pour définir les "cellules" analogues au pitch d'un CRT.
Quant à l'affichage des polices sous "96 dpi" que l'on peut pousser à "125 dpi", il s'agit non plus de "DPI" physiques mais de "DPI" informatiques. Passer d'un affichage de polices de 96 à 125 "dpi" n'est qu'un artifice électronique. On étale un caractère sur plusieurs cellules. Même si l'on est pas pile poil sur un multiple du pas de la dalle, on peut compter sur l'informatique, via l'électronique, pour soumettre le physique pour que la perception reste satisfaisante.
Maintenant, pour les puristes (argentés, *très* argentés) pour qui il y a toujours mieux, il y a l'écran IBM T221: 22" de diagonale, 3840×2400 pixels (204 pixels per inch) Voilà qui devrait en titiller, voire le faire baver, quelques uns. Je suis d'ailleurs très surpris que certains intervenants sur ce NG ne se soient encore cette douceur !!!!
-- A+ Papy Bernard
-- A+ Papy Bernard
Papy Bernard
Bonjour
De Charles VASSALLO
Les chiffres magiques 72 et 96 n'ont jamais été associés à des résolutions d'écrans, mais à des réponses à une grosse question existentielle dans les débuts des traitements de texte : à combien de pixels écrans doit on faire correspondre un "point" typographique ? Ce point est l'unité de mesure traditionnelle pour la taille des caractères, redéfinie par Adobe comme 1/72 pouce.
Apple (ce devait être Steve à cette époque) a opté pour 1 px par point, d'où les 72 pixels pour 1 pouce imprimé tandis que Billou prenait 4 pixels pour 3 points, d'où les 96 dpi.
Qui a fait l'oeuf ? Qui a fait la poule ?
Je serais tenté de croire que l'imprimerie avait de l'avance sur l'informatique avec son 1/72". Néanmoins, bien forcé de reconnaître que la technologie des écrans a longtemps patiné avec un pitch de 0,33 mm, avec des écrans de 14", limitant ainsi l'affichage "full screen" à 800x600 pixels, soit "72 dpi". Pure coïncidence ???? Par contre, je ne vois pas comment on peut afficher 4 pixels sur 3 "points". Il y a quelque chose qui m'échappe.
Merci pour tes éclaircissements.
-- A+ Papy Bernard
Bonjour
De Charles VASSALLO
Les chiffres magiques 72 et 96 n'ont jamais été associés à des
résolutions d'écrans, mais à des réponses à une grosse question
existentielle dans les débuts des traitements de texte : à combien de
pixels écrans doit on faire correspondre un "point" typographique ? Ce
point est l'unité de mesure traditionnelle pour la taille des
caractères, redéfinie par Adobe comme 1/72 pouce.
Apple (ce devait être Steve à cette époque) a opté pour 1 px par
point, d'où les 72 pixels pour 1 pouce imprimé tandis que Billou
prenait 4 pixels pour 3 points, d'où les 96 dpi.
Qui a fait l'oeuf ? Qui a fait la poule ?
Je serais tenté de croire que l'imprimerie avait de l'avance sur
l'informatique avec son 1/72". Néanmoins, bien forcé de reconnaître que la
technologie des écrans a longtemps patiné avec un pitch de 0,33 mm, avec des
écrans de 14", limitant ainsi l'affichage "full screen" à 800x600 pixels,
soit "72 dpi". Pure coïncidence ????
Par contre, je ne vois pas comment on peut afficher 4 pixels sur 3 "points".
Il y a quelque chose qui m'échappe.
Les chiffres magiques 72 et 96 n'ont jamais été associés à des résolutions d'écrans, mais à des réponses à une grosse question existentielle dans les débuts des traitements de texte : à combien de pixels écrans doit on faire correspondre un "point" typographique ? Ce point est l'unité de mesure traditionnelle pour la taille des caractères, redéfinie par Adobe comme 1/72 pouce.
Apple (ce devait être Steve à cette époque) a opté pour 1 px par point, d'où les 72 pixels pour 1 pouce imprimé tandis que Billou prenait 4 pixels pour 3 points, d'où les 96 dpi.
Qui a fait l'oeuf ? Qui a fait la poule ?
Je serais tenté de croire que l'imprimerie avait de l'avance sur l'informatique avec son 1/72". Néanmoins, bien forcé de reconnaître que la technologie des écrans a longtemps patiné avec un pitch de 0,33 mm, avec des écrans de 14", limitant ainsi l'affichage "full screen" à 800x600 pixels, soit "72 dpi". Pure coïncidence ???? Par contre, je ne vois pas comment on peut afficher 4 pixels sur 3 "points". Il y a quelque chose qui m'échappe.
Merci pour tes éclaircissements.
-- A+ Papy Bernard
Sylvain SF
Papy Bernard a écrit :
Je serais tenté de croire que l'imprimerie avait de l'avance sur l'informatique avec son 1/72". Néanmoins, bien forcé de reconnaître que la technologie des écrans a longtemps patiné avec un pitch de 0,33 mm, avec des écrans de 14", limitant ainsi l'affichage "full screen" à 800x600 pixels, soit "72 dpi". Pure coïncidence ????
ben, 72 dpi = 72 pts par 25,4mm = 1 pt tous les 0.33mm ça ne ressemble pas vraiment à une coïncidence, plutôt à une répétition, non ?
Sylvain.
Papy Bernard a écrit :
Je serais tenté de croire que l'imprimerie avait de l'avance sur
l'informatique avec son 1/72". Néanmoins, bien forcé de reconnaître que la
technologie des écrans a longtemps patiné avec un pitch de 0,33 mm, avec des
écrans de 14", limitant ainsi l'affichage "full screen" à 800x600 pixels,
soit "72 dpi". Pure coïncidence ????
ben, 72 dpi = 72 pts par 25,4mm = 1 pt tous les 0.33mm
ça ne ressemble pas vraiment à une coïncidence, plutôt
à une répétition, non ?
Je serais tenté de croire que l'imprimerie avait de l'avance sur l'informatique avec son 1/72". Néanmoins, bien forcé de reconnaître que la technologie des écrans a longtemps patiné avec un pitch de 0,33 mm, avec des écrans de 14", limitant ainsi l'affichage "full screen" à 800x600 pixels, soit "72 dpi". Pure coïncidence ????
ben, 72 dpi = 72 pts par 25,4mm = 1 pt tous les 0.33mm ça ne ressemble pas vraiment à une coïncidence, plutôt à une répétition, non ?