Ton message est intéressant, mais ta différence d'appréciation vient, soit
de la largeur de ta table ou de ton meuble, soit de la position de ton écran
sur ledit meuble informatique, soit de ta position. Ton "autour de moi" est
différent du mien. Je suis probablement beaucoup plus standard.
C'est bien évident ! Et comme la moyenne des utilisateurs ne voient pas les
pixels en utilisation courante, c'est que toi, tu es plus près que la
moyenne ! Ce qui est ton droit le plus absolu, à condition de ne pas en
faire une norme (:-o)
C'est une mauvaise idée d'employer cette unité. Pour un capteur, la valeur
pertinente, c'est la définition angulaire. Avec les chiffres que tu donnes,
ça nous fait 3000 points par radian, ce qui correspond à peu près à l'ordre
de grandeur qu'on évoque souvent d'une définition d'une minute d'arc.
La définition visuelle d'une minute d'arc pour l'oeil standard est
parfaitement exacte, puisque si tu la calcule à partir des données que j'ai
rapporté : focale de 15 mm et cône de 5 micron, l'angle A fait :
A = Atg (C / F) = 0,005 / 15 = 1,2 seconde d'arc.
Tu as raison, sans qu'il y ait aucune contradiction entre-nous.
Par contre,
si tu veux discuter de définitions avec la majorité des contributeurs à ce
forum, les DPI, ils connaissent parfaitement, mais les "points par radians"
n'auront pour eux aucune signification. Tu viens de créér une nouvelle unité
dont il faudra nous donner la définition détaillée. Félicitations.
Si on prend une définition de l'oeil d'une seconde d'arc et une distance de
50 cm, une définition de l'écran de 170 dpi serait la limite.
Moins d'accord. Si l'angle A fait 1 seconde d'arc, il définit à 50 cm une
largeur de pitch de :
Tg 0°0'1" x 500 mm = 0,16666 mm, ce qui correspond à une définition de :
25,4 (1 inch) / 0,166 = 152 DPI.
Si tu divise un chiffre magique de 75, sorti de mon chapeau, par une
distance d'observation, en mètres, tu obtiens la définition nécessaire et
suffisante (en DPI) pour que l'image paraisse absolument nette.
Définition (DPI) = 75 / Distance d'observation (mètres)
Une application (au hasard !) :
Un écran LCD vu à 0,75 m Définition = 75 / 0,75 = 100 DPI
Curieux, tout de même !
Ton message est intéressant, mais ta différence d'appréciation vient, soit
de la largeur de ta table ou de ton meuble, soit de la position de ton écran
sur ledit meuble informatique, soit de ta position. Ton "autour de moi" est
différent du mien. Je suis probablement beaucoup plus standard.
C'est bien évident ! Et comme la moyenne des utilisateurs ne voient pas les
pixels en utilisation courante, c'est que toi, tu es plus près que la
moyenne ! Ce qui est ton droit le plus absolu, à condition de ne pas en
faire une norme (:-o)
C'est une mauvaise idée d'employer cette unité. Pour un capteur, la valeur
pertinente, c'est la définition angulaire. Avec les chiffres que tu donnes,
ça nous fait 3000 points par radian, ce qui correspond à peu près à l'ordre
de grandeur qu'on évoque souvent d'une définition d'une minute d'arc.
La définition visuelle d'une minute d'arc pour l'oeil standard est
parfaitement exacte, puisque si tu la calcule à partir des données que j'ai
rapporté : focale de 15 mm et cône de 5 micron, l'angle A fait :
A = Atg (C / F) = 0,005 / 15 = 1,2 seconde d'arc.
Tu as raison, sans qu'il y ait aucune contradiction entre-nous.
Par contre,
si tu veux discuter de définitions avec la majorité des contributeurs à ce
forum, les DPI, ils connaissent parfaitement, mais les "points par radians"
n'auront pour eux aucune signification. Tu viens de créér une nouvelle unité
dont il faudra nous donner la définition détaillée. Félicitations.
Si on prend une définition de l'oeil d'une seconde d'arc et une distance de
50 cm, une définition de l'écran de 170 dpi serait la limite.
Moins d'accord. Si l'angle A fait 1 seconde d'arc, il définit à 50 cm une
largeur de pitch de :
Tg 0°0'1" x 500 mm = 0,16666 mm, ce qui correspond à une définition de :
25,4 (1 inch) / 0,166 = 152 DPI.
Si tu divise un chiffre magique de 75, sorti de mon chapeau, par une
distance d'observation, en mètres, tu obtiens la définition nécessaire et
suffisante (en DPI) pour que l'image paraisse absolument nette.
Définition (DPI) = 75 / Distance d'observation (mètres)
Une application (au hasard !) :
Un écran LCD vu à 0,75 m Définition = 75 / 0,75 = 100 DPI
Curieux, tout de même !
Ton message est intéressant, mais ta différence d'appréciation vient, soit
de la largeur de ta table ou de ton meuble, soit de la position de ton écran
sur ledit meuble informatique, soit de ta position. Ton "autour de moi" est
différent du mien. Je suis probablement beaucoup plus standard.
C'est bien évident ! Et comme la moyenne des utilisateurs ne voient pas les
pixels en utilisation courante, c'est que toi, tu es plus près que la
moyenne ! Ce qui est ton droit le plus absolu, à condition de ne pas en
faire une norme (:-o)
C'est une mauvaise idée d'employer cette unité. Pour un capteur, la valeur
pertinente, c'est la définition angulaire. Avec les chiffres que tu donnes,
ça nous fait 3000 points par radian, ce qui correspond à peu près à l'ordre
de grandeur qu'on évoque souvent d'une définition d'une minute d'arc.
La définition visuelle d'une minute d'arc pour l'oeil standard est
parfaitement exacte, puisque si tu la calcule à partir des données que j'ai
rapporté : focale de 15 mm et cône de 5 micron, l'angle A fait :
A = Atg (C / F) = 0,005 / 15 = 1,2 seconde d'arc.
Tu as raison, sans qu'il y ait aucune contradiction entre-nous.
Par contre,
si tu veux discuter de définitions avec la majorité des contributeurs à ce
forum, les DPI, ils connaissent parfaitement, mais les "points par radians"
n'auront pour eux aucune signification. Tu viens de créér une nouvelle unité
dont il faudra nous donner la définition détaillée. Félicitations.
Si on prend une définition de l'oeil d'une seconde d'arc et une distance de
50 cm, une définition de l'écran de 170 dpi serait la limite.
Moins d'accord. Si l'angle A fait 1 seconde d'arc, il définit à 50 cm une
largeur de pitch de :
Tg 0°0'1" x 500 mm = 0,16666 mm, ce qui correspond à une définition de :
25,4 (1 inch) / 0,166 = 152 DPI.
Si tu divise un chiffre magique de 75, sorti de mon chapeau, par une
distance d'observation, en mètres, tu obtiens la définition nécessaire et
suffisante (en DPI) pour que l'image paraisse absolument nette.
Définition (DPI) = 75 / Distance d'observation (mètres)
Une application (au hasard !) :
Un écran LCD vu à 0,75 m Définition = 75 / 0,75 = 100 DPI
Curieux, tout de même !
Je reconnais cependant que parler en radians plutôt qu'en degrés était
probablement une marque de pédanterie de ma part.
Je ne sais pas comment tu te débrouilles pour ton calcul, mais ton résultat
est faux. Déjà, je rappelle qu'on parle d'une minute d'arc, c'est à dire
d'un soixantième de degré. Eh bien à 50 cm, ça donne une trace de 0,1454 mm
et des poussières. Ce qui donne environ 174,6 dpi.
Je ne comprends pas comment tu arrives à ce résultat.
Curieux, je ne dirais pas ça. J'aurais tendance à penser que cette fameuse
distance de 75 cm a été pipotée a posteriori à partir de la résolution que
les fabricants voulaient vendre.
Je pense que l'origine de ce 100 dpi quasi universel est plutôt à chercher
du côté marketing.
D'autre part, si les pixels sont bien visibles quand on travaille, parce
qu'on se concentre sur ce qui est affiché, et qu'il y a un fort contraste,
ils sont en revanche peu visible quand on a une image très nuancée qui bouge
vite, et qu'on est concentré sur des ennemis qui peuvent surgir à tout
moment. En d'autres termes, le gamer n'a pas le temps de voir les pixels.
Je reconnais cependant que parler en radians plutôt qu'en degrés était
probablement une marque de pédanterie de ma part.
Je ne sais pas comment tu te débrouilles pour ton calcul, mais ton résultat
est faux. Déjà, je rappelle qu'on parle d'une minute d'arc, c'est à dire
d'un soixantième de degré. Eh bien à 50 cm, ça donne une trace de 0,1454 mm
et des poussières. Ce qui donne environ 174,6 dpi.
Je ne comprends pas comment tu arrives à ce résultat.
Curieux, je ne dirais pas ça. J'aurais tendance à penser que cette fameuse
distance de 75 cm a été pipotée a posteriori à partir de la résolution que
les fabricants voulaient vendre.
Je pense que l'origine de ce 100 dpi quasi universel est plutôt à chercher
du côté marketing.
D'autre part, si les pixels sont bien visibles quand on travaille, parce
qu'on se concentre sur ce qui est affiché, et qu'il y a un fort contraste,
ils sont en revanche peu visible quand on a une image très nuancée qui bouge
vite, et qu'on est concentré sur des ennemis qui peuvent surgir à tout
moment. En d'autres termes, le gamer n'a pas le temps de voir les pixels.
Je reconnais cependant que parler en radians plutôt qu'en degrés était
probablement une marque de pédanterie de ma part.
Je ne sais pas comment tu te débrouilles pour ton calcul, mais ton résultat
est faux. Déjà, je rappelle qu'on parle d'une minute d'arc, c'est à dire
d'un soixantième de degré. Eh bien à 50 cm, ça donne une trace de 0,1454 mm
et des poussières. Ce qui donne environ 174,6 dpi.
Je ne comprends pas comment tu arrives à ce résultat.
Curieux, je ne dirais pas ça. J'aurais tendance à penser que cette fameuse
distance de 75 cm a été pipotée a posteriori à partir de la résolution que
les fabricants voulaient vendre.
Je pense que l'origine de ce 100 dpi quasi universel est plutôt à chercher
du côté marketing.
D'autre part, si les pixels sont bien visibles quand on travaille, parce
qu'on se concentre sur ce qui est affiché, et qu'il y a un fort contraste,
ils sont en revanche peu visible quand on a une image très nuancée qui bouge
vite, et qu'on est concentré sur des ennemis qui peuvent surgir à tout
moment. En d'autres termes, le gamer n'a pas le temps de voir les pixels.
Jouer sur la 4ème décimale dans ce genre de calculs relatifs à des grandeurs
physiologiques est ridicule...
C'est écrit dans mes calculs.
Pures suppositions non étayées... dommage. C'est de la critique pour la
critique, traduisant un état d'esprit bien particulier.
Par contre, je pense que tu dois porter des corrections visuelles assez
fortes...
Jouer sur la 4ème décimale dans ce genre de calculs relatifs à des grandeurs
physiologiques est ridicule...
C'est écrit dans mes calculs.
Pures suppositions non étayées... dommage. C'est de la critique pour la
critique, traduisant un état d'esprit bien particulier.
Par contre, je pense que tu dois porter des corrections visuelles assez
fortes...
Jouer sur la 4ème décimale dans ce genre de calculs relatifs à des grandeurs
physiologiques est ridicule...
C'est écrit dans mes calculs.
Pures suppositions non étayées... dommage. C'est de la critique pour la
critique, traduisant un état d'esprit bien particulier.
Par contre, je pense que tu dois porter des corrections visuelles assez
fortes...
Comme beaucoup, cet article confond la taille des pixels avec la taille des
images affichées. Quand on a des pixels plus petits, on met plus de pixels
pour dessiner la même chose, on obtient le même dessin en plus fin, et c'est
mieux.
Comme beaucoup, cet article confond la taille des pixels avec la taille des
images affichées. Quand on a des pixels plus petits, on met plus de pixels
pour dessiner la même chose, on obtient le même dessin en plus fin, et c'est
mieux.
Comme beaucoup, cet article confond la taille des pixels avec la taille des
images affichées. Quand on a des pixels plus petits, on met plus de pixels
pour dessiner la même chose, on obtient le même dessin en plus fin, et c'est
mieux.
"jeuf" a écrit dans le message de news:
Nan nan. Faut comparer ce qui est comparable.
D'abord la taille de l'écran : il y a 2 pouces de différence. Un LCD
de
19" a 19" visibles, pour avoir ça en CRT il faut acheter un 21".
Ensuite la consommation : un LCD de 19" consomme environ 50 watts,
contre
150 watts pour un CRT de 21".
Le LCD est certes un peu plus cher à l'achat, mais la différence est
amortie assez rapidement (deux ans si l'écran reste souvent allumé)
Ca c'est une provocation à bosser... alors allons-y...
1 h par jour signifie ~ un peu plus de 300 h / an
(on multipliera par la suite)
donc, 100 watts de différence = 1kWh pour 10 heures
soit 30 kWh par an.
à mettons 0,1 euro du kWh jour (avec toutes les taxes),
ça nous amène à 3 euros par an.
Donc à 4 à 8 h par jour, ça fait pas plus qu'une vingtaine
d'euros par an.
J'ai tout de même des doutes sur ton raisonnement (et crois-
moi, j'aurais publié aussi dans le cas contraire, car le bilan
m'intéressait). Même en convenant qu'on amortit ça sur
plus d'un an, ça me paraît un peu juste
mais, bon, disons
que ça adoucit la différence de prix, c'est vrai.
(et tu te souviens que j'ai compté des kWh 100% de jour,
pour la nuit tu enlèves un bon tiers).
Encore faut-il être satisfait de la qualité, et là, avec tout
ce que je lis ici et ailleurs (sur les pixels morts, en particulier),
ça fait un peu froid dans le dos.
Par ailleurs, la durée de vie d'un LCD est 2,5 fois supérieure à
celle
d'un CRT (60.000 heures contre 25.000 heures).
365*8 = 3000 environ
Tu ne comptes pas changer ton LCD avant 20 ans ? :-)
"jeuf" <jfv@fr.fm> a écrit dans le message de news:
mn.0c667d6bf5c99c6e.48336@ailleurs...
Nan nan. Faut comparer ce qui est comparable.
D'abord la taille de l'écran : il y a 2 pouces de différence. Un LCD
de
19" a 19" visibles, pour avoir ça en CRT il faut acheter un 21".
Ensuite la consommation : un LCD de 19" consomme environ 50 watts,
contre
150 watts pour un CRT de 21".
Le LCD est certes un peu plus cher à l'achat, mais la différence est
amortie assez rapidement (deux ans si l'écran reste souvent allumé)
Ca c'est une provocation à bosser... alors allons-y...
1 h par jour signifie ~ un peu plus de 300 h / an
(on multipliera par la suite)
donc, 100 watts de différence = 1kWh pour 10 heures
soit 30 kWh par an.
à mettons 0,1 euro du kWh jour (avec toutes les taxes),
ça nous amène à 3 euros par an.
Donc à 4 à 8 h par jour, ça fait pas plus qu'une vingtaine
d'euros par an.
J'ai tout de même des doutes sur ton raisonnement (et crois-
moi, j'aurais publié aussi dans le cas contraire, car le bilan
m'intéressait). Même en convenant qu'on amortit ça sur
plus d'un an, ça me paraît un peu juste
mais, bon, disons
que ça adoucit la différence de prix, c'est vrai.
(et tu te souviens que j'ai compté des kWh 100% de jour,
pour la nuit tu enlèves un bon tiers).
Encore faut-il être satisfait de la qualité, et là, avec tout
ce que je lis ici et ailleurs (sur les pixels morts, en particulier),
ça fait un peu froid dans le dos.
Par ailleurs, la durée de vie d'un LCD est 2,5 fois supérieure à
celle
d'un CRT (60.000 heures contre 25.000 heures).
365*8 = 3000 environ
Tu ne comptes pas changer ton LCD avant 20 ans ? :-)
"jeuf" a écrit dans le message de news:
Nan nan. Faut comparer ce qui est comparable.
D'abord la taille de l'écran : il y a 2 pouces de différence. Un LCD
de
19" a 19" visibles, pour avoir ça en CRT il faut acheter un 21".
Ensuite la consommation : un LCD de 19" consomme environ 50 watts,
contre
150 watts pour un CRT de 21".
Le LCD est certes un peu plus cher à l'achat, mais la différence est
amortie assez rapidement (deux ans si l'écran reste souvent allumé)
Ca c'est une provocation à bosser... alors allons-y...
1 h par jour signifie ~ un peu plus de 300 h / an
(on multipliera par la suite)
donc, 100 watts de différence = 1kWh pour 10 heures
soit 30 kWh par an.
à mettons 0,1 euro du kWh jour (avec toutes les taxes),
ça nous amène à 3 euros par an.
Donc à 4 à 8 h par jour, ça fait pas plus qu'une vingtaine
d'euros par an.
J'ai tout de même des doutes sur ton raisonnement (et crois-
moi, j'aurais publié aussi dans le cas contraire, car le bilan
m'intéressait). Même en convenant qu'on amortit ça sur
plus d'un an, ça me paraît un peu juste
mais, bon, disons
que ça adoucit la différence de prix, c'est vrai.
(et tu te souviens que j'ai compté des kWh 100% de jour,
pour la nuit tu enlèves un bon tiers).
Encore faut-il être satisfait de la qualité, et là, avec tout
ce que je lis ici et ailleurs (sur les pixels morts, en particulier),
ça fait un peu froid dans le dos.
Par ailleurs, la durée de vie d'un LCD est 2,5 fois supérieure à
celle
d'un CRT (60.000 heures contre 25.000 heures).
365*8 = 3000 environ
Tu ne comptes pas changer ton LCD avant 20 ans ? :-)
Tu es sûr de ne pas confondre texte et images ? Et leur conséquence sur
la fatigue oculaire. Pou rmoi, mais je ne sais peut être pas lire
(encore que, vu mon âge, c'était la méthode miracle repréconisée), mais
il me semble bien que ça concerne le fond de l'article.
Sur le portable, malgré la qualité de la dalle, je suis parfois obligée
de chausser des lunettes adaptées, un comble quand je n'ai pas besoin
des dites lunettes pour la presse.
L'anti aliasing, sur mon système à moi que j'ai, ne concerne que les
caractères. Enfin, c'est ce qu'ils disent.
Tu es sûr de ne pas confondre texte et images ? Et leur conséquence sur
la fatigue oculaire. Pou rmoi, mais je ne sais peut être pas lire
(encore que, vu mon âge, c'était la méthode miracle repréconisée), mais
il me semble bien que ça concerne le fond de l'article.
Sur le portable, malgré la qualité de la dalle, je suis parfois obligée
de chausser des lunettes adaptées, un comble quand je n'ai pas besoin
des dites lunettes pour la presse.
L'anti aliasing, sur mon système à moi que j'ai, ne concerne que les
caractères. Enfin, c'est ce qu'ils disent.
Tu es sûr de ne pas confondre texte et images ? Et leur conséquence sur
la fatigue oculaire. Pou rmoi, mais je ne sais peut être pas lire
(encore que, vu mon âge, c'était la méthode miracle repréconisée), mais
il me semble bien que ça concerne le fond de l'article.
Sur le portable, malgré la qualité de la dalle, je suis parfois obligée
de chausser des lunettes adaptées, un comble quand je n'ai pas besoin
des dites lunettes pour la presse.
L'anti aliasing, sur mon système à moi que j'ai, ne concerne que les
caractères. Enfin, c'est ce qu'ils disent.
Tu es sûr de ne pas confondre texte et images ? Et leur conséquence sur
la fatigue oculaire. Pou rmoi, mais je ne sais peut être pas lire
(encore que, vu mon âge, c'était la méthode miracle repréconisée), mais
il me semble bien que ça concerne le fond de l'article.
Je ne comprends pas ce que tu veux dire.
Sur le portable, malgré la qualité de la dalle, je suis parfois obligée
de chausser des lunettes adaptées, un comble quand je n'ai pas besoin
des dites lunettes pour la presse.
Augmente la taille d'affichage, c'est tout.
L'anti aliasing, sur mon système à moi que j'ai, ne concerne que les
caractères. Enfin, c'est ce qu'ils disent.
Pour les images, on appelle ça interpolation, mais c'est le même principe.
Tu es sûr de ne pas confondre texte et images ? Et leur conséquence sur
la fatigue oculaire. Pou rmoi, mais je ne sais peut être pas lire
(encore que, vu mon âge, c'était la méthode miracle repréconisée), mais
il me semble bien que ça concerne le fond de l'article.
Je ne comprends pas ce que tu veux dire.
Sur le portable, malgré la qualité de la dalle, je suis parfois obligée
de chausser des lunettes adaptées, un comble quand je n'ai pas besoin
des dites lunettes pour la presse.
Augmente la taille d'affichage, c'est tout.
L'anti aliasing, sur mon système à moi que j'ai, ne concerne que les
caractères. Enfin, c'est ce qu'ils disent.
Pour les images, on appelle ça interpolation, mais c'est le même principe.
Tu es sûr de ne pas confondre texte et images ? Et leur conséquence sur
la fatigue oculaire. Pou rmoi, mais je ne sais peut être pas lire
(encore que, vu mon âge, c'était la méthode miracle repréconisée), mais
il me semble bien que ça concerne le fond de l'article.
Je ne comprends pas ce que tu veux dire.
Sur le portable, malgré la qualité de la dalle, je suis parfois obligée
de chausser des lunettes adaptées, un comble quand je n'ai pas besoin
des dites lunettes pour la presse.
Augmente la taille d'affichage, c'est tout.
L'anti aliasing, sur mon système à moi que j'ai, ne concerne que les
caractères. Enfin, c'est ce qu'ils disent.
Pour les images, on appelle ça interpolation, mais c'est le même principe.
Ah, tu es sûr ? Pour moi, l'interpolation, c'est ce que fait le scanner
ou l'appareil photo bas de gamme.
Ah, tu es sûr ? Pour moi, l'interpolation, c'est ce que fait le scanner
ou l'appareil photo bas de gamme.
Ah, tu es sûr ? Pour moi, l'interpolation, c'est ce que fait le scanner
ou l'appareil photo bas de gamme.
Ah, tu es sûr ? Pour moi, l'interpolation, c'est ce que fait le scanner
ou l'appareil photo bas de gamme.
Le même mot peut, dans différents contextes, désigner différentes choses. En
l'occurrence, afficher une image bitmap à une résolution supérieure à sa
résolution native demande de calculer des pixels intermédiaires. Ce calcul
s'appelle interpolation.
Ah, tu es sûr ? Pour moi, l'interpolation, c'est ce que fait le scanner
ou l'appareil photo bas de gamme.
Le même mot peut, dans différents contextes, désigner différentes choses. En
l'occurrence, afficher une image bitmap à une résolution supérieure à sa
résolution native demande de calculer des pixels intermédiaires. Ce calcul
s'appelle interpolation.
Ah, tu es sûr ? Pour moi, l'interpolation, c'est ce que fait le scanner
ou l'appareil photo bas de gamme.
Le même mot peut, dans différents contextes, désigner différentes choses. En
l'occurrence, afficher une image bitmap à une résolution supérieure à sa
résolution native demande de calculer des pixels intermédiaires. Ce calcul
s'appelle interpolation.
Excatement ce que je dis. CEci dit, l'anti aliasing ne fonctionne que
sur un affichage vectoriel, ce qui n'est pas, que je sache le cas de
Windows XO, et ne s'applique qu'au seul vectoreil.
Excatement ce que je dis. CEci dit, l'anti aliasing ne fonctionne que
sur un affichage vectoriel, ce qui n'est pas, que je sache le cas de
Windows XO, et ne s'applique qu'au seul vectoreil.
Excatement ce que je dis. CEci dit, l'anti aliasing ne fonctionne que
sur un affichage vectoriel, ce qui n'est pas, que je sache le cas de
Windows XO, et ne s'applique qu'au seul vectoreil.