J'étais intéressé par Linux mais je constate avec regret que l'affichage
de l'interface graphique KDE est affligée de la même tare que MacOS X :
l'affichage des caractères n'est pas net.
Existe-t-il un moyen d'avoir un affichage net ? Sinon je n'installerai
pas Linux, n'ayant pas envie de me fatiguer les yeux inutilement.
Cet ensemble de pixel à l'écran, s'il est "grisouille" il parait flou même si pourtant il s'approche de ton caractère idéal théorique.
Il ne paraît flou que parce que ta définition de flou ne prend en compte que les flous pseudo-gaussiens. Si on tient compte de toutes les perturbations aux interfaces, il est moins flou que la version pixelisée, c'est ce que je me tue à expliquer depuis des heures.
Steph , dans le message <fjjofi$rn4$1@news.rd.francetelecom.fr>, a
écrit :
Cet ensemble de pixel à l'écran, s'il est "grisouille" il parait flou
même si pourtant il s'approche de ton caractère idéal théorique.
Il ne paraît flou que parce que ta définition de flou ne prend en compte que
les flous pseudo-gaussiens. Si on tient compte de toutes les perturbations
aux interfaces, il est moins flou que la version pixelisée, c'est ce que je
me tue à expliquer depuis des heures.
Cet ensemble de pixel à l'écran, s'il est "grisouille" il parait flou même si pourtant il s'approche de ton caractère idéal théorique.
Il ne paraît flou que parce que ta définition de flou ne prend en compte que les flous pseudo-gaussiens. Si on tient compte de toutes les perturbations aux interfaces, il est moins flou que la version pixelisée, c'est ce que je me tue à expliquer depuis des heures.
Nicolas George
pehache-tolai , dans le message , a écrit :
Je n'ai pas dit que les hautes fréquences étaient parfaitement préservées, mais que *DES* hautes fréquences étaient toujours présentes. Et ce sont ces hautes fréquences qui donnent l'impression de netteté.
Ton raisonnement est complètement bancal : introduire des perturbations qui n'ont rien à voir avec l'original ne va pas améliorer son rendu.
J'ai donné ma définition de la netteté -définition que beaucoup de gens partagent-, basée sur la mesure d'acutance. Cette mesure peut être faite sur n'importe quelle image et est donc universelle.
Je le refais, puisque, apparemment, tu l'as raté la première fois : cette mesure est pertinente pour mesurer des flous pseudo-gaussiens introduits par des dispositifs optiques. Elle n'est pas pertinente ici.
Attends, là tu es en train de me dire que tu serais capable de reconnaître les différentes lettres de l'alphabet simplement à l'intensité du gris d'un gros rectangle qui engloberait tout le caractère ?
Je dis qu'il y a plus d'information disponible pour reconnaître le caractère. Toi, tu exagères mon affirmation jusqu'à l'absurde ; c'est un artifice rhétorique bien connu, et très malhonnête.
Sans antialiasing, on prend directement la valeur de la fonction aux points d'échantillonnage.
Ce qui revient au même, puisque le point d'échantillonnage est essentiellement aléatoire.
Ca me parait difficile d'éviter d'afficher des pixels sur un écran fait physiquement de pixels.
En tirant parti du fait que les écrans ne sont pas en tout ou rien, on s'en approche.
Oui, et en pratique on n'y arrive pas, et le cerveau d'en débrouille néanmoins très bien, avec ou sans antialiasing.
Ah, mais là, tu parles de complètement autre chose, tu t'en rends compte ?
La question est depuis le début de représenter des caractères d'imprimerie classiques sur un écran. Pas d'inventer une nouvelle représentation, vaguement cousine, adaptée à une représentation en pixels.
pehache-tolai , dans le message
<92eb1651-f53b-4d3a-bd39-c0d593a983a5@l16g2000hsf.googlegroups.com>, a
écrit :
Je n'ai pas dit que les hautes fréquences étaient parfaitement
préservées, mais que *DES* hautes fréquences étaient toujours
présentes. Et ce sont ces hautes fréquences qui donnent l'impression
de netteté.
Ton raisonnement est complètement bancal : introduire des perturbations qui
n'ont rien à voir avec l'original ne va pas améliorer son rendu.
J'ai donné ma définition de la netteté -définition que beaucoup de
gens partagent-, basée sur la mesure d'acutance. Cette mesure peut
être faite sur n'importe quelle image et est donc universelle.
Je le refais, puisque, apparemment, tu l'as raté la première fois : cette
mesure est pertinente pour mesurer des flous pseudo-gaussiens introduits par
des dispositifs optiques. Elle n'est pas pertinente ici.
Attends, là tu es en train de me dire que tu serais capable de
reconnaître les différentes lettres de l'alphabet simplement à
l'intensité du gris d'un gros rectangle qui engloberait tout le
caractère ?
Je dis qu'il y a plus d'information disponible pour reconnaître le
caractère. Toi, tu exagères mon affirmation jusqu'à l'absurde ; c'est un
artifice rhétorique bien connu, et très malhonnête.
Sans antialiasing, on prend directement la valeur de la fonction aux
points d'échantillonnage.
Ce qui revient au même, puisque le point d'échantillonnage est
essentiellement aléatoire.
Ca me parait difficile d'éviter d'afficher des pixels sur un écran
fait physiquement de pixels.
En tirant parti du fait que les écrans ne sont pas en tout ou rien, on s'en
approche.
Oui, et en pratique on n'y arrive pas, et le cerveau d'en débrouille
néanmoins très bien, avec ou sans antialiasing.
Ah, mais là, tu parles de complètement autre chose, tu t'en rends compte ?
La question est depuis le début de représenter des caractères d'imprimerie
classiques sur un écran. Pas d'inventer une nouvelle représentation,
vaguement cousine, adaptée à une représentation en pixels.
Je n'ai pas dit que les hautes fréquences étaient parfaitement préservées, mais que *DES* hautes fréquences étaient toujours présentes. Et ce sont ces hautes fréquences qui donnent l'impression de netteté.
Ton raisonnement est complètement bancal : introduire des perturbations qui n'ont rien à voir avec l'original ne va pas améliorer son rendu.
J'ai donné ma définition de la netteté -définition que beaucoup de gens partagent-, basée sur la mesure d'acutance. Cette mesure peut être faite sur n'importe quelle image et est donc universelle.
Je le refais, puisque, apparemment, tu l'as raté la première fois : cette mesure est pertinente pour mesurer des flous pseudo-gaussiens introduits par des dispositifs optiques. Elle n'est pas pertinente ici.
Attends, là tu es en train de me dire que tu serais capable de reconnaître les différentes lettres de l'alphabet simplement à l'intensité du gris d'un gros rectangle qui engloberait tout le caractère ?
Je dis qu'il y a plus d'information disponible pour reconnaître le caractère. Toi, tu exagères mon affirmation jusqu'à l'absurde ; c'est un artifice rhétorique bien connu, et très malhonnête.
Sans antialiasing, on prend directement la valeur de la fonction aux points d'échantillonnage.
Ce qui revient au même, puisque le point d'échantillonnage est essentiellement aléatoire.
Ca me parait difficile d'éviter d'afficher des pixels sur un écran fait physiquement de pixels.
En tirant parti du fait que les écrans ne sont pas en tout ou rien, on s'en approche.
Oui, et en pratique on n'y arrive pas, et le cerveau d'en débrouille néanmoins très bien, avec ou sans antialiasing.
Ah, mais là, tu parles de complètement autre chose, tu t'en rends compte ?
La question est depuis le début de représenter des caractères d'imprimerie classiques sur un écran. Pas d'inventer une nouvelle représentation, vaguement cousine, adaptée à une représentation en pixels.
pehache-tolai
On 10 déc, 18:00, Nicolas George <nicolas$ wrote:
Steph , dans le message <fjjofi$, a
Cet ensemble de pixel à l'écran, s'il est "grisouille" il parait flo u même si pourtant il s'approche de ton caractère idéal théorique.
Il ne paraît flou que parce que ta définition de flou ne prend en comp te que les flous pseudo-gaussiens.
Non: il lui parait flou parce qu'il lui parait flou, point. Ca se passe en quelques 1/100è de seconde, et je doute que dans cet intervalle intervienne une analyse raisonnée du caractère gaussien ou non de la chose :-)
Mamie Marcelle: "Elle est floue la télé, là, non ?"
Petit Nicolas: "Mamie, as-tu bien analysé la nature gaussienne ou non du phénomène avant de conclure ou flou ?"
;-)
-- pehache
On 10 déc, 18:00, Nicolas George <nicolas$geo...@salle-s.org> wrote:
Steph , dans le message <fjjofi$rn...@news.rd.francetelecom.fr>, a
Cet ensemble de pixel à l'écran, s'il est "grisouille" il parait flo u
même si pourtant il s'approche de ton caractère idéal théorique.
Il ne paraît flou que parce que ta définition de flou ne prend en comp te que
les flous pseudo-gaussiens.
Non: il lui parait flou parce qu'il lui parait flou, point. Ca se
passe en quelques 1/100è de seconde, et je doute que dans cet
intervalle intervienne une analyse raisonnée du caractère gaussien ou
non de la chose :-)
Mamie Marcelle: "Elle est floue la télé, là, non ?"
Petit Nicolas: "Mamie, as-tu bien analysé la nature gaussienne ou non
du phénomène avant de conclure ou flou ?"
Cet ensemble de pixel à l'écran, s'il est "grisouille" il parait flo u même si pourtant il s'approche de ton caractère idéal théorique.
Il ne paraît flou que parce que ta définition de flou ne prend en comp te que les flous pseudo-gaussiens.
Non: il lui parait flou parce qu'il lui parait flou, point. Ca se passe en quelques 1/100è de seconde, et je doute que dans cet intervalle intervienne une analyse raisonnée du caractère gaussien ou non de la chose :-)
Mamie Marcelle: "Elle est floue la télé, là, non ?"
Petit Nicolas: "Mamie, as-tu bien analysé la nature gaussienne ou non du phénomène avant de conclure ou flou ?"
;-)
-- pehache
Nicolas George
Gabriel Kerneis , dans le message , a écrit :
D'ailleurs, je ne sais même pas pourquoi on s'embête avec l'antialiasing, on devrait tous passer à des terminaux en braille, qui donnent des caractères parfaitement nets.
Tu t'essaie au sarcasme, mais tu tombes à côté, parce que si tu avais correctement compris le thread, tu verrais que cette position est plus proche de celle de « pehache-tolai »¹ que de la mienne.
1 : quel nom grotesque, soit dit en passant...
Gabriel Kerneis , dans le message
<slrnflqovf.4q5.PRENOM@tatanka.kerneis.info>, a écrit :
D'ailleurs, je ne sais même pas pourquoi on s'embête avec
l'antialiasing, on devrait tous passer à des terminaux en braille, qui
donnent des caractères parfaitement nets.
Tu t'essaie au sarcasme, mais tu tombes à côté, parce que si tu avais
correctement compris le thread, tu verrais que cette position est plus
proche de celle de « pehache-tolai »¹ que de la mienne.
D'ailleurs, je ne sais même pas pourquoi on s'embête avec l'antialiasing, on devrait tous passer à des terminaux en braille, qui donnent des caractères parfaitement nets.
Tu t'essaie au sarcasme, mais tu tombes à côté, parce que si tu avais correctement compris le thread, tu verrais que cette position est plus proche de celle de « pehache-tolai »¹ que de la mienne.
1 : quel nom grotesque, soit dit en passant...
Nicolas George
pehache-tolai , dans le message , a écrit :
Non: il lui parait flou parce qu'il lui parait flou, point. Ca se passe en quelques 1/100è de seconde
Non, ça fait quelques jours que ce thread dure.
Et tes sarcasmes débiles n'apportent pas grand chose, je t'invite à t'abstenir à l'avenir.
pehache-tolai , dans le message
<4d882160-82ab-43d6-bb1b-0eae7420d9c9@e4g2000hsg.googlegroups.com>, a
écrit :
Non: il lui parait flou parce qu'il lui parait flou, point. Ca se
passe en quelques 1/100è de seconde
Non, ça fait quelques jours que ce thread dure.
Et tes sarcasmes débiles n'apportent pas grand chose, je t'invite à
t'abstenir à l'avenir.
Non: il lui parait flou parce qu'il lui parait flou, point. Ca se passe en quelques 1/100è de seconde
Non, ça fait quelques jours que ce thread dure.
Et tes sarcasmes débiles n'apportent pas grand chose, je t'invite à t'abstenir à l'avenir.
Nicolas George
Gabriel Kerneis , dans le message , a écrit :
La question qu'il t'a aussi été posée plusieurs fois, et à laquelle tu évites soigneusement de répondre (allant jusqu'à la couper dans le message que tu cites), c'est quelle est *ta* définition de la netteté ?
C'est l'absence, ou la faiblesse, des perturbations du signal concentrées aux points de fort contraste.
Gabriel Kerneis , dans le message
<slrnflqsta.68u.PRENOM@tatanka.kerneis.info>, a écrit :
La question qu'il t'a aussi été posée plusieurs fois, et à laquelle tu
évites soigneusement de répondre (allant jusqu'à la couper dans le
message que tu cites), c'est quelle est *ta* définition de la netteté ?
C'est l'absence, ou la faiblesse, des perturbations du signal concentrées
aux points de fort contraste.
La question qu'il t'a aussi été posée plusieurs fois, et à laquelle tu évites soigneusement de répondre (allant jusqu'à la couper dans le message que tu cites), c'est quelle est *ta* définition de la netteté ?
C'est l'absence, ou la faiblesse, des perturbations du signal concentrées aux points de fort contraste.
pehache-tolai
On 10 déc, 18:09, Nicolas George <nicolas$ wrote:
Je n'ai pas dit que les hautes fréquences étaient parfaitement préservées, mais que *DES* hautes fréquences étaient toujours présentes. Et ce sont ces hautes fréquences qui donnent l'impression de netteté.
Ton raisonnement est complètement bancal : introduire des perturbations qui n'ont rien à voir avec l'original ne va pas améliorer son rendu.
Ben si justement. Si les perturbations sont introduites à bon escient, le rendu peut être amélioré.
Et ça n'a d'ailleurs rien de nouveau ou d'exceptionnel. C'est ce qui est fait courramment dans les appareils numériques lors de l'étape de dématriçage des données brutes de capteur. C'est ce qui est fait dans les algos d'interpolation fractale.
Dans ce dernier cas ça va encore plus loin: il ne s'agit même plus de perturber les hautes fréquences déjà présentes, mais de les créer de toute pièce. Et quand c'est bien fait le rendu est assez bluffant (voir le soft bien connu "Genuine Fractals" par exemple)
J'ai donné ma définition de la netteté -définition que beaucoup de gens partagent-, basée sur la mesure d'acutance. Cette mesure peut être faite sur n'importe quelle image et est donc universelle.
Je le refais, puisque, apparemment, tu l'as raté la première fois : cette mesure est pertinente pour mesurer des flous pseudo-gaussiens introduits par des dispositifs optiques. Elle n'est pas pertinente ici.
Question 1 : pourquoi ?
Question 2 : que proposes-tu d'autre comme définition et comme mesure ?
Attends, là tu es en train de me dire que tu serais capable de reconnaître les différentes lettres de l'alphabet simplement à l'intensité du gris d'un gros rectangle qui engloberait tout le caractère ?
Je dis qu'il y a plus d'information disponible pour reconnaître > le caractère. Toi, tu exagères mon affirmation jusqu'à l'absurde ; c'est un artifice rhétorique bien connu, et très malhonnête.
tutut... Le seul truc qui compte est: arrives-tu à reconnaître les lettres dans ces conditions. Si tu n'y arrives pas, c'est que l'information supplémentaire disponible ne sert pas à grand-chose.
Oui, et en pratique on n'y arrive pas, et le cerveau d'en débrouille néanmoins très bien, avec ou sans antialiasing.
Ah, mais là, tu parles de complètement autre chose, tu t'en rends compte ?
La question est depuis le début de représenter des caractères d'imprimerie classiques sur un écran.
Absolument pas. Ca c'est ta marotte personnelle :-)
La question est de représenter des lettres à l'écran de telle sorte que le cerveau fasse le moins d'effort possible pour les identifier et soit le moins possible perturbé par les artefacts inévitables dus à la dicrétisation. Rien d'autre.
Tu as dans ce fil des gens qui disent qu'ils préfèrent un affichage sans antialiasing, donc crénelé, à l'impression de flou générée par l'antialising. C'est leur perception, il n'y a rien à redire à cela, tu n'es pas dans leur tête.
Personnellement ce qui me gêne souvent dans l'antialiasing n'est pas tant le flou, mais plutôt que sur les petits caractères on perçoit des variations d'intensité de gris à l'intérieur même des caractères. Ces variations d'intensité proviennent directement des variations d'épaisseur du trait sur les caractères "réels", mais je trouve ça perturbant.
Je suis moins perturbé par l'affichage crénelé. Même si en pratique je passe de l'un à l'autre sans problème (je n'ai jamais fait l'effort d'aller désactiver l'antialiasing, donc...).
-- pehache
On 10 déc, 18:09, Nicolas George <nicolas$geo...@salle-s.org> wrote:
Je n'ai pas dit que les hautes fréquences étaient parfaitement
préservées, mais que *DES* hautes fréquences étaient toujours
présentes. Et ce sont ces hautes fréquences qui donnent l'impression
de netteté.
Ton raisonnement est complètement bancal : introduire des perturbations qui
n'ont rien à voir avec l'original ne va pas améliorer son rendu.
Ben si justement. Si les perturbations sont introduites à bon escient,
le rendu peut être amélioré.
Et ça n'a d'ailleurs rien de nouveau ou d'exceptionnel. C'est ce qui
est fait courramment dans les appareils numériques lors de l'étape de
dématriçage des données brutes de capteur. C'est ce qui est fait dans
les algos d'interpolation fractale.
Dans ce dernier cas ça va encore plus loin: il ne s'agit même plus de
perturber les hautes fréquences déjà présentes, mais de les créer de
toute pièce. Et quand c'est bien fait le rendu est assez bluffant
(voir le soft bien connu "Genuine Fractals" par exemple)
J'ai donné ma définition de la netteté -définition que
beaucoup de
gens partagent-, basée sur la mesure d'acutance. Cette mesure
peut
être faite sur n'importe quelle image et est donc universelle.
Je le refais, puisque, apparemment, tu l'as raté la première
fois : cette
mesure est pertinente pour mesurer des flous pseudo-gaussiens
introduits par
des dispositifs optiques. Elle n'est pas pertinente ici.
Question 1 : pourquoi ?
Question 2 : que proposes-tu d'autre comme définition et comme
mesure ?
Attends, là tu es en train de me dire que tu serais capable de
reconnaître les différentes lettres de l'alphabet simplement à
l'intensité du gris d'un gros rectangle qui engloberait tout le
caractère ?
Je dis qu'il y a plus d'information disponible pour reconnaître > le
caractère. Toi, tu exagères mon affirmation jusqu'à l'absurde ;
c'est un
artifice rhétorique bien connu, et très malhonnête.
tutut... Le seul truc qui compte est: arrives-tu à reconnaître les
lettres dans ces conditions. Si tu n'y arrives pas, c'est que
l'information supplémentaire disponible ne sert pas à grand-chose.
Oui, et en pratique on n'y arrive pas, et le cerveau d'en
débrouille
néanmoins très bien, avec ou sans antialiasing.
Ah, mais là, tu parles de complètement autre chose, tu t'en
rends compte ?
La question est depuis le début de représenter des caractères
d'imprimerie
classiques sur un écran.
Absolument pas. Ca c'est ta marotte personnelle :-)
La question est de représenter des lettres à l'écran de telle sorte
que le cerveau fasse le moins d'effort possible pour les identifier et
soit le moins possible perturbé par les artefacts inévitables dus à la
dicrétisation. Rien d'autre.
Tu as dans ce fil des gens qui disent qu'ils préfèrent un affichage
sans antialiasing, donc crénelé, à l'impression de flou générée par
l'antialising. C'est leur perception, il n'y a rien à redire à cela,
tu n'es pas dans leur tête.
Personnellement ce qui me gêne souvent dans l'antialiasing n'est pas
tant le flou, mais plutôt que sur les petits caractères on perçoit des
variations d'intensité de gris à l'intérieur même des caractères. Ces
variations d'intensité proviennent directement des variations
d'épaisseur du trait sur les caractères "réels", mais je trouve ça
perturbant.
Je suis moins perturbé par l'affichage crénelé. Même si en pratique je
passe de l'un à l'autre sans problème (je n'ai jamais fait l'effort
d'aller désactiver l'antialiasing, donc...).
Je n'ai pas dit que les hautes fréquences étaient parfaitement préservées, mais que *DES* hautes fréquences étaient toujours présentes. Et ce sont ces hautes fréquences qui donnent l'impression de netteté.
Ton raisonnement est complètement bancal : introduire des perturbations qui n'ont rien à voir avec l'original ne va pas améliorer son rendu.
Ben si justement. Si les perturbations sont introduites à bon escient, le rendu peut être amélioré.
Et ça n'a d'ailleurs rien de nouveau ou d'exceptionnel. C'est ce qui est fait courramment dans les appareils numériques lors de l'étape de dématriçage des données brutes de capteur. C'est ce qui est fait dans les algos d'interpolation fractale.
Dans ce dernier cas ça va encore plus loin: il ne s'agit même plus de perturber les hautes fréquences déjà présentes, mais de les créer de toute pièce. Et quand c'est bien fait le rendu est assez bluffant (voir le soft bien connu "Genuine Fractals" par exemple)
J'ai donné ma définition de la netteté -définition que beaucoup de gens partagent-, basée sur la mesure d'acutance. Cette mesure peut être faite sur n'importe quelle image et est donc universelle.
Je le refais, puisque, apparemment, tu l'as raté la première fois : cette mesure est pertinente pour mesurer des flous pseudo-gaussiens introduits par des dispositifs optiques. Elle n'est pas pertinente ici.
Question 1 : pourquoi ?
Question 2 : que proposes-tu d'autre comme définition et comme mesure ?
Attends, là tu es en train de me dire que tu serais capable de reconnaître les différentes lettres de l'alphabet simplement à l'intensité du gris d'un gros rectangle qui engloberait tout le caractère ?
Je dis qu'il y a plus d'information disponible pour reconnaître > le caractère. Toi, tu exagères mon affirmation jusqu'à l'absurde ; c'est un artifice rhétorique bien connu, et très malhonnête.
tutut... Le seul truc qui compte est: arrives-tu à reconnaître les lettres dans ces conditions. Si tu n'y arrives pas, c'est que l'information supplémentaire disponible ne sert pas à grand-chose.
Oui, et en pratique on n'y arrive pas, et le cerveau d'en débrouille néanmoins très bien, avec ou sans antialiasing.
Ah, mais là, tu parles de complètement autre chose, tu t'en rends compte ?
La question est depuis le début de représenter des caractères d'imprimerie classiques sur un écran.
Absolument pas. Ca c'est ta marotte personnelle :-)
La question est de représenter des lettres à l'écran de telle sorte que le cerveau fasse le moins d'effort possible pour les identifier et soit le moins possible perturbé par les artefacts inévitables dus à la dicrétisation. Rien d'autre.
Tu as dans ce fil des gens qui disent qu'ils préfèrent un affichage sans antialiasing, donc crénelé, à l'impression de flou générée par l'antialising. C'est leur perception, il n'y a rien à redire à cela, tu n'es pas dans leur tête.
Personnellement ce qui me gêne souvent dans l'antialiasing n'est pas tant le flou, mais plutôt que sur les petits caractères on perçoit des variations d'intensité de gris à l'intérieur même des caractères. Ces variations d'intensité proviennent directement des variations d'épaisseur du trait sur les caractères "réels", mais je trouve ça perturbant.
Je suis moins perturbé par l'affichage crénelé. Même si en pratique je passe de l'un à l'autre sans problème (je n'ai jamais fait l'effort d'aller désactiver l'antialiasing, donc...).
-- pehache
pehache-tolai
On 10 déc, 18:12, Nicolas George <nicolas$ wrote:
Et tes sarcasmes débiles n'apportent pas grand chose, je t'invite à t'abstenir à l'avenir.
Sinon quoi ?
-- pehache
On 10 déc, 18:12, Nicolas George <nicolas$geo...@salle-s.org> wrote:
Et tes sarcasmes débiles n'apportent pas grand chose, je
t'invite à
t'abstenir à l'avenir.