OVH Cloud OVH Cloud

Affichage flou

178 réponses
Avatar
jc
Bonjour,

J'étais intéressé par Linux mais je constate avec regret que l'affichage
de l'interface graphique KDE est affligée de la même tare que MacOS X :
l'affichage des caractères n'est pas net.
Existe-t-il un moyen d'avoir un affichage net ? Sinon je n'installerai
pas Linux, n'ayant pas envie de me fatiguer les yeux inutilement.

--
JC

10 réponses

Avatar
Emmanuel Florac
Le Sat, 08 Dec 2007 22:38:56 +0000, Michel Talon a écrit :


http://www.antigrain.com/research/font_rasterization/index.html


Merci :)

--
A travers l'audimat, c'est la logique du commercial qui s'impose aux
productions culturelles. Or, il est important de savoir que,
historiquement, toutes les productions culturelles que je considère, -
et je ne suis pas le seul, j'espère -, qu'un certain nombre de gens
considèrent comme les productions les plus hautes de l'humanité, les
mathématiques, la poésie, la littérature, la philosophie, toutes ces
choses ont été produites contre l'équivalent de l'audimat, contre la
logique du commerce.
Pierre Bourdieu, "Sur la télévision". Raison d'Agir Editions, décembre
1996

Avatar
pehache-tolai
"Emmanuel Florac" a écrit dans le message de
news:


Ça, vous l'aurez quand les écrans seront à 300 dpi et que l'oeil ne
verra plus les escaliers car ils seront trop petits.


C'est précisément parce que l'OS dominant (windows) a un modèle de
rendu complètement pourrave qu'on n'a pas d'écrans de 300 DPI.


Même en admettant le fait que Windows a un rendu pourrave, j'ai du mal à
suivre les étapes de ce raisonnement.

Par ailleurs depuis le début de cette discussion j'ai essayé de comparer un
peu le rendu des caractères sur Win et sur Linux, et je ne vois rien de
notablement pourrave dans Windows. Les rendus sont différents, certes, mais
si je devais choisir je ne serais pas loin de préférer celui de Windows.

--
pehache
http://pehache.free.fr/public.html


Avatar
Nicolas George
pehache-tolai , dans le message
, a
écrit :
L'antialiasing consiste essentiellement à virer les hautes fréquences
avant l'affichage, donc à convoluer par une fonction à bande limitée.


Non, on ne convolue rien du tout. L'anti-aliasing est fait à partir du
dessin vectoriel du caractère.

Avatar
pehache-tolai
"Nicolas George" <nicolas$ a écrit dans le message
de news: fjmr2u$5qm$
pehache-tolai , dans le message
, a
L'antialiasing consiste essentiellement à virer les hautes fréquences
avant l'affichage, donc à convoluer par une fonction à bande limitée.


Non, on ne convolue rien du tout. L'anti-aliasing est fait à partir du
dessin vectoriel du caractère.


Arrête de chipoter et de tortiller du cul. Quelle que soit la manière dont
il est fait en pratique, ce qui derrière ce processus est implicitement (et
toujours) une convolution, et tu le sais très bien (du moins j'espère).

Donc il n'y a aucune différence de nature entre un flou dit "optique" et le
flou d'antialiasing.

Donc la mesure d'acutance s'applique à ce type de flou.

Donc on se retrouve avec deux méthodes complètement différentes, et pour
tout dire n'ayant strictement rien à voir, d'évaluation de la netteté: la
mesure d'acutance, et ta méthode à toi-tout-seul de "netteté-fidélité".

Donc c'est pas sérieux. Donc tu racontes n'importe quoi.

CQFD

--
pehache
http://pehache.free.fr/public.html


Avatar
Nicolas George
"pehache-tolai" , dans le message ,
a écrit :
Arrête de chipoter et de tortiller du cul. Quelle que soit la manière dont
il est fait en pratique, ce qui derrière ce processus est implicitement (et
toujours) une convolution, et tu le sais très bien (du moins j'espère).


Non, ce n'est pas une convolution. Le rendu anti-aliasé contient strictement
plus d'information que le rendu pixelisé, il ne peut pas s'en déduire par
une quelconque opération.

Donc la mesure d'acutance s'applique à ce type de flou.


Une remarque au passage : cette notion s'applique quand on ne dispose que de
l'image cible, et pas d'une source idéale de référence. C'est pourquoi on
doit se contenter de cette notion imparfaite (qui, en particulier, repose
sur des hypothèses plus ou moins douteuses sur l'image idéale). Ce n'est pas
le cas ici : on a une image de référence, le dessin vectoriel du glyphe.

Avatar
Blaise Potard
Le Tue, 11 Dec 2007 18:48:56 +0100, Nina Popravka a écrit:

On Tue, 11 Dec 2007 15:37:50 +0100, Côme Desplats <invalid> wrote:

Ca donne ça sur une Debian :
http://img45.imageshack.us/img45/5552/aucunlissagebr6.png


Et c'est imho insupportable sur un écran.


'Comprends pas. Depuis le début, tu dis ne pas supporter l'anti-aliasing,
et quand on le désactives tu ne supportes pas non plus ?! En fait tu ne
supportes pas de lire à l'écran, c'est ça ? :)

Ceci étant, je suis d'accord avec ta réponse. C'est extrêmement moche
sans antialiasing.

Mais bon c'est une question de
culture. J'ai une vraie culture typographique papier, ces ersatz ne font
hurler de rire, je ne m'en sers pas.


Tu parles de quoi, là ?


Avatar
pehache-tolai
"Nicolas George" <nicolas$ a écrit dans le message
de news: fjn2o1$1os5$
"pehache-tolai" , dans le message
,
Arrête de chipoter et de tortiller du cul. Quelle que soit la
manière dont il est fait en pratique, ce qui derrière ce processus
est implicitement (et toujours) une convolution, et tu le sais très
bien (du moins j'espère).


Non, ce n'est pas une convolution.


Si, bien évidemment.

Le rendu anti-aliasé contient
strictement plus d'information que le rendu pixelisé, il ne peut pas
s'en déduire par une quelconque opération.


J'ai dit que le rendu antialiasé était obtenu à partir du rendu pixélisé ?
Non, pas une seule fois. La convolution s'applique à l'image théorique non
discrétisée, contenant le caractère décrit vectoriellement.

Prenons une forme simple d'antialising (en pratique je "suspecte" que cette
forme est la plus courrament utilisée): sur la surface d'un pixel donné, on
calcule à partir du dessin vectoriel la surfaces relative occupée par le
blanc (le reste étant noir), et on attribue à ce pixel un niveau de gris
égal à cette proportion de blanc.

Cela correspond *très exactement* à la convolution de l'image théorique
continue par une fonction "box-car" dont le "créneau" fait la taille du
pixel, puis à l'échantillonnage du résultat de la convolution au niveau des
centres des pixels.

Il existe certainement des formes plus élaborée d'antialiasing, mais je suis
à peu près certain qu'ils sont toujours basés sur une convolution.

Donc la mesure d'acutance s'applique à ce type de flou.


Une remarque au passage : cette notion s'applique quand on ne dispose
que de l'image cible, et pas d'une source idéale de référence.


Oui, mais pas tout à fait quand même. Il y a une référence implicite, on
suppose qu'au départ il y a une transition noir/blanc parfaite à l'endroit
où on fait la mesure (et l'accutance est infinie si la transition est restée
parfaite).

C'est
pourquoi on doit se contenter de cette notion imparfaite


Je ne sais pas si elle est imparfaite, mais ce sont des mesures de ce type
qui sont utilisées par les autofocus des APN non reflex. Et ma foi ils
arrivent à faire la mise au point, il me semble.

(qui, en
particulier, repose sur des hypothèses plus ou moins douteuses sur
l'image idéale).


Ce que l'on peut dire c'est que l'image "idéale" n'est pas *forcément*
toujours l'image où l'acutance est la plus élevée. Là encore tout dépend du
type d'image, et de la perception de chacun.

Mais l'acutance est néanmoins une mesure objective.

Ce n'est pas le cas ici : on a une image de
référence, le dessin vectoriel du glyphe.


Oui, et tu mesures la fidélité à cette image de référence, pas la netteté.



Bon, je reprends donc:

Donc il n'y a aucune différence de nature entre un flou dit "optique" et le
flou d'antialiasing.

Donc la mesure d'acutance s'applique à ce type de flou.

Donc on se retrouve avec deux méthodes complètement différentes, et pour
tout dire n'ayant strictement rien à voir, d'évaluation de la netteté: la
mesure d'acutance, et ta méthode à toi-tout-seul de "netteté-fidélité".

Donc c'est pas sérieux.

CQFD

--
pehache
http://pehache.free.fr/public.html


Avatar
Nicolas George
"pehache-tolai" , dans le message ,
a écrit :
Si, bien évidemment.


Le répéter ne le rendra pas plus juste.

Cela correspond *très exactement* à la convolution de l'image théorique
continue par une fonction "box-car" dont le "créneau" fait la taille du
pixel, puis à l'échantillonnage du résultat de la convolution au niveau des
centres des pixels.


L'étape importante du processus, c'est l'échantillonnage, pas la convolution
que tu mets avant, qui n'est qu'un moyen parmi beaucoup de modéliser le
calcul.

Je ne sais pas si elle est imparfaite, mais ce sont des mesures de ce type
qui sont utilisées par les autofocus des APN non reflex.


Es-tu conscient que cette discussion n'as strictement rien à fiche des
appareils photos et des outils qu'ils utilisent pour calculer leur mise au
point ?

(qui, en
particulier, repose sur des hypothèses plus ou moins douteuses sur
l'image idéale).
Ce que l'on peut dire c'est que l'image "idéale" n'est pas *forcément*

toujours l'image où l'acutance est la plus élevée.


Ce n'est pas ça que j'ai énoncé.

Oui, et tu mesures la fidélité à cette image de référence, pas la netteté.


Parce que ta mesure de netteté n'est pas pertinente ici, justement.

Donc il n'y a aucune différence de nature entre un flou dit "optique" et le
flou d'antialiasing.


C'est faux.


Avatar
pehache-tolai
"Nicolas George" <nicolas$ a écrit dans le message
de news: fjn9je$316g$

Si, bien évidemment.


Le répéter ne le rendra pas plus juste.


Au cas où cela t'aurait échappé, je l'ai également expliqué.


Cela correspond *très exactement* à la convolution de l'image
théorique continue par une fonction "box-car" dont le "créneau" fait
la taille du pixel, puis à l'échantillonnage du résultat de la
convolution au niveau des centres des pixels.


L'étape importante du processus, c'est l'échantillonnage, pas la
convolution que tu mets avant,


Ah, tu reconnais qu'il y a une convolution, maintenant ? C'est bien, parce
qu'il y 2 heures, tu disais "Non, ce n'est pas une convolution."

Si on ne fait que l'échantillonnage et lui seul, on obtient un rendu
pixélisé sans antialiasing.

Donc si il y a *un* seul truc qui est important dans le rendu antialiasing,
c'est bien la convolution.

Parfois j'ai des doutes: tu es censé être normalien, si je me souviens bien,
non ?

qui n'est qu'un moyen parmi beaucoup
de modéliser le calcul.


??????

Fais gaffe, il y a des morceaux de Steevy dans ton post...

Je ne sais pas si elle est imparfaite, mais ce sont des mesures de
ce type qui sont utilisées par les autofocus des APN non reflex.


Es-tu conscient que cette discussion n'as strictement rien à fiche des
appareils photos et des outils qu'ils utilisent pour calculer leur
mise au point ?


"Cette discussion" n'a pas d'état d'âme de ce genre.

Mais disons qu'une "mesure imparfaite" qui est si largement utilisée ne doit
pas être si imparfaite que ça, c'est tout.


(qui, en
particulier, repose sur des hypothèses plus ou moins douteuses sur
l'image idéale).
Ce que l'on peut dire c'est que l'image "idéale" n'est pas

*forcément* toujours l'image où l'acutance est la plus élevée.


Ce n'est pas ça que j'ai énoncé.


soupir....



Oui, et tu mesures la fidélité à cette image de référence, pas la
netteté.


Parce que ta mesure de netteté n'est pas pertinente ici, justement.


Elle l'est.

Et quand bien même elle ne le serait pas, croire s'en tirer en allant
mesurer tout autre chose (la fidélité à la place de la netteté) est assez
tordu.

Donc il n'y a aucune différence de nature entre un flou dit
"optique" et le flou d'antialiasing.


C'est faux.


Tu disais quoi, déjà ? Ah oui : "Le répéter ne le rendra pas plus juste.".
Par contre peux-tu expliquer pourquoi c'est faux ?

Mais je ne désespère pas. En 2 heures tu as admis la convolution dans le
flou d'antialiasing (tiens, comme dans dans le flou optique, dis donc!).
Donc j'ai bon espoir que dans 2 heures tu admettes la nature similaire des
deux flous. Cela dit je vais aller me pieuter, hein, on verra demain.


Mais avant je reprends:

L'élement essentiel aussi bien dans un flou optique aussi bien que dans un
flou d'antialiasing est une convolution.

Donc il n'y a aucune différence de nature entre un flou dit "optique" et le
flou d'antialiasing.

Donc la mesure d'acutance s'applique à ce type de flou.

Donc on se retrouve avec deux méthodes complètement différentes, et pour
tout dire n'ayant strictement rien à voir, d'évaluation de la netteté: la
mesure d'acutance, et ta méthode à toi-tout-seul de "netteté-fidélité".

Donc c'est pas sérieux.

CQFD

--
pehache
http://pehache.free.fr/public.html



Avatar
Nicolas George
"pehache-tolai" , dans le message ,
a écrit :
Au cas où cela t'aurait échappé, je l'ai également expliqué.


Pas vraiment, non.

Ah, tu reconnais qu'il y a une convolution, maintenant ?


Tu ne sais pas lire ? J'ai écrit :

qui n'est qu'un moyen parmi beaucoup
de modéliser le calcul.



Le calcul peut se décrire comme la composition d'une convolution et d'une
quantification. Mais il peut aussi se modéliser par la composition de
beaucoup d'autres choses et d'une quantification. Après l'étape de la
quantification, il reste tellement peu du signal original que tabler sur des
propriétés de l'étape précédente est totalement vide de sens.

Mais disons qu'une "mesure imparfaite" qui est si largement utilisée ne doit
pas être si imparfaite que ça, c'est tout.


Alors je te suggère de mesurer la netteté de tes photos avec une balance
Roberval. Ça ne sert pas du tout à ça, mais c'est encore plus largement
utilisé.

Elle l'est.


Pas pour un flou de quantification.

Et quand bien même elle ne le serait pas, croire s'en tirer en allant
mesurer tout autre chose (la fidélité à la place de la netteté) est assez
tordu.


Je te le refais en plus simple : on mesure ta chère acutance parce qu'on ne
dispose pas du nécessaire pour mesurer la fidélité. Pour mesurer la
fidélité, il faut un original parfait, mais si on avait un original parfait,
on le prendrait lui, plutôt que de s'embêter avec une copie. Mais comme on
ne l'a pas, on fait des hypothèses sur son contenu (l'existence de zones de
transition très rapide) et sur les perturbations dignes d'êtres mesurées (un
flou pseudo-gaussien), et on se débrouille avec.

Dans le cas du flou de quantification sur le rendu d'un caractère vectoriel,
deux de ces trois hypothèses ne tiennent pas : l'original parfait est
accessible pour faire des calculs, et les perturbations ne sont pas
pseudo-gaussiennes.

Tu disais quoi, déjà ? Ah oui : "Le répéter ne le rendra pas plus juste.".
Par contre peux-tu expliquer pourquoi c'est faux ?


Premier paragraphe de mon message précédent, et premier paragraphe du
message courant. Qui disent essentiellement la même chose, d'une manière
légèrement différente, des fois que tu finisse par comprendre.

Mais avant je reprends:


Tu répètes, c'est toujours aussi faux.