OVH Cloud OVH Cloud

Resolution, fréquence...

6 réponses
Avatar
Maxence
Coucou !

J'ai un super bel écran LCD avec une resolution de 1280 par 1024, et pour
cette résolution, 3 fréquences, 60 70 ou 75 hertz...

A quoi cela correspond, ça donne quoi exactement comme difference ?
Parce que bon j'ai bien essayé les 3 mais je vois pas grand chose comme
différence moi...

Mici !

--

Maxence
www.cochonouille.free.fr
www.F1-2000.com

6 réponses

Avatar
Maxtor
Maxence wrote:
Coucou !

J'ai un super bel écran LCD avec une resolution de 1280 par 1024, et
pour cette résolution, 3 fréquences, 60 70 ou 75 hertz...

A quoi cela correspond, ça donne quoi exactement comme difference ?
Parce que bon j'ai bien essayé les 3 mais je vois pas grand chose
comme différence moi...



Sur une dalle LCD, utiliser de préférence 60Hz.
Ce paramètre prend toute son importance sur un écran à tube, puisqu'il
détermine alors la fréquence physique de balayage vertical, une fréquence
minimale de 72 Hz garantissant un affichage sans scintillement.
Sur un écran à tube ou CRT, une fréquence de 60Hz fait *vraiment*scintiller
l'image.
La technologie LCD s'affranchit de ce Pb.
Les fréquences supérieures sont ici un peu pipeau markétoïde.

C'est pour ça que tu ne vois pas de différence...

Avatar
Le Gaulois

J'ai un super bel écran LCD avec une resolution de 1280 par 1024, et
pour cette résolution, 3 fréquences, 60 70 ou 75 hertz...


Les fréquences supérieures sont ici un peu pipeau markétoïde.


AMHA c'est plutôt pour la compatibilité avec les cartes graphiques
et logiciels qui seraient "optimisés pour les écrans CRT"


Avatar
Maxtor
Le Gaulois wrote:

AMHA c'est plutôt pour la compatibilité avec les cartes graphiques
et logiciels qui seraient "optimisés pour les écrans CRT"


Toutes les cartes graphiques du marché sont capables d'afficher du 60Hz,
notamment sans pilote installé :-)

Sur les fiches techniques des LCD, on y voit bien une fréquence *maximum* de
75 Hz la plupart du temps.
Et non conseillée...

Cela dit les cartes graphiques milieu et haut de gamme sont maintenant
polyvalentes puisque munies majoritairement d'une sortie DVI.
Permettant de s'affranchir ainsi d'un étage de conversion A/N du signal.

Avatar
Norbert


Cela dit les cartes graphiques milieu et haut de gamme sont maintenant
polyvalentes puisque munies majoritairement d'une sortie DVI.
Permettant de s'affranchir ainsi d'un étage de conversion A/N du
signal.


Est-ce que le fait d'utiliser la sortie DVI de la carte graphique
améliore vraiment l'affichage sur un écran LCD, ou est-ce que la
différence est minime ?
En d'autres termes, est-ce que ça vaut le coup d'acheter un cable DVI ?

--
à bientot (enlever les X pour me répondre)
==================================== les secrets de l'univers http://nrumiano.free.fr
un atlas de l'univers http://atunivers.free.fr
images du ciel http://images.ciel.free.fr
=====================================

Avatar
Le Gaulois

Le Gaulois wrote:

AMHA c'est plutôt pour la compatibilité avec les cartes graphiques
et logiciels qui seraient "optimisés pour les écrans CRT"


Toutes les cartes graphiques du marché sont capables d'afficher du 60Hz,
notamment sans pilote installé :-)


Toutes les cartes VGA oui, il n'y a pas eu que des cartes VGA.
Il y a eu d'autres standards TiGA, Plantronics ...
et il y a aussi d'autres ordinateurs que les PC avec d'autres
standards video.
Un PC avec une carte VGA, lorsqu'il démarre, l'écran noir tout
au début est en 640x400 70 Hz. Lorsque Windows démarre avec le pilote
VGA standard, c'est effectivement en 640x480 60 Hz.
Si on boote sur un CD Knoppix sans préciser des paramètres au démarrage,
on est en 1024x768 avec plein de Hz.

Sur les fiches techniques des LCD, on y voit bien une fréquence *maximum* de
75 Hz la plupart du temps.
Et non conseillée...

Cela dit les cartes graphiques milieu et haut de gamme sont maintenant
polyvalentes puisque munies majoritairement d'une sortie DVI.
Permettant de s'affranchir ainsi d'un étage de conversion A/N du signal.


Sauf que les écrans LCD bas et milieu de gamme d'ont pas d'entrée DVI.


Avatar
Atila
Cela dit les cartes graphiques milieu et haut de gamme sont maintenant
polyvalentes puisque munies majoritairement d'une sortie DVI.
Permettant de s'affranchir ainsi d'un étage de conversion A/N du
signal.


Est-ce que le fait d'utiliser la sortie DVI de la carte graphique
améliore vraiment l'affichage sur un écran LCD, ou est-ce que la
différence est minime ?
En d'autres termes, est-ce que ça vaut le coup d'acheter un cable DVI ?


Si tu fais beaucoup de bureautique, oui ca vaut la peine. Les polices seront
plus nettes.
Idem pour les logiciels de DAO
Pour la Photo et la vidéo, c'est beaucoup moins perceptible.
Michel