Juste pour dire qu'il y en a marre de cette tendance à faire des applis
de plus en plus lourdes sous prétexte que les machines deviennent de
plus en plus puissante ; je n'ai pas envie de changer de bécane tous les
36 matins !
Que ce soit Mozilla, Eclispe, GNOME, KDE, et autres.
Les développeurs ont tendance à maximiser la structuration (modulariser)
de leurs applis afin de faciliter de mieux en mieux l'écriture,
l'évolution, la maintenance et la portabilité de ces derniers, mais ceci
au grand détriment des utilisateurs que nous sommes : elles deviennent
de plus en plus lourdes (gourmandes en ressources).
Oh, bien sûr je n'ai qu'à utiliser des outils plus alléger (qd il y en
a). Ouais, mais si justement ce sont ceux là qui me conviennent plus,
dois je pour autant en pâtir de leur lourdeur ? Et qd par cette tendance
de schizophréne on n'aura plus que des gros lourdaud, je n'aurais plus
qu'à m'acheter chaque année un nouveau PC ? Super comme avenir !
Ouaip, si OS/2 avait intégré un joli Solitaire au lieu du Mahjong, les Luc2 défendrait bec et ongles IBM aujourd'hui.
OS/2 2.x avait un très bon Klondike solitaire, et ça n'a pas suffit.
Etait il assez beau ? Le defillement des cartes quand la partie est gagnée était il fluide ?
Il était raisonnablement beau (les goûts, les couleurs), mais n'avait pas l'animation de la cascade de carte à la fin de la partie.
Ni le soleil qui faisait un clin d'oeil au dos des cartes...
Thierry Boudet
On 2004-09-01, nicolas vigier wrote:
C'est bizarre, je suis en train de m'équiper en NES, et mes gamerz de gosses en sont enchantés. Tout comme ils s'éclatent depuis deux heures sur frozen-bubble sur un P-266...
Par contre pour les vieux jeux sous DOS, certains ont du mal avec DOSBOX sur mon Celeron 600 :/
D'après les rumeurs, un FreeDOS dans QEMU donne de bons résultats.
-- _/°< coin
On 2004-09-01, nicolas vigier <boklm@mars-attacks.org> wrote:
C'est bizarre, je suis en train de m'équiper en NES, et mes gamerz de
gosses en sont enchantés. Tout comme ils s'éclatent depuis deux
heures sur frozen-bubble sur un P-266...
Par contre pour les vieux jeux sous DOS, certains ont du mal avec DOSBOX
sur mon Celeron 600 :/
D'après les rumeurs, un FreeDOS dans QEMU donne de bons résultats.
C'est bizarre, je suis en train de m'équiper en NES, et mes gamerz de gosses en sont enchantés. Tout comme ils s'éclatent depuis deux heures sur frozen-bubble sur un P-266...
Par contre pour les vieux jeux sous DOS, certains ont du mal avec DOSBOX sur mon Celeron 600 :/
D'après les rumeurs, un FreeDOS dans QEMU donne de bons résultats.
-- _/°< coin
Nicolas George
nicolas vigier , dans le message , a écrit :
Par contre pour les vieux jeux sous DOS, certains ont du mal avec DOSBOX sur mon Celeron 600 :/
Tu connais ScummVM ? Ça ne fait pas tous les jeux, mais ça fait une grande partie des meilleurs.
nicolas vigier , dans le message
<slrncjbo2l.322.boklm@invaders.mars-attacks.org>, a écrit :
Par contre pour les vieux jeux sous DOS, certains ont du mal avec DOSBOX
sur mon Celeron 600 :/
Tu connais ScummVM ? Ça ne fait pas tous les jeux, mais ça fait une
grande partie des meilleurs.
Par contre pour les vieux jeux sous DOS, certains ont du mal avec DOSBOX sur mon Celeron 600 :/
Tu connais ScummVM ? Ça ne fait pas tous les jeux, mais ça fait une grande partie des meilleurs.
Olivier Beyssac
Nicolas George <nicolas$ writes:
Tu connais ScummVM ? Ça ne fait pas tous les jeux, mais ça fait une grande partie des meilleurs.
C'est même terrifiant de voir à quel point ça marche bien (j'ai refait récemment tout « Day of the Tentacle » sous ScummVM). Et il y a même des options très convaincantes de lissage si jamais on n'aime pas les bitmaps en 320*200 d'époque.
-- Olivier Beyssac -
Nicolas George <nicolas$george@salle-s.org> writes:
Tu connais ScummVM ? Ça ne fait pas tous les jeux, mais ça fait une
grande partie des meilleurs.
C'est même terrifiant de voir à quel point ça marche bien (j'ai refait
récemment tout « Day of the Tentacle » sous ScummVM). Et il y a même des
options très convaincantes de lissage si jamais on n'aime pas les
bitmaps en 320*200 d'époque.
Tu connais ScummVM ? Ça ne fait pas tous les jeux, mais ça fait une grande partie des meilleurs.
C'est même terrifiant de voir à quel point ça marche bien (j'ai refait récemment tout « Day of the Tentacle » sous ScummVM). Et il y a même des options très convaincantes de lissage si jamais on n'aime pas les bitmaps en 320*200 d'époque.
-- Olivier Beyssac -
Nicolas George
"Manuel Leclerc" , dans le message , a écrit :
Je ne comprends pas ce que tu dis. Comment fait-on sous Linux/x11 pour passer de 1024*768 à 1152*864 (par exemple) de manière à avoir un peu plus de place disponible dans les applications (les objets graphiques et les caractères étant alors dessinés avec le même nombre de pixel dans les deux cas) ?
Mais, scrogneugneu, tu ne peux pas avoir plus de place sans changer l'écran : c'est bien dommage, mais on n'a pas encore conçu d'écran qui s'agrandissent par simple changement dans un fichier de config ou sur une interface graphique.
Ce dont tu parles, je suppose, ce n'est pas d'avoir plus de place pour des objets de taille constante, mais des objets plus petits pour une place forcément constante.
La manièr de le faire dépend des environnements et des outils. Pour Mozilla, par exemple, on ouvre les préférences, dans l'onglet apparence, et on choisit une taille de police plus petite, tout simplement. Pour ce qui utilise Gtk+, on édite ~/.gtkrc-2.0, et on change la valeur qu'il y a sur « font_name = "Helvetica 9" ».
Et tout ceci est absolument indépendant de la résolution choisie.
Si je dessine un objet graphique en spécifiant "50 pixels" à l'API, je ne vois pas très bien quel genre de conversion à la volée est possible. Comment cette API sait-elle au Run-Time quelle était mon intention (si ce n'est 50 pixels, justement) ?
Tu n'aurais pas dû spécifier « 50 pixels » à la base, sauf si ton objet fait intrinsèquement 50 pixels, dans le cas d'une image bitmap par exemple.
Les bibliothèques graphiques modernes adaptent automatiquement la taille des objets à leur contenu, qui est le plus souvent du texte, donc dont on peut calculer la taille en fonction de la taille de corps de la police.
C'est possible, mais que changer la résolution ne provoque aucun changement dans ce qui est affiché,
Tu te trompes : le fond d'écran, s'il est en mode « étiré », est, justement, étiré à la nouvelle taille de l'écran. Eh bien imagine que tout subisse le même traitement.
si ce n'est que plus ou moins de pixel sont utilisés pour dessiner la même chose me paraît être d'un intérêt très limité. C'est l'inverse qui est utile.*
Plus de pixels pour dessiner la même chose, c'est utile parce que ça rend moins visible la pixellisation. L'usage raisonnable d'un écran, c'est de le monter à la résolution la plus élevée qu'il supporte (à la fréquence de balayage exigée si ça veut dire quelque chose) et de ne pas y toucher.
Quant à l'intérêt qu'une police 12 points fasse effectivement cette taille si on plaque une règle sur l'écran : bof.
Bien sûr, c'est relativement peu utile en soi. En revanche, ce qui est important, c'est que ce soit la taille physique qui soit mesurée, car tes yeux myopes, c'est ça qu'ils voient : tu sais que tu as besoin de caractères de 5 mm (14 points) pour lire confortablement.
Ansi, arrivant devant un ordinateur que tu ne connais pas, mais supposé correctement configuré, tu n'as pas besoin de tâtonner ou de te livrer à des calculs compliqués pour choisir la taille des polices : tu prends du 14 points, et tu y vois bien.
Or dès lors que c'est une taille dans le monde physique qui est importante, autant prendre une unité de longueur qui existe plutôt que d'en inventer une de toutes pièces.
En 1024*768, en 100%, ma page A4 occupe 24,5 cm de large sur l'écran :-)
Mas ton écran est incorrectement réglé à 96 dpi au lieu de 82, nous l'avons vu. Faisons un bref calcul :
24.5*82/96 20.92708333333333333333
CQFD.
"Manuel Leclerc" , dans le message <4135df59@neottia.net>, a écrit :
Je ne comprends pas ce que tu dis. Comment fait-on sous Linux/x11 pour
passer de 1024*768 à 1152*864 (par exemple) de manière à avoir un peu
plus de place disponible dans les applications (les objets graphiques
et les caractères étant alors dessinés avec le même nombre de pixel dans
les deux cas) ?
Mais, scrogneugneu, tu ne peux pas avoir plus de place sans changer
l'écran : c'est bien dommage, mais on n'a pas encore conçu d'écran qui
s'agrandissent par simple changement dans un fichier de config ou sur
une interface graphique.
Ce dont tu parles, je suppose, ce n'est pas d'avoir plus de place pour
des objets de taille constante, mais des objets plus petits pour une
place forcément constante.
La manièr de le faire dépend des environnements et des outils. Pour
Mozilla, par exemple, on ouvre les préférences, dans l'onglet apparence,
et on choisit une taille de police plus petite, tout simplement. Pour ce
qui utilise Gtk+, on édite ~/.gtkrc-2.0, et on change la valeur qu'il y
a sur « font_name = "Helvetica 9" ».
Et tout ceci est absolument indépendant de la résolution choisie.
Si je dessine un objet graphique en spécifiant "50 pixels" à l'API, je ne
vois pas très bien quel genre de conversion à la volée est possible. Comment
cette API sait-elle au Run-Time quelle était mon intention (si ce n'est
50 pixels, justement) ?
Tu n'aurais pas dû spécifier « 50 pixels » à la base, sauf si ton objet
fait intrinsèquement 50 pixels, dans le cas d'une image bitmap par
exemple.
Les bibliothèques graphiques modernes adaptent automatiquement la taille
des objets à leur contenu, qui est le plus souvent du texte, donc dont
on peut calculer la taille en fonction de la taille de corps de la
police.
C'est possible, mais que changer la résolution ne provoque aucun
changement dans ce qui est affiché,
Tu te trompes : le fond d'écran, s'il est en mode « étiré », est,
justement, étiré à la nouvelle taille de l'écran. Eh bien imagine que
tout subisse le même traitement.
si ce n'est que plus ou moins
de pixel sont utilisés pour dessiner la même chose me paraît
être d'un intérêt très limité. C'est l'inverse qui est utile.*
Plus de pixels pour dessiner la même chose, c'est utile parce que ça
rend moins visible la pixellisation. L'usage raisonnable d'un écran,
c'est de le monter à la résolution la plus élevée qu'il supporte (à la
fréquence de balayage exigée si ça veut dire quelque chose) et de ne pas
y toucher.
Quant à l'intérêt qu'une police 12 points fasse effectivement
cette taille si on plaque une règle sur l'écran : bof.
Bien sûr, c'est relativement peu utile en soi. En revanche, ce qui est
important, c'est que ce soit la taille physique qui soit mesurée, car
tes yeux myopes, c'est ça qu'ils voient : tu sais que tu as besoin de
caractères de 5 mm (14 points) pour lire confortablement.
Ansi, arrivant devant un ordinateur que tu ne connais pas, mais supposé
correctement configuré, tu n'as pas besoin de tâtonner ou de te livrer à
des calculs compliqués pour choisir la taille des polices : tu prends du
14 points, et tu y vois bien.
Or dès lors que c'est une taille dans le monde physique qui est
importante, autant prendre une unité de longueur qui existe plutôt que
d'en inventer une de toutes pièces.
En 1024*768, en 100%, ma page A4 occupe 24,5 cm de large sur l'écran :-)
Mas ton écran est incorrectement réglé à 96 dpi au lieu de 82, nous
l'avons vu. Faisons un bref calcul :
Je ne comprends pas ce que tu dis. Comment fait-on sous Linux/x11 pour passer de 1024*768 à 1152*864 (par exemple) de manière à avoir un peu plus de place disponible dans les applications (les objets graphiques et les caractères étant alors dessinés avec le même nombre de pixel dans les deux cas) ?
Mais, scrogneugneu, tu ne peux pas avoir plus de place sans changer l'écran : c'est bien dommage, mais on n'a pas encore conçu d'écran qui s'agrandissent par simple changement dans un fichier de config ou sur une interface graphique.
Ce dont tu parles, je suppose, ce n'est pas d'avoir plus de place pour des objets de taille constante, mais des objets plus petits pour une place forcément constante.
La manièr de le faire dépend des environnements et des outils. Pour Mozilla, par exemple, on ouvre les préférences, dans l'onglet apparence, et on choisit une taille de police plus petite, tout simplement. Pour ce qui utilise Gtk+, on édite ~/.gtkrc-2.0, et on change la valeur qu'il y a sur « font_name = "Helvetica 9" ».
Et tout ceci est absolument indépendant de la résolution choisie.
Si je dessine un objet graphique en spécifiant "50 pixels" à l'API, je ne vois pas très bien quel genre de conversion à la volée est possible. Comment cette API sait-elle au Run-Time quelle était mon intention (si ce n'est 50 pixels, justement) ?
Tu n'aurais pas dû spécifier « 50 pixels » à la base, sauf si ton objet fait intrinsèquement 50 pixels, dans le cas d'une image bitmap par exemple.
Les bibliothèques graphiques modernes adaptent automatiquement la taille des objets à leur contenu, qui est le plus souvent du texte, donc dont on peut calculer la taille en fonction de la taille de corps de la police.
C'est possible, mais que changer la résolution ne provoque aucun changement dans ce qui est affiché,
Tu te trompes : le fond d'écran, s'il est en mode « étiré », est, justement, étiré à la nouvelle taille de l'écran. Eh bien imagine que tout subisse le même traitement.
si ce n'est que plus ou moins de pixel sont utilisés pour dessiner la même chose me paraît être d'un intérêt très limité. C'est l'inverse qui est utile.*
Plus de pixels pour dessiner la même chose, c'est utile parce que ça rend moins visible la pixellisation. L'usage raisonnable d'un écran, c'est de le monter à la résolution la plus élevée qu'il supporte (à la fréquence de balayage exigée si ça veut dire quelque chose) et de ne pas y toucher.
Quant à l'intérêt qu'une police 12 points fasse effectivement cette taille si on plaque une règle sur l'écran : bof.
Bien sûr, c'est relativement peu utile en soi. En revanche, ce qui est important, c'est que ce soit la taille physique qui soit mesurée, car tes yeux myopes, c'est ça qu'ils voient : tu sais que tu as besoin de caractères de 5 mm (14 points) pour lire confortablement.
Ansi, arrivant devant un ordinateur que tu ne connais pas, mais supposé correctement configuré, tu n'as pas besoin de tâtonner ou de te livrer à des calculs compliqués pour choisir la taille des polices : tu prends du 14 points, et tu y vois bien.
Or dès lors que c'est une taille dans le monde physique qui est importante, autant prendre une unité de longueur qui existe plutôt que d'en inventer une de toutes pièces.
En 1024*768, en 100%, ma page A4 occupe 24,5 cm de large sur l'écran :-)
Mas ton écran est incorrectement réglé à 96 dpi au lieu de 82, nous l'avons vu. Faisons un bref calcul :
24.5*82/96 20.92708333333333333333
CQFD.
Shmurtz
Le Wed, 01 Sep 2004 16:40:24 +0200, Manuel Leclerc s'exprimait:
En revanche, il est tout à fait possible de demander un affichage plus petit, ça fait partie des réglages d'apparence divers.
Je ne comprends pas ce que tu dis. Comment fait-on sous Linux/x11 pour passer de 1024*768 à 1152*864 (par exemple) de manière à avoir un peu plus de place disponible dans les applications (les objets graphiques et les caractères étant alors dessinés avec le même nombre de pixel dans les deux cas) ?
Par rapport à ton écran et à ta carte graphique, le serveur X va afficher dans la meilleure résolution possible en fonction du nombre de couleurs choisi. Bien sûr, rien n'empêche de choisir un mode inférieur par défaut.
Si je dessine un objet graphique en spécifiant "50 pixels" à l'API, je ne vois pas très bien quel genre de conversion à la volée est possible. Comment cette API sait-elle au Run-Time quelle était mon intention (si ce n'est 50 pixels, justement) ?
On parle d'objet vectoriel pas de bitmap, la différence en gros:
Le Wed, 01 Sep 2004 16:40:24 +0200, Manuel Leclerc s'exprimait:
En revanche, il est tout à fait possible de demander un affichage plus
petit, ça fait partie des réglages d'apparence divers.
Je ne comprends pas ce que tu dis. Comment fait-on sous Linux/x11 pour
passer de 1024*768 à 1152*864 (par exemple) de manière à avoir un peu
plus de place disponible dans les applications (les objets graphiques
et les caractères étant alors dessinés avec le même nombre de pixel dans
les deux cas) ?
Par rapport à ton écran et à ta carte graphique, le serveur X va
afficher dans la meilleure résolution possible en fonction du nombre de
couleurs choisi. Bien sûr, rien n'empêche de choisir un mode inférieur
par défaut.
Si je dessine un objet graphique en spécifiant "50 pixels" à l'API, je
ne vois pas très bien quel genre de conversion à la volée est
possible. Comment cette API sait-elle au Run-Time quelle était mon
intention (si ce n'est 50 pixels, justement) ?
On parle d'objet vectoriel pas de bitmap, la différence en gros:
Le Wed, 01 Sep 2004 16:40:24 +0200, Manuel Leclerc s'exprimait:
En revanche, il est tout à fait possible de demander un affichage plus petit, ça fait partie des réglages d'apparence divers.
Je ne comprends pas ce que tu dis. Comment fait-on sous Linux/x11 pour passer de 1024*768 à 1152*864 (par exemple) de manière à avoir un peu plus de place disponible dans les applications (les objets graphiques et les caractères étant alors dessinés avec le même nombre de pixel dans les deux cas) ?
Par rapport à ton écran et à ta carte graphique, le serveur X va afficher dans la meilleure résolution possible en fonction du nombre de couleurs choisi. Bien sûr, rien n'empêche de choisir un mode inférieur par défaut.
Si je dessine un objet graphique en spécifiant "50 pixels" à l'API, je ne vois pas très bien quel genre de conversion à la volée est possible. Comment cette API sait-elle au Run-Time quelle était mon intention (si ce n'est 50 pixels, justement) ?
On parle d'objet vectoriel pas de bitmap, la différence en gros:
Sinon, la où il faut *absolument* suivre, en processeur, RAM, et carte graphique c'est bien les jeux ;)
C'est bizarre, je suis en train de m'équiper en NES, et mes gamerz de gosses en sont enchantés. Tout comme ils s'éclatent depuis deux heures sur frozen-bubble sur un P-266...
Par contre pour les vieux jeux sous DOS, certains ont du mal avec DOSBOX sur mon Celeron 600 :/ Ah ca ca m'interesse aussi.....
j'ai un tres vieux jeux (transport tycoon) premiere version......que je voudrais bien faire tourner.... si t'as un truc...je prends Louis
In article <cgkcj7$r3c$1@news-reader3.wanadoo.fr>, Thierry B. wrote:
mykey wrote:
Sinon, la où il faut *absolument* suivre, en processeur, RAM, et carte graphique
c'est bien les jeux ;)
C'est bizarre, je suis en train de m'équiper en NES, et mes gamerz de
gosses en sont enchantés. Tout comme ils s'éclatent depuis deux
heures sur frozen-bubble sur un P-266...
Par contre pour les vieux jeux sous DOS, certains ont du mal avec DOSBOX
sur mon Celeron 600 :/
Ah ca ca m'interesse aussi.....
j'ai un tres vieux jeux (transport tycoon) premiere version......que je
voudrais bien faire tourner....
si t'as un truc...je prends
Louis
Sinon, la où il faut *absolument* suivre, en processeur, RAM, et carte graphique c'est bien les jeux ;)
C'est bizarre, je suis en train de m'équiper en NES, et mes gamerz de gosses en sont enchantés. Tout comme ils s'éclatent depuis deux heures sur frozen-bubble sur un P-266...
Par contre pour les vieux jeux sous DOS, certains ont du mal avec DOSBOX sur mon Celeron 600 :/ Ah ca ca m'interesse aussi.....
j'ai un tres vieux jeux (transport tycoon) premiere version......que je voudrais bien faire tourner.... si t'as un truc...je prends Louis
David MAREC
D'après Miod Vallat:
Ouaip, si OS/2 avait intégré un joli Solitaire au lieu du Mahjong, les Luc2 défendrait bec et ongles IBM aujourd'hui.
OS/2 2.x avait un très bon Klondike solitaire, et ça n'a pas suffit.
Etait il assez beau ? Le defillement des cartes quand la partie est gagnée était il fluide ?
Il était raisonnablement beau (les goûts, les couleurs), mais n'avait pas l'animation de la cascade de carte à la fin de la partie.
Ni le soleil qui faisait un clin d'oeil au dos des cartes...
Voilà. Ceci démontre qu'il y avait moins d'amateurs de mahjong que de Solitaire à l'époque, et que ceux-ci apprécient beaucoup le client d'oeil solaire et la cascade de cartes. CQFD.
D'après Miod Vallat:
Ouaip, si OS/2 avait intégré un joli Solitaire au lieu du Mahjong, les
Luc2 défendrait bec et ongles IBM aujourd'hui.
OS/2 2.x avait un très bon Klondike solitaire, et ça n'a pas suffit.
Etait il assez beau ? Le defillement des cartes quand la partie est
gagnée était il fluide ?
Il était raisonnablement beau (les goûts, les couleurs), mais n'avait
pas l'animation de la cascade de carte à la fin de la partie.
Ni le soleil qui faisait un clin d'oeil au dos des cartes...
Voilà.
Ceci démontre qu'il y avait moins d'amateurs de mahjong que de Solitaire à
l'époque, et que ceux-ci apprécient beaucoup le client d'oeil solaire et la
cascade de cartes.
CQFD.
Ouaip, si OS/2 avait intégré un joli Solitaire au lieu du Mahjong, les Luc2 défendrait bec et ongles IBM aujourd'hui.
OS/2 2.x avait un très bon Klondike solitaire, et ça n'a pas suffit.
Etait il assez beau ? Le defillement des cartes quand la partie est gagnée était il fluide ?
Il était raisonnablement beau (les goûts, les couleurs), mais n'avait pas l'animation de la cascade de carte à la fin de la partie.
Ni le soleil qui faisait un clin d'oeil au dos des cartes...
Voilà. Ceci démontre qu'il y avait moins d'amateurs de mahjong que de Solitaire à l'époque, et que ceux-ci apprécient beaucoup le client d'oeil solaire et la cascade de cartes. CQFD.
Miod Vallat
Ceci démontre qu'il y avait moins d'amateurs de mahjong que de Solitaire à l'époque, et que ceux-ci apprécient beaucoup le client d'oeil solaire et la cascade de cartes.
CQFD.
Mu.
Le Mahjong (qui n'en est pas un, mais passons) n'existait pas dans cette version.
Ceci démontre qu'il y avait moins d'amateurs de mahjong que de Solitaire à
l'époque, et que ceux-ci apprécient beaucoup le client d'oeil solaire et la
cascade de cartes.
CQFD.
Mu.
Le Mahjong (qui n'en est pas un, mais passons) n'existait pas dans cette
version.
Ceci démontre qu'il y avait moins d'amateurs de mahjong que de Solitaire à l'époque, et que ceux-ci apprécient beaucoup le client d'oeil solaire et la cascade de cartes.
CQFD.
Mu.
Le Mahjong (qui n'en est pas un, mais passons) n'existait pas dans cette version.