OVH Cloud OVH Cloud

Windows/Linux tout ça

294 réponses
Avatar
Sauron
Bonjour,

Si nous voulons comparer les différents OS grand public (Windows Linux
MacOS) il faut les comparer sur les différents points qui intéressent
les gens. A savoir le système d'exploitation, la logithèque,
l'installation de ladite logithèque, le jeu, la pérénité de la machine
et la sécurité.

Système d'exploitation (gestion du hardware et IHM)
- Windows : gère un grand nombre de matériel (directement out of the box
ou avec des drivers supplémentaires). L'IHM est agréable mais faiblement
configurable. Les options avancées sont très difficiles à atteindre et
très peu documentées. Le système est monolithique et dispose d'un
héritage du passé assez lourd à porter. Aujourd'hui encore, un problème
sur un logiciel peut compromettre tout le SE.

- Linux : gère un grand nombre de matériel (out of the box). Le matériel
non supporté d'origine est assez difficile à supporter a posteriori
(sauf en ce qui concerne les cartes NVIDIA à cause du driver
propriétaire non inclus en standard). L'IHM est agréable (KDE, Gnome,
...), hautement configurable et peut être remplacé par une autre
facilement. Les fonctions avancées sont accessibles au minimum en CLI et
très bien documentées.

- MacOS : gère 100% du matériel Apple (facile évidemment) et de nombreux
périphériques soit out of the box ou via les drivers du fabricant. L'IHM
est, à mon sens, la plus aboutie mais est très peu configurable. Les
fonctions avancées sont disponibles en ligne de commande mais très peu
documentée.

Logithèque
- Windows : abondante. Certains logiciels métiers ne sont disponibles
que sur cet OS.

- Linux : abondante mais la plupart des logiciels métiers ne sont pas
portés nativement. Soit il existe un pendant open source (reprennant
l'essentiel mais pas les spécificités), soit il est possible de le faire
tourner via Wine, soit il n'y a pas de solutions.

- MacOS : abondante. Certains logiciels non disponibles sous Linux le
sont sous MacOS (exemple la suite Adobe, ...). Il est également possible
de nombreux logiciels disponibles sous Linux via Fink ou MacPorts.

Installation de la Logithèque
- Windows : de nombreux supports (CD, DVD, téléchargement, Windows
Update, ...). De nombreuses méthodes aussi. La désinstallation pose
souvent problème (vestige des logiciels installés, ...). Je dirais que
c'est assez brouillon.

- Linux : généralement tout passe par le gestionnaire de paquets. Le
système est assez souple et gère les dépendances. La désinstallation est
presque toujours parfaite. Il est également possible de se passer du
gestionnaire de paquets mais alors on en perd les avantages
(installation à partir des sources, ...).

- MacOS : pour les applications natives, généralement tout se passe en
glisser/déposer. Pour les sources, elles sont aussi nombreuses que sous
Windows. La désinstallation se fait également par glisser/déposer. Pour
les softs sous Macports/Fink le système est moins bon que sous Linux.

Le jeu
- Windows : tout les gros jeux sortent sous Windows. Sur PC, Windows est
l'OS disposant du plus de jeux.

- Linux : une partie des jeux (faibles mais reprenant quelques gros hits
quand même) sortent nativement. Une partie fonctionne avec Wine. Une
partie ne fonctionne pas sous Linux.

- MacOS : même chose que sous Linux avec un peu plus de portages directes.

Pérénité
- Windows : gros soucis sur un windows utilisé longtemps et sur lequel
de nombreuses installations/désinstallations ont eu lieu. Toutefois, un
Windows installé proprement et sur lequel on installe juste ses
logiciels une seule fois est pérène depuis Windows 2000. Toutefois cela
empêche de passer sereinement de Office 2003 à 2007 par exemple. Par
contre les mises à jour installées ne génèrent en général pas de
problème. Une mise à jour de l'OS vers une version suivante (2000 -> XP
ou XP -> Vista) ne se passe généralement pas très bien.

- Linux : aucun soucis quand on utilise des versions stables.

- MacOS : aucun soucis.

Sécurité
- Windows : le système monolithique et la gestion des droits
"particulière" de Windows le rende assez perméable out of the box.
Toutefois, un admin compétant peut le sécuriser convenablement.

- Linux : pas de soucis de sécurité.

- MacOS : pas de soucis de sécurité.

Pour les 3 OS, il est évident qu'ils ne sont pas 100% secure et que des
failles peuvent être trouvées (escalation de privilèges, ...).

Aucun OS ne peut se prévaloir de satisfaire 100% des besoins de tous les
utilisateurs. Chacun doit donc choisir son OS en fonction de ses besoins.

A bientôt,

Sauron Mordor :-)

10 réponses

Avatar
Jonathan ROTH wrote:
il est clair que Windows, vu que la mémoire
virtuelle est fortement recommandée, et qu'il est très difficile de
limiter ses écritures sur disque, n'est définitivement pas adapté à
ce genre de sttockage, contrairement à Linux.



décidément on reste vraiemnt dans le grand n'importe quoi dans ce forum
on est en octobre 2008 et pas en 1999 mais bon.. en tout cas linux c'est de
la belle merde, pas etonnant que ce systeme ne decolle pas depuis toutes ces
annees
Avatar
Toxico Nimbus
remy a écrit :

mais bon ...l'orgue de barbarie est il un ordinateur ?
cela nous envoie directement vers la fin du moyen âge
c'est beau le progrès :-)


Le binaire fut inventé bien avant...
Avatar
Toxico Nimbus
etourmi a écrit :
Toxico Nimbus wrote:
Dans le temps mon Amiga démarrait en 4 secondes mais je vais pas le
ressortir du placard pour faire l'uptime...



ah bon tu arrivais a avoir le workbench en 4 secondes ? chapeau faudra
expliquer comment a la terre entiere.. parce que quelle belle merde aussi
l'amiga a ce niveau c'etait impossible de travailler serieusement avec.
contrairement au ST ou tout le necessaire se trouvait en ROM, tu allumais tu
avais aussitot un OS graphique operationnel



Trop fort, un troll migouille sur un forum linux :)
Pour l'info, j'utilisais un soft qui se contentait de mettre en place
une image mémoire toute prête du système booté.
Avatar
Jonathan ROTH
etourmi a écrit :
décidément on reste vraiemnt dans le grand n'importe quoi dans ce forum
on est en octobre 2008 et pas en 1999 mais bon.. en tout cas linux c'est de
la belle merde, pas etonnant que ce systeme ne decolle pas depuis toutes ces
annees



Lorsque t'aura étudié les différences fondamentales, en dehors de la
notion propriétaire/libre, entre le noyau linux et le noyau WinNT, tu
pourra répondre.

En attendant, va voir si t'as pas une connerie à dire ailleurs.
Avatar
Richard Delorme
Jonathan ROTH a écrit :
Richard Delorme a écrit :
Mais les SSD arrivent... avec des temps d'accès nettement plus rapide



et des taux de transferts améliorés (>100Mb/s en lecture et >50Mb/s en
écriture),



C'est ce que j'ai dit, à 100Mo/s, le stockage n'a clairement pas évolué
à la même vitesse que le reste.



Et les temps d'accès ? L'amélioration dépasse largement un facteur 10,
et ça accélère pas mal le fonctionnement des machines, à commencer par
le démarrage.
Quant au taux de transfert, les normes en vigueurs (SATA et autres),
constitue le blocage le plus important, puisque même les SSD-ram doivent
s'y plier.

Ils ont néanmoins quelques
défauts rédhibitoires : une fiabilité douteuse quoique contrôlée par
des astuces algorithmiques, et des prix astronomiques.



Discutable, mais je n'ai pas envie d'être le premier à lancer ce débat.
Quoique si... il est clair que Windows, vu que la mémoire virtuelle est
fortement recommandée, et qu'il est très difficile de limiter ses
écritures sur disque, n'est définitivement pas adapté à ce genre de
sttockage, contrairement à Linux.



Tout-à-fait.


Mon portable de 2003 avec sa batterie d'origine (donc pas en super
forme) a encore plus d'autonomie que les ultra-portables neuf actuels,
cherchez l'erreur...



Ouais... enfin il existe une grosse disparité selon les machines.
Certains ultra-portables actuels atteignent 7h d'autonomie ; je n'est
pas souvenir qu'il y avait beaucoup de portables avec cette autonomie en
2003.
Avatar
Jonathan ROTH
Richard Delorme a écrit :
Jonathan ROTH a écrit :
Richard Delorme a écrit :
Mais les SSD arrivent... avec des temps d'accès nettement plus rapide



et des taux de transferts améliorés (>100Mb/s en lecture et >50Mb/s
en écriture),



C'est ce que j'ai dit, à 100Mo/s, le stockage n'a clairement pas
évolué à la même vitesse que le reste.



Et les temps d'accès ? L'amélioration dépasse largement un facteur 10,
et ça accélère pas mal le fonctionnement des machines, à commencer par
le démarrage.
Quant au taux de transfert, les normes en vigueurs (SATA et autres),
constitue le blocage le plus important, puisque même les SSD-ram doivent
s'y plier.



Je te l'accorde, on gagne 8ms entre le moment où on a demandé une donnée
et le moment où elle arrive.
En dehors de ça, 100Mo/s avec un temps d'accès à 8ms et 100Mo/s avec un
temps d'accès à 0,1ms, ça reste 100Mo.

Que ça accélère le démarrage, certes, mais ça doit pas être le jour et
la nuit.

Je te rejoins sur un point: un disque Flash sur du SATA c'est une
mauvaise idée, mais nécéssaire pour effectuer la transition.
Lorsque les puces Flash seront directement accessibles sur le bus
processeur, là je penses que la différence sera flagrante.

Mon portable de 2003 avec sa batterie d'origine (donc pas en super
forme) a encore plus d'autonomie que les ultra-portables neuf actuels,
cherchez l'erreur...



Ouais... enfin il existe une grosse disparité selon les machines.
Certains ultra-portables actuels atteignent 7h d'autonomie ; je n'est
pas souvenir qu'il y avait beaucoup de portables avec cette autonomie en
2003.



Je parlais bien entendu des MSI Wind et Asus eeePC ainsi que leurs
copains...
Avatar
Toxico Nimbus wrote:
Trop fort, un troll migouille sur un forum linux :)
Pour l'info, j'utilisais un soft qui se contentait de mettre en place
une image mémoire toute prête du système booté.



oui en gros tu comparais temps de boot d'un os avec la sortie d'une mise en
veille prolongée..
amiga n'a pas été efficace pour son workbench et autres joyeusetés
professionnelles, c'était juste une machine à divertir à la base
Avatar
Thierry B.
--{ JKB a plopé ceci: }--

dessiner, divaguer. Trop magique. De nos jours, un truc convivial
comme ça, ça n'existe pratiquement pas. Sauf, peut-être, ce qu'a
imaginé Donald Knuth pour réussir à faire TeX.



s/TeX/web/ mais ça reste très knuthien si j'ose dire ;-)



Le s/// est superflu. Relis bien ma phrase...

Ceci dit, il faudra bien que j'essaye ce truc un de ces jours.

--
.........................................................................
...... Infinite Monkey Protocol ......
Avatar
Thierry B.
--{ Toxico Nimbus a plopé ceci: }--


Il y a du mieux.


Dans le temps mon Amiga démarrait en 4 secondes mais je vais pas le
ressortir du placard pour faire l'uptime...



Quand le filament est chaud, mon minitel est déja booté.

--
Ya pas pire vieux con, qu'un vieux con qui s'y connais, car non
seulement il râle, mais en plus il a raison.
--{ LC (connaisseur) in f.m.b.l }--
Avatar
JKB
Le 16-10-2008, ? propos de
Re: Windows/Linux tout ça,
Jonathan ROTH ?crivait dans fr.comp.os.linux.debats :
Richard Delorme a écrit :
Jonathan ROTH a écrit :
Richard Delorme a écrit :
Mais les SSD arrivent... avec des temps d'accès nettement plus rapide



et des taux de transferts améliorés (>100Mb/s en lecture et >50Mb/s
en écriture),



C'est ce que j'ai dit, à 100Mo/s, le stockage n'a clairement pas
évolué à la même vitesse que le reste.



Et les temps d'accès ? L'amélioration dépasse largement un facteur 10,
et ça accélère pas mal le fonctionnement des machines, à commencer par
le démarrage.
Quant au taux de transfert, les normes en vigueurs (SATA et autres),
constitue le blocage le plus important, puisque même les SSD-ram doivent
s'y plier.



Je te l'accorde, on gagne 8ms entre le moment où on a demandé une donnée
et le moment où elle arrive.
En dehors de ça, 100Mo/s avec un temps d'accès à 8ms et 100Mo/s avec un
temps d'accès à 0,1ms, ça reste 100Mo.

Que ça accélère le démarrage, certes, mais ça doit pas être le jour et
la nuit.

Je te rejoins sur un point: un disque Flash sur du SATA c'est une
mauvaise idée, mais nécéssaire pour effectuer la transition.
Lorsque les puces Flash seront directement accessibles sur le bus
processeur, là je penses que la différence sera flagrante.



Non. Ce sera du marketing. La technologie flash est limité par un
phénomène physique de transition de charge. Par contre, les
marketeux vont nous faire prendre nos vessies pour des lanternes,
mais c'est un autre sujet. On a vue la même chose avec la DRAM.
Aujourd'hui, on colle des MHz partout alors que la vitesse d'une
mémoire dynamique, c'est un 'temps d'accès' (et il y a encore une
raison physique sauf à changer de techno pour utiliser une mémoire
statique). La fréquence indiquée est la fréquence du bus d'accès
à la mémoire et non de l'accès _réel_ à des données
_aléatoires_. Et ça, pour bosser sur des données qui ne peuvent
_jamais_ être collées dans un cache (mémoire ou processeur), je n'ai
pas vue d'augmentation de la vitesse d'accès brute (je ne parle pas
des calculs) depuis cinq ou six ans.

JKB

--
Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre
masse corporelle, mais disperse à lui seul 25% de l'énergie que nous
consommons tous les jours.