OVH Cloud OVH Cloud

Quel Mac Pro ?

22 réponses
Avatar
Henri Beyle
Bonjour,

J'aimerai avoir quelqeus détails sur les Mac Pro.

En utilisation pro PAO/Photographie (CS5-Xpress, etc.), est-ce utile
d'avoir 8 ou 16 cœurs ?
J'ai eu un 9600/200MP dont le 2nd proc n'a jamais servi...
Ne vaut-il mieux pas privilégier la vitesse ?

Est-ce que la quantité de Ram maxi varie en fonction du nombre de cœur
de la config d'origine ?

10 réponses

1 2 3
Avatar
sebastienmarty
La Bete des Vosges (Francis Chartier)
wrote:

Le Sun, 15 May 2011 16:49:25 +0200, SbM a écrit :

> Quand même pas évident de trouver du matos qui fonctionnent
> parfaitement. Il n'est pas rare que certaines fonctions soient plus ou
> moins bien supportées (je pense notamment à la mise en veille)...

Comme pour certains macs, donc ? :)

Blague à part, les lecteurs optiques peuvent causer ce genre de problème,
faut se cantonner à certaines marques, et pas se tromper sur le choix de
la vidéo.
Après, faut avoir le fichier DSDT qui va bien, et au pire utiliser
PleaseSleep si c'est définitivement récalcitrant.



Ça suffit pas toujours.

--
[SbM]
<http://sebastienmarty.free.fr> - <http://tradintosh.free.fr>
<http://sbm.ordinotheque.free.fr> - <http://palmiciel.free.fr>
"If the French were really intelligent, they'd speak English" (W. Sheed)
Avatar
J.P
In article <1k1a4ln.kz0nmt535vpeN%,
(Gilles Aurejac) wrote:

Ne pas mégoter sur la RAM, 6 Go est un minimum, 12 c'est mieux.



et le max de RAM, c'est top ! :-)
Vu sur des applis de traitement d'images scientifiques où tout se passe en RAM.
Si il faut comencer à swapper, là le transfert disque devient le vrai facteur
limitant.

JP
Avatar
Thierry Mella
J.P wrote:
In article <1k1a4ln.kz0nmt535vpeN%,
(Gilles Aurejac) wrote:

Ne pas mégoter sur la RAM, 6 Go est un minimum, 12 c'est mieux.



et le max de RAM, c'est top ! :-)
Vu sur des applis de traitement d'images scientifiques où tout se passe en RAM.




Quelques exemples de ces applis de traitement d'images scientifiques ?
Dans quel contexte ? (Matlab, Mathematica, autre ???)


Si il faut comencer à swapper, là le transfert disque devient le vrai facteur
limitant.

JP
Avatar
J.P
In article <4dd26e81$0$14259$,
Thierry Mella wrote:

J.P wrote:
> In article <1k1a4ln.kz0nmt535vpeN%,
> (Gilles Aurejac) wrote:
>
>> Ne pas mégoter sur la RAM, 6 Go est un minimum, 12 c'est mieux.
>
> et le max de RAM, c'est top ! :-)
> Vu sur des applis de traitement d'images scientifiques où tout se passe en
> RAM.


Quelques exemples de ces applis de traitement d'images scientifiques ?
Dans quel contexte ? (Matlab, Mathematica, autre ???)



Logiciel de déconvolution d'images de microscopie confocale: Huygens
http://www.svi.nl

La page de bench, un peu vieille (dec. 2008) !
http://www.svi.nl/BenchmarksImpFaq&highlight¾nchmark

A l'époque, nov. 2008, notre MacPro était le plus performant des systèmes
installés que connaissait le vendeur, à sa grande surprise.

JP
Avatar
Thierry Mella
J.P wrote:


Logiciel de déconvolution d'images de microscopie confocale: Huygens
http://www.svi.nl



Merci pour l'info !

La page de bench, un peu vieille (dec. 2008) !
http://www.svi.nl/BenchmarksImpFaq&highlight¾nchmark



impressionnant !!

A l'époque, nov. 2008, notre MacPro était le plus performant des systèmes
installés que connaissait le vendeur, à sa grande surprise.
Avatar
Henri Beyle
Le 17/05/2011 20:44, J.P a écrit :
In article<4dd26e81$0$14259$,
Thierry Mella wrote:

Logiciel de déconvolution d'images de microscopie confocale: Huygens
http://www.svi.nl


Je suis curieux : à quoi cela sert-il ?
Avatar
Henri Beyle
Le 14/05/2011 23:58, Gilles Aurejac a écrit :
Henri Beyle wrote:


En utilisation pro PAO/Photographie (CS5-Xpress, etc.), est-ce utile
d'avoir 8 ou 16 c½urs ?



Pas vraiment, voir pas du tout.

Dans le quotidien de monter des pages, modifier du texte, placer des
images, charger et enregistrer des fichiers, ce sont les disques durs
qui décident de la vitesse, pas le processeur.

Photoshop est un peu le seul logiciel suffisamment gourmand sur des
retouches de gros fichiers, pour utiliser à fond 4, 6 ou 8 coeurs en
leur donnant suffisamment de calculs longs et lourds à faire...

J'ai eu un 9600/200MP dont le 2nd proc n'a jamais servi...



Oui il était très mal géré par MacOS 8 et 9, ceci dit c'était il y a
presque 15 ans et les logiciels ont vraiment évolué.

Ne vaut-il mieux pas privilégier la vitesse ?



Les fabricants font justement un excellent compromis : les processeurs
s'adaptent à savoir que si on a un logiciel qui n'utilise qu'un seul
"coeur", celui-ci s'overclocke (mode "turbo boost") par exemple jusqu'à
3,06 Ghz pour le Mac Pro quad 2,8, jusqu'à 3,66 pour le 3,33.

La puissance monstrueuse des mac pro 8 ou 12 coeurs est complètement
gachée par le seul disque dur présent qui "plafonne" à 120 Mo/sec : ce
n'est pas très homogène d'avoir une machine à 4000 euros limitée par un
seul disque à plateaux de 120 Mo/sec : c'est comme d'avoir une grosse
américaine très lourde et puissante, mais pour faire des pics de vitesse
sur 100m dans une petite route sinueuse...

Ce qui serait plus intelligent si tu cherches une vraie performance, tu
peux prendre un Mac Pro 2,8 et tu lui ajoutes :
- soit une tour RAID sonnet (ou autre) et 4 disques de 1 To (débits de
plus de 350 Mo/Sec)
- soit un SSD qui te permettra d'atteindre un débit de 250 Mo/sec (voire
plus avec les derniers intels/OCZ) et des temps d'accès instantanés

Le SSD apporte un gain énorme de vitesse (boot en 10 secondes, lancement
en un "rebond" des logiciels, fluidité et rapidité de tout...), mais est
limité en capacité. il faut se résigner à l'utiliser pour le système et
les travaux en cours, et conserver le disque d'origine pour l'archivage.

Ne pas mégoter sur la RAM, 6 Go est un minimum, 12 c'est mieux.

un mac pro de base + 12 Go de ram et un SSD ou une tour RAID, revient au
même prix qu'un 8 voeurs de base, décôtera moins vite et à l'utilisation
c'est dix foix mieux...


Est-ce que la quantité de Ram maxi varie en fonction du nombre de c½ur
de la config d'origine ?



oui car dans les modèles 4 et 6 coeurs, il n'y a que 4 emplacements
mémoire, dans les 8 ou 12 coeurs il y en a 8.





Celui-là est-il intéressant ?

http://store.apple.com/fr/product/G0G80F/A?mco=MTI4MzcxMDQ#overview
Avatar
gilles
Henri Beyle wrote:

Celui-là est-il intéressant ?

http://store.apple.com/fr/product/G0G80F/A?mco=MTI4MzcxMDQ#overview



c'est une machine intéressante, mais la remise n'est pas
exceptionnelle :
- un poil plus puissante et un peu moins chère que le Mac Pro 2010 de
base
- mais c'est un Mac Pro 2009 donc un poil moins bien équipé : livré avec
un disque de 640 Go et une carte graphique Nvidia Geforce GT120, alors
que les Mac Pro 2010 sont fournis avec un disque 1 To et une ATI Radeon
HD 5770 1 Go.


Ne pas avoir de regret que ce soit un Mac Pro 2009 : il est identique en
tout point au 2010 au firmware près, et, justement, on peut "flasher"
des Mac Pro 2009 pour les transformer en Mac Pro 2010 (pour leur faire
accepter ultérieurement un processeur hexacore).


Attention à tout achat de Mac Pro : on attend d'ici peu de nouveaux Mac
Pro avec notamment du thunderbolt.

Ce serait pour moi, tant qu'à mettre de l'argent dans un mac pro, et à
part besoin impérieux, j'attendrais que la nouvelle gamme sorte au moins
pour voir ce qu'elles ont comme équipement..
Une fois la nouvelle gamme sortie, il y aura le choix entre la nouvelle
gamme, et l'ancienne à coût encore plus réduit sur le "refurb"



--
le guide de la Ram, hébergé sur disquette par un MacPortable de 1989 :
http://aurejac.dyndns.org
Avatar
Henri Beyle
Le 03/06/2011 20:19, Gilles Aurejac a écrit :
Henri Beyle wrote:

Celui-là est-il intéressant ?

http://store.apple.com/fr/product/G0G80F/A?mco=MTI4MzcxMDQ#overview



c'est une machine intéressante, mais la remise n'est pas
exceptionnelle :
- un poil plus puissante et un peu moins chère que le Mac Pro 2010 de
base
- mais c'est un Mac Pro 2009 donc un poil moins bien équipé : livré avec
un disque de 640 Go et une carte graphique Nvidia Geforce GT120, alors
que les Mac Pro 2010 sont fournis avec un disque 1 To et une ATI Radeon
HD 5770 1 Go.


Ne pas avoir de regret que ce soit un Mac Pro 2009 : il est identique en
tout point au 2010 au firmware près, et, justement, on peut "flasher"
des Mac Pro 2009 pour les transformer en Mac Pro 2010 (pour leur faire
accepter ultérieurement un processeur hexacore).


Attention à tout achat de Mac Pro : on attend d'ici peu de nouveaux Mac
Pro avec notamment du thunderbolt.

Ce serait pour moi, tant qu'à mettre de l'argent dans un mac pro, et à
part besoin impérieux, j'attendrais que la nouvelle gamme sorte au moins
pour voir ce qu'elles ont comme équipement..
Une fois la nouvelle gamme sortie, il y aura le choix entre la nouvelle
gamme, et l'ancienne à coût encore plus réduit sur le "refurb"



Ok, merci pour ces conseils. :)
Avatar
J.P
In article <4de8ef64$0$20836$,
Henri Beyle wrote:

Le 17/05/2011 20:44, J.P a écrit :
> In article<4dd26e81$0$14259$,
> Thierry Mella wrote:
>
> Logiciel de déconvolution d'images de microscopie confocale: Huygens
> http://www.svi.nl
Je suis curieux : à quoi cela sert-il ?



Je me lance ...

Toute observation déforme l'objet à observer: convolution.
"Déconvoluer" c'est appliquer un "traitement" à ce qui est observé pour se
rapprocher de ce qui serait observé sans les effets du système d'observation.

Ex:
1- avec mes lunettes de vue, Varilux, progressives, j'ai peu de chances de voir
les choses comme mon voisin sans lunettes => l'un et l'autre, nous "convoluons"
ce que nous voyons mais pas de la même façon.
2- le son que nous percevons d'un même enregistrement lu sur nos différents
appareils audio n'est pas le même. Chaque dispositif de restitution a sa propre
façon de restituer le son, chacun "convolue" le son à sa façon.

On parle plutôt de convolution dans les domaines temporel et spatial et de
filtrage dans le domaine fréquentiel.
La mathématique du "traitement numérique du signal" (Digital Signal Processing)
montre que c'est tout à fait équivalent et permet de passer d'un domaine à
l'autre.
Par exemple: http://www.dspguide.com/pdfbook.htm
voir les Applications à partir du Ch. 22
pour ceux qui veulent tout savoir, quelques "gurus" du DSP: Gold, Oppenheim,
Rabiner, Schafer :-)


Un microscope déforme, plus ou moins, l'objet à observer

Un microscope confocal permet:
- de focaliser à l'intérieur d'une couche "épaisse" (quelques µm)
- de faire de l'imagerie 3D en focalisant à des profondeurs successives dans la
couche épaisse.
http://fr.wikipedia.org/wiki/Microscope_confocal pas terrible !
http://neurochem.u-strasbg.fr/5plateformes/la_microscopie_confocale.pdf
une des Bibles sur le sujet
http://www.microscopyu.com/tutorials/java/virtual/confocal/index.html
L'ensemble des plans permet de faire de la reconstruction 3D des objets.
http://www.svi.nl/MovieGallery

Le principe du confocal voudrait que l'image du plan focalisé soit parfaite,
mais ce n'est bien évidemment pas le cas.

Solution pour résoudre les déformations liées à l'instrument: déconvoluer
- observer un objet de forme connue, comparer l'original avec avec "l'observé"
- établir la déformation => calculer la fonction de convolution (on utilise les
propriétés des Transformées de Fourier)
- calculer la fonction inverse: fonction de déconvolution

Enfin, observer ( ex.: un neurone dans une tranche fine de cerveau) et appliquer
la fonction de déconvolution à l'observation pour obtenir une observation au
plus près de l'original

Mais ceci ne résoud que les déformations liées à l'instrument.
Il reste les déformations liées à l'environnement en observation réelle: les
couches environnantes du plan "focalisé" perturbent aussi l'observation.
Des algorithmes ont été développés pour déconvoluer (corriger ces effets) à
partir de calculs de proximité sur des couches successives ...

Vu du côté informatique:
- chaque plan fait aujourd'hui 1024*1024
- le nombre de plans pour décrire un objet (cellule par exemple) peut atteindre
plusieurs centaines
- l'application des fonctions de déconvolution peut s'imaginer comme
l'application d'une grille qui glisse d'un point à un autre ... c'est très long.

En résumé: calcul intensif sur beaucoup de données => processeurS et appli
sachant en tirer profit, beaucoup, beaucoup de RAM !

La machine idéale pour faire cela serait une machine parallèle comme l'étaient
les premiers "déconvolueurs" câblés, analogiques, créés pour identifier les
réponses radar. Ce qui doit encore être probablement le cas pour ce type
d'applications nécessitant des temps de réponse très brefs.

Tout ceci sous réserve des effets de la convolution du produit de mes neurones
par la fonction "retraite" :-)

--
Jean-Pierre
1 2 3