Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

[Hugin] [Linux] nouvelle version et utilisation de la carte graphique

6 réponses
Avatar
Stephan Peccini
Bonjour,

Pour ceux qui utilisent Hugin 2009.2.0.4461 (je parle pour Linux, je
n'ai pas de quoi tester Windows), il est possible de tirer partie de la
carte graphique dans le cadre des calculs lors de la génération du
panorama. (ceci était peut-être vrai auparavant, mais je ne l'avais pas
essayé)

En effet, il est possible de demander que nona utilise le GPU pour faire
ses calculs.

Le résultat sur ma machine : E6600 quadri-c½ur et Nvidia 8500 GT avec
512 Mo de mémoire.
Sans utilisation du GPU, nona me prend pour 2 photos en 9000x6000, 48
secondes et les 4 c½urs presque à temps plein. Soit environ 180 secondes
de calcul CPU.
Avec utilisation du GPU, nona prend pour les mêmes photos 38 secondes et
utilise un seul c½ur.

Je vais donc pouvoir envisager de traiter des photos en parallèle de mes
panoramas, et aussi de tester des panoramas avec 6 photos en 13000x8700
pour voir le gain.

Ce très bon produit continue de progresser et je ne saurai trop
conseiller que de l'essayer.

http://hugin.sourceforge.net/
http://hugin.sourceforge.net/releases/2009.2.0/fr.shtml

--
Stéphan Peccini
Les photos : <URL:http://photonature.fr>
Les Pyrénées : <URL:http://photonature.fr/pyrenees>
Le blog : <URL:http://pyrenees.peccini.fr>

6 réponses

Avatar
Pierre Pallier
Hello, Stephan Peccini a écrit dans <news:hcf2l7$42u$

En effet, il est possible de demander que nona utilise le GPU pour faire
ses calculs.



Sûr qu'avec des GPU qui ont plus de puissance de calcul qu'un honnête CPU,
ça devient intéressant de sous-traiter une partie des calculs...
Mais là, j'ai bien peur que tu t'adresses à un public restreint !
Je vais réessayer Hugin, tout de même.
--
Pierre.
Mes photographies : http://perso.wanadoo.fr/pierre.pallier
La FAQ de frp : http://pierre.pallier.free.fr/frp
Les news avec 40tude Dialog : http://perso.wanadoo.fr/pierre.pallier/Dialog
Avatar
Ofnuts
Stephan Peccini wrote:
Bonjour,

Pour ceux qui utilisent Hugin 2009.2.0.4461 (je parle pour Linux, je
n'ai pas de quoi tester Windows), il est possible de tirer partie de la
carte graphique dans le cadre des calculs lors de la génération du
panorama. (ceci était peut-être vrai auparavant, mais je ne l'avais pas
essayé)

En effet, il est possible de demander que nona utilise le GPU pour faire
ses calculs.



Ca sera super quand Gimp fera la même chose...


--
Bertrand
Avatar
Stephan Peccini
Le 30/10/2009 17:31, Pierre Pallier a écrit :

Sûr qu'avec des GPU qui ont plus de puissance de calcul qu'un honnête CPU,



Enfin, ce n'est pas tout à fait le même type de puissance. Mais pour ce
genre de calcul, c'est intéressant. Je me demande même si je ne vais pas
piquer la carte de mon fils qui est plus puissante que la mienne :-)

ça devient intéressant de sous-traiter une partie des calculs...
Mais là, j'ai bien peur que tu t'adresses à un public restreint !



Ce n'est pas grave. Mais comme on parle moins de l'usage du GPU sous
Linux, c'est sympa, me semble-t-il, de le signaler quand des efforts
sont faits.

Je vais réessayer Hugin, tout de même.



Il faut aussi regarder le tutoriel qui décrit comment utiliser hugin
pour caractériser son objectif vis-à-vis des défauts.
Sinon, c'est vraiment un logiciel simple et très performant.

--
Stéphan Peccini
Les photos : <URL:http://photonature.fr&gt;
Les Pyrénées : <URL:http://photonature.fr/pyrenees&gt;
Le blog : <URL:http://pyrenees.peccini.fr&gt;
Avatar
Stephan Peccini
Le 30/10/2009 18:00, Ofnuts a écrit :

Ca sera super quand Gimp fera la même chose...



Qu'ils s'occupent déjà de faire le 16 bits par canal, ce sera bien.
Après, il suffira de coder GEGL pour qu'il utilise le GPU et tout sera
mieux.


--
Stéphan Peccini
Les photos : <URL:http://photonature.fr&gt;
Les Pyrénées : <URL:http://photonature.fr/pyrenees&gt;
Le blog : <URL:http://pyrenees.peccini.fr&gt;
Avatar
mumu
Stephan Peccini wrote:
Le 30/10/2009 18:00, Ofnuts a écrit :

Ca sera super quand Gimp fera la même chose...



Qu'ils s'occupent déjà de faire le 16 bits par canal, ce sera bien.
Après, il suffira de coder GEGL pour qu'il utilise le GPU et tout sera
mieux.





Assez d'accord pour GIMP ...

Question d'ignard... le GPU c'est le processeur qui se trouve sur la
carte graphique ?
Avatar
Pierre Pallier
Hello, mumu a écrit dans <news:4aec48be$0$972$

Question d'ignard... le GPU c'est le processeur qui se trouve sur la
carte graphique ?



C'est tout à fait ça.
--
Pierre.
Mes photographies : http://perso.wanadoo.fr/pierre.pallier
La FAQ de frp : http://pierre.pallier.free.fr/frp
Les news avec 40tude Dialog : http://perso.wanadoo.fr/pierre.pallier/Dialog