OVH Cloud OVH Cloud

Requête ou Table ?

2 réponses
Avatar
DJP
Bonjour =E0 tous,

Le probl=E8me :A fins de production de statistiques=20
pouss=E9es, j'ai b=E2ti une 'super-requ=EAte' =E0 partir de ma=20
table principale filtr=E9e de date-=E0-date et d'autres=20
requ=EAtes li=E9es op=E9rant d=E9comptes, totalisations, etc ...=20
sur tables li=E9es - sachant que mes stats' vont n=E9cessiter=20
d'autres requ=EAtes bas=E9es sur cette 'super-requ=EAte' puis=20
filtr=E9es etc...

Ma question : Est-il pr=E9f=E9rable (en terme de rapidit=E9 de=20
traitement de l'information) de travailler =E0 partir de=20
ma 'fameuse' super-requ=EAte de base ou bien de la convertir=20
en table ? Cela =E9viterait de recalculer syst=E9matiquement=20
premiers filtres (bornages de dates) et calculs (nombre=20
de, total de ...) ?

Pendant que j'y suis (car le sp=E9cialiste qui r=E9pondra=20
saura obligatoirement pour ce qui suit ;-)): Toujours dans=20
la m=EAme optique de rapidit=E9, vaut-il mieux travailler des=20
champs calcul=E9s RechDom,SomDom ou de d=E9finir les valeurs=20
dans le code avec les DLookup, Dsum correspondants ?

Merci

DJP

2 réponses

Avatar
Raymond [mvp]
bonjour.

en terme de rapidité il faut évaluer la relativité du temps.
si c'est pour gagner 20 secondes tous les mois et ne pas relancer une
requête, que faut-il faire ? si c'est pour gagner 1h, faut le faire. il faut
la périodicité, le temps global et le temps économisable.
quand à la 2e question, les opérations de domaine sont les opérations les
plus coûteuses en temps où qu'elles se trouvent et ne doivent être utilisées
que dans des cas précis où on ne peut pas récupérer l'info à l'origine ou
par relations. un source de contrôle basé sur une opération de domaine ne
peut pas être efficace mais s'il est indispensable .........;
--
@+
Raymond Access MVP
http://access.seneque.free.fr/
http://access.vba.free.fr/
http://access2003.free.fr/
http://users.skynet.be/mpfa/ pour débuter sur le forum


"DJP" a écrit dans le message de
news:16d0c01c44826$c2d6ca30$
Bonjour à tous,

Le problème :A fins de production de statistiques
poussées, j'ai bâti une 'super-requête' à partir de ma
table principale filtrée de date-à-date et d'autres
requêtes liées opérant décomptes, totalisations, etc ...
sur tables liées - sachant que mes stats' vont nécessiter
d'autres requêtes basées sur cette 'super-requête' puis
filtrées etc...

Ma question : Est-il préférable (en terme de rapidité de
traitement de l'information) de travailler à partir de
ma 'fameuse' super-requête de base ou bien de la convertir
en table ? Cela éviterait de recalculer systématiquement
premiers filtres (bornages de dates) et calculs (nombre
de, total de ...) ?

Pendant que j'y suis (car le spécialiste qui répondra
saura obligatoirement pour ce qui suit ;-)): Toujours dans
la même optique de rapidité, vaut-il mieux travailler des
champs calculés RechDom,SomDom ou de définir les valeurs
dans le code avec les DLookup, Dsum correspondants ?

Merci

DJP
Avatar
DJP
Merci RAYMOND,

Je prends bonne note de vos axes de réflexion - La machine
de destination n'étant pas super-puissante. Dans le cas
présent, je crois que je vais stocker mes data filtrées
dans une table (ce qui me permettra d'autant plus
facilement un export vers Excel). Quant à mes contrôles
calculés, je crains que je n'aie pas d'autre
alternative ... Malgré tout, une 50n de calculs ne
prends, après tout, pas tant de temps que cela.

Je tiens à ajouter un grand BRAVO à votre collaboration
sur ce forum que je visite depuis peu et accorde une
attention particulière à vos interventions toujours à-
propos !

Merci encore

@ bientôt peut-être ... Oh ! Sûrement ...

DJP