WD9 - base HF Classic - requètes
Bonjour à tous,
Je cherche depuis plusieurs années (!) à trouver une solution aux lenteurs
hyperfile (pour la petite histoire, une appli en WD5.5 avec vues et ordres
h* donnait de très bon résultats en terme de performances; passée en 7.5,
puis 8 et aujourd'hui 9, les performances se sont écroulées... parfois
jusqu'à 70 fois plus lente)
Je cherche à améliorer ce code, qui ne fait que de lire une table (à partir
d'une requete) et transfere les 30 premières lignes dans une table mémoire.
Voici le code (ultra-simple):
lCond = "select REFDOC,IDDOCUMLG,DESIGNATION,'',0,0 from DOCUMLG where
IDDOCUM = 3892 order by IDDOCUMLG"
si sqlexec(lCond,"ReqI") alors
sqltable(30,"ReqI","TABLE")
fin
sqlferme("ReqI")
La table (donc les trente 1eres lignes) s'affiche, EN LOCAL, en plus de 12
secondes (assez "insupportable" pour les utilisateurs) !!!
Pourtant toutes les clés sont bien positionnées (IDDOCUM, IDDOCUMLG
primaire) et donc impossible, à mon avis, d'optimiser la requète (j'ai aussi
essayé en rendant la table invisible et divers autres astuces sans succès).
Le fichier (la table) comporte aujourd'hui 361000 tuples de longueur 299
octets et grossit en permanence (encore des inquiétudes !).
D'où mes questions:
Pensez vous qu'en HF C/S, ce sera mieux (notammment en réseau
multi-utilisateurs - rappel: essai fait en local) et de quel ordre ?
Dois je migrer en WD 10 (meilleures performances du moteur HF classic ?)
Faut-il vraiment que je migre la base vers MySQL par ex ?
merci pour vos avis
WD9 - base HF Classic - requètes
Bonjour à tous,
Je cherche depuis plusieurs années (!) à trouver une solution aux lenteurs
hyperfile (pour la petite histoire, une appli en WD5.5 avec vues et ordres
h* donnait de très bon résultats en terme de performances; passée en 7.5,
puis 8 et aujourd'hui 9, les performances se sont écroulées... parfois
jusqu'à 70 fois plus lente)
Je cherche à améliorer ce code, qui ne fait que de lire une table (à partir
d'une requete) et transfere les 30 premières lignes dans une table mémoire.
Voici le code (ultra-simple):
lCond = "select REFDOC,IDDOCUMLG,DESIGNATION,'',0,0 from DOCUMLG where
IDDOCUM = 3892 order by IDDOCUMLG"
si sqlexec(lCond,"ReqI") alors
sqltable(30,"ReqI","TABLE")
fin
sqlferme("ReqI")
La table (donc les trente 1eres lignes) s'affiche, EN LOCAL, en plus de 12
secondes (assez "insupportable" pour les utilisateurs) !!!
Pourtant toutes les clés sont bien positionnées (IDDOCUM, IDDOCUMLG
primaire) et donc impossible, à mon avis, d'optimiser la requète (j'ai aussi
essayé en rendant la table invisible et divers autres astuces sans succès).
Le fichier (la table) comporte aujourd'hui 361000 tuples de longueur 299
octets et grossit en permanence (encore des inquiétudes !).
D'où mes questions:
Pensez vous qu'en HF C/S, ce sera mieux (notammment en réseau
multi-utilisateurs - rappel: essai fait en local) et de quel ordre ?
Dois je migrer en WD 10 (meilleures performances du moteur HF classic ?)
Faut-il vraiment que je migre la base vers MySQL par ex ?
merci pour vos avis
WD9 - base HF Classic - requètes
Bonjour à tous,
Je cherche depuis plusieurs années (!) à trouver une solution aux lenteurs
hyperfile (pour la petite histoire, une appli en WD5.5 avec vues et ordres
h* donnait de très bon résultats en terme de performances; passée en 7.5,
puis 8 et aujourd'hui 9, les performances se sont écroulées... parfois
jusqu'à 70 fois plus lente)
Je cherche à améliorer ce code, qui ne fait que de lire une table (à partir
d'une requete) et transfere les 30 premières lignes dans une table mémoire.
Voici le code (ultra-simple):
lCond = "select REFDOC,IDDOCUMLG,DESIGNATION,'',0,0 from DOCUMLG where
IDDOCUM = 3892 order by IDDOCUMLG"
si sqlexec(lCond,"ReqI") alors
sqltable(30,"ReqI","TABLE")
fin
sqlferme("ReqI")
La table (donc les trente 1eres lignes) s'affiche, EN LOCAL, en plus de 12
secondes (assez "insupportable" pour les utilisateurs) !!!
Pourtant toutes les clés sont bien positionnées (IDDOCUM, IDDOCUMLG
primaire) et donc impossible, à mon avis, d'optimiser la requète (j'ai aussi
essayé en rendant la table invisible et divers autres astuces sans succès).
Le fichier (la table) comporte aujourd'hui 361000 tuples de longueur 299
octets et grossit en permanence (encore des inquiétudes !).
D'où mes questions:
Pensez vous qu'en HF C/S, ce sera mieux (notammment en réseau
multi-utilisateurs - rappel: essai fait en local) et de quel ordre ?
Dois je migrer en WD 10 (meilleures performances du moteur HF classic ?)
Faut-il vraiment que je migre la base vers MySQL par ex ?
merci pour vos avis
I.G.LOG a formulé la demande :
> WD9 - base HF Classic - requètes
>
>
> Bonjour à tous,
>
> Je cherche depuis plusieurs années (!) à trouver une solution aux
> hyperfile (pour la petite histoire, une appli en WD5.5 avec vues et
> h* donnait de très bon résultats en terme de performances; passée en
> puis 8 et aujourd'hui 9, les performances se sont écroulées... parfois
> jusqu'à 70 fois plus lente)
> Je cherche à améliorer ce code, qui ne fait que de lire une table (à
> d'une requete) et transfere les 30 premières lignes dans une table
>
> Voici le code (ultra-simple):
>
> lCond = "select REFDOC,IDDOCUMLG,DESIGNATION,'',0,0 from DOCUMLG where
> IDDOCUM = 3892 order by IDDOCUMLG"
> si sqlexec(lCond,"ReqI") alors
> sqltable(30,"ReqI","TABLE")
> fin
> sqlferme("ReqI")
>
> La table (donc les trente 1eres lignes) s'affiche, EN LOCAL, en plus de
> secondes (assez "insupportable" pour les utilisateurs) !!!
> Pourtant toutes les clés sont bien positionnées (IDDOCUM, IDDOCUMLG
> primaire) et donc impossible, à mon avis, d'optimiser la requète (j'ai
> essayé en rendant la table invisible et divers autres astuces sans
> Le fichier (la table) comporte aujourd'hui 361000 tuples de longueur 299
> octets et grossit en permanence (encore des inquiétudes !).
>
>
> D'où mes questions:
>
> Pensez vous qu'en HF C/S, ce sera mieux (notammment en réseau
> multi-utilisateurs - rappel: essai fait en local) et de quel ordre ?
> Dois je migrer en WD 10 (meilleures performances du moteur HF classic ?)
> Faut-il vraiment que je migre la base vers MySQL par ex ?
>
> merci pour vos avis
As-tu fais une réindexation ?
Si t'utilises que HyperFile pour faire des requêtes SQL, utilises alors
les fonctions HExecuteRequeteSQL() et Hxxxxxxxx à la place des fonction
SQLxxxxxxxxxx() qui sont (d'après la doc) plus rapide sur HyperFile.
Cordialement
--
Gilles TOURREAU
Responsable informatique
Société P.O.S
Spécialiste en motoculture depuis + de 30 ans !
http://www.pos.fr
I.G.LOG a formulé la demande :
> WD9 - base HF Classic - requètes
>
>
> Bonjour à tous,
>
> Je cherche depuis plusieurs années (!) à trouver une solution aux
> hyperfile (pour la petite histoire, une appli en WD5.5 avec vues et
> h* donnait de très bon résultats en terme de performances; passée en
> puis 8 et aujourd'hui 9, les performances se sont écroulées... parfois
> jusqu'à 70 fois plus lente)
> Je cherche à améliorer ce code, qui ne fait que de lire une table (à
> d'une requete) et transfere les 30 premières lignes dans une table
>
> Voici le code (ultra-simple):
>
> lCond = "select REFDOC,IDDOCUMLG,DESIGNATION,'',0,0 from DOCUMLG where
> IDDOCUM = 3892 order by IDDOCUMLG"
> si sqlexec(lCond,"ReqI") alors
> sqltable(30,"ReqI","TABLE")
> fin
> sqlferme("ReqI")
>
> La table (donc les trente 1eres lignes) s'affiche, EN LOCAL, en plus de
> secondes (assez "insupportable" pour les utilisateurs) !!!
> Pourtant toutes les clés sont bien positionnées (IDDOCUM, IDDOCUMLG
> primaire) et donc impossible, à mon avis, d'optimiser la requète (j'ai
> essayé en rendant la table invisible et divers autres astuces sans
> Le fichier (la table) comporte aujourd'hui 361000 tuples de longueur 299
> octets et grossit en permanence (encore des inquiétudes !).
>
>
> D'où mes questions:
>
> Pensez vous qu'en HF C/S, ce sera mieux (notammment en réseau
> multi-utilisateurs - rappel: essai fait en local) et de quel ordre ?
> Dois je migrer en WD 10 (meilleures performances du moteur HF classic ?)
> Faut-il vraiment que je migre la base vers MySQL par ex ?
>
> merci pour vos avis
As-tu fais une réindexation ?
Si t'utilises que HyperFile pour faire des requêtes SQL, utilises alors
les fonctions HExecuteRequeteSQL() et Hxxxxxxxx à la place des fonction
SQLxxxxxxxxxx() qui sont (d'après la doc) plus rapide sur HyperFile.
Cordialement
--
Gilles TOURREAU
Responsable informatique
gilles.tourreau@pos.fr
Société P.O.S
Spécialiste en motoculture depuis + de 30 ans !
http://www.pos.fr
I.G.LOG a formulé la demande :
> WD9 - base HF Classic - requètes
>
>
> Bonjour à tous,
>
> Je cherche depuis plusieurs années (!) à trouver une solution aux
> hyperfile (pour la petite histoire, une appli en WD5.5 avec vues et
> h* donnait de très bon résultats en terme de performances; passée en
> puis 8 et aujourd'hui 9, les performances se sont écroulées... parfois
> jusqu'à 70 fois plus lente)
> Je cherche à améliorer ce code, qui ne fait que de lire une table (à
> d'une requete) et transfere les 30 premières lignes dans une table
>
> Voici le code (ultra-simple):
>
> lCond = "select REFDOC,IDDOCUMLG,DESIGNATION,'',0,0 from DOCUMLG where
> IDDOCUM = 3892 order by IDDOCUMLG"
> si sqlexec(lCond,"ReqI") alors
> sqltable(30,"ReqI","TABLE")
> fin
> sqlferme("ReqI")
>
> La table (donc les trente 1eres lignes) s'affiche, EN LOCAL, en plus de
> secondes (assez "insupportable" pour les utilisateurs) !!!
> Pourtant toutes les clés sont bien positionnées (IDDOCUM, IDDOCUMLG
> primaire) et donc impossible, à mon avis, d'optimiser la requète (j'ai
> essayé en rendant la table invisible et divers autres astuces sans
> Le fichier (la table) comporte aujourd'hui 361000 tuples de longueur 299
> octets et grossit en permanence (encore des inquiétudes !).
>
>
> D'où mes questions:
>
> Pensez vous qu'en HF C/S, ce sera mieux (notammment en réseau
> multi-utilisateurs - rappel: essai fait en local) et de quel ordre ?
> Dois je migrer en WD 10 (meilleures performances du moteur HF classic ?)
> Faut-il vraiment que je migre la base vers MySQL par ex ?
>
> merci pour vos avis
As-tu fais une réindexation ?
Si t'utilises que HyperFile pour faire des requêtes SQL, utilises alors
les fonctions HExecuteRequeteSQL() et Hxxxxxxxx à la place des fonction
SQLxxxxxxxxxx() qui sont (d'après la doc) plus rapide sur HyperFile.
Cordialement
--
Gilles TOURREAU
Responsable informatique
Société P.O.S
Spécialiste en motoculture depuis + de 30 ans !
http://www.pos.fr
Bonjour et merci pour la réponse.
J'ai déjà essayé avec HExecuteRequeteSQL(), sans que la différence soit
notable. pour ce qui est des ordres H*, je les ai supprimés petit-à-petit
espérant retrouver les performances de l'appli 5.5 (ce qui explique le temps
que j'ai déjà consacré aux modifs)
Toujours dans l'impasse, d'où mes question sur une évenatuelle migration en
C/S et/ou WD10 ou encore une base comme MySQL
"Gilles TOURREAU" a écrit dans le message de
news:I.G.LOG a formulé la demande :WD9 - base HF Classic - requètes
Bonjour à tous,
Je cherche depuis plusieurs années (!) à trouver une solution aux lenteurs
hyperfile (pour la petite histoire, une appli en WD5.5 avec vues et ordres
h* donnait de très bon résultats en terme de performances; passée en 7.5,
puis 8 et aujourd'hui 9, les performances se sont écroulées... parfois
jusqu'à 70 fois plus lente)
Je cherche à améliorer ce code, qui ne fait que de lire une table (à partir
d'une requete) et transfere les 30 premières lignes dans une table mémoire.
Voici le code (ultra-simple):
lCond = "select REFDOC,IDDOCUMLG,DESIGNATION,'',0,0 from DOCUMLG where
IDDOCUM = 3892 order by IDDOCUMLG"
si sqlexec(lCond,"ReqI") alors
sqltable(30,"ReqI","TABLE")
fin
sqlferme("ReqI")
La table (donc les trente 1eres lignes) s'affiche, EN LOCAL, en plus de 12
secondes (assez "insupportable" pour les utilisateurs) !!!
Pourtant toutes les clés sont bien positionnées (IDDOCUM, IDDOCUMLG
primaire) et donc impossible, à mon avis, d'optimiser la requète (j'ai
aussi essayé en rendant la table invisible et divers autres astuces sans
succès). Le fichier (la table) comporte aujourd'hui 361000 tuples de
longueur 299 octets et grossit en permanence (encore des inquiétudes !).
D'où mes questions:
Pensez vous qu'en HF C/S, ce sera mieux (notammment en réseau
multi-utilisateurs - rappel: essai fait en local) et de quel ordre ?
Dois je migrer en WD 10 (meilleures performances du moteur HF classic ?)
Faut-il vraiment que je migre la base vers MySQL par ex ?
merci pour vos avis
As-tu fais une réindexation ?
Si t'utilises que HyperFile pour faire des requêtes SQL, utilises alors
les fonctions HExecuteRequeteSQL() et Hxxxxxxxx à la place des fonction
SQLxxxxxxxxxx() qui sont (d'après la doc) plus rapide sur HyperFile.
Cordialement
--
Gilles TOURREAU
Responsable informatique
Société P.O.S
Spécialiste en motoculture depuis + de 30 ans !
http://www.pos.fr
Bonjour et merci pour la réponse.
J'ai déjà essayé avec HExecuteRequeteSQL(), sans que la différence soit
notable. pour ce qui est des ordres H*, je les ai supprimés petit-à-petit
espérant retrouver les performances de l'appli 5.5 (ce qui explique le temps
que j'ai déjà consacré aux modifs)
Toujours dans l'impasse, d'où mes question sur une évenatuelle migration en
C/S et/ou WD10 ou encore une base comme MySQL
"Gilles TOURREAU" <gilles.tourreau@pos.fr> a écrit dans le message de
news:mn.b4167d68adec1967.52180@pos.fr...
I.G.LOG a formulé la demande :
WD9 - base HF Classic - requètes
Bonjour à tous,
Je cherche depuis plusieurs années (!) à trouver une solution aux lenteurs
hyperfile (pour la petite histoire, une appli en WD5.5 avec vues et ordres
h* donnait de très bon résultats en terme de performances; passée en 7.5,
puis 8 et aujourd'hui 9, les performances se sont écroulées... parfois
jusqu'à 70 fois plus lente)
Je cherche à améliorer ce code, qui ne fait que de lire une table (à partir
d'une requete) et transfere les 30 premières lignes dans une table mémoire.
Voici le code (ultra-simple):
lCond = "select REFDOC,IDDOCUMLG,DESIGNATION,'',0,0 from DOCUMLG where
IDDOCUM = 3892 order by IDDOCUMLG"
si sqlexec(lCond,"ReqI") alors
sqltable(30,"ReqI","TABLE")
fin
sqlferme("ReqI")
La table (donc les trente 1eres lignes) s'affiche, EN LOCAL, en plus de 12
secondes (assez "insupportable" pour les utilisateurs) !!!
Pourtant toutes les clés sont bien positionnées (IDDOCUM, IDDOCUMLG
primaire) et donc impossible, à mon avis, d'optimiser la requète (j'ai
aussi essayé en rendant la table invisible et divers autres astuces sans
succès). Le fichier (la table) comporte aujourd'hui 361000 tuples de
longueur 299 octets et grossit en permanence (encore des inquiétudes !).
D'où mes questions:
Pensez vous qu'en HF C/S, ce sera mieux (notammment en réseau
multi-utilisateurs - rappel: essai fait en local) et de quel ordre ?
Dois je migrer en WD 10 (meilleures performances du moteur HF classic ?)
Faut-il vraiment que je migre la base vers MySQL par ex ?
merci pour vos avis
As-tu fais une réindexation ?
Si t'utilises que HyperFile pour faire des requêtes SQL, utilises alors
les fonctions HExecuteRequeteSQL() et Hxxxxxxxx à la place des fonction
SQLxxxxxxxxxx() qui sont (d'après la doc) plus rapide sur HyperFile.
Cordialement
--
Gilles TOURREAU
Responsable informatique
gilles.tourreau@pos.fr
Société P.O.S
Spécialiste en motoculture depuis + de 30 ans !
http://www.pos.fr
Bonjour et merci pour la réponse.
J'ai déjà essayé avec HExecuteRequeteSQL(), sans que la différence soit
notable. pour ce qui est des ordres H*, je les ai supprimés petit-à-petit
espérant retrouver les performances de l'appli 5.5 (ce qui explique le temps
que j'ai déjà consacré aux modifs)
Toujours dans l'impasse, d'où mes question sur une évenatuelle migration en
C/S et/ou WD10 ou encore une base comme MySQL
"Gilles TOURREAU" a écrit dans le message de
news:I.G.LOG a formulé la demande :WD9 - base HF Classic - requètes
Bonjour à tous,
Je cherche depuis plusieurs années (!) à trouver une solution aux lenteurs
hyperfile (pour la petite histoire, une appli en WD5.5 avec vues et ordres
h* donnait de très bon résultats en terme de performances; passée en 7.5,
puis 8 et aujourd'hui 9, les performances se sont écroulées... parfois
jusqu'à 70 fois plus lente)
Je cherche à améliorer ce code, qui ne fait que de lire une table (à partir
d'une requete) et transfere les 30 premières lignes dans une table mémoire.
Voici le code (ultra-simple):
lCond = "select REFDOC,IDDOCUMLG,DESIGNATION,'',0,0 from DOCUMLG where
IDDOCUM = 3892 order by IDDOCUMLG"
si sqlexec(lCond,"ReqI") alors
sqltable(30,"ReqI","TABLE")
fin
sqlferme("ReqI")
La table (donc les trente 1eres lignes) s'affiche, EN LOCAL, en plus de 12
secondes (assez "insupportable" pour les utilisateurs) !!!
Pourtant toutes les clés sont bien positionnées (IDDOCUM, IDDOCUMLG
primaire) et donc impossible, à mon avis, d'optimiser la requète (j'ai
aussi essayé en rendant la table invisible et divers autres astuces sans
succès). Le fichier (la table) comporte aujourd'hui 361000 tuples de
longueur 299 octets et grossit en permanence (encore des inquiétudes !).
D'où mes questions:
Pensez vous qu'en HF C/S, ce sera mieux (notammment en réseau
multi-utilisateurs - rappel: essai fait en local) et de quel ordre ?
Dois je migrer en WD 10 (meilleures performances du moteur HF classic ?)
Faut-il vraiment que je migre la base vers MySQL par ex ?
merci pour vos avis
As-tu fais une réindexation ?
Si t'utilises que HyperFile pour faire des requêtes SQL, utilises alors
les fonctions HExecuteRequeteSQL() et Hxxxxxxxx à la place des fonction
SQLxxxxxxxxxx() qui sont (d'après la doc) plus rapide sur HyperFile.
Cordialement
--
Gilles TOURREAU
Responsable informatique
Société P.O.S
Spécialiste en motoculture depuis + de 30 ans !
http://www.pos.fr
Après vérif, les fichiers sont en mode compatible 5.5 (l'appli a été migrée
de cette version). En passant sans les espaces, ce serait plus rapide ?
Pourtant, dans la requete en exemple, les clés sont des entiers ?!
Après vérif, les fichiers sont en mode compatible 5.5 (l'appli a été migrée
de cette version). En passant sans les espaces, ce serait plus rapide ?
Pourtant, dans la requete en exemple, les clés sont des entiers ?!
Après vérif, les fichiers sont en mode compatible 5.5 (l'appli a été migrée
de cette version). En passant sans les espaces, ce serait plus rapide ?
Pourtant, dans la requete en exemple, les clés sont des entiers ?!
J'ai passé tous le fichiers en mode classic (champs terminés par /0). sur
la
requete que je donne en exemple, je passe de 12 sec à 10. malheureusement
toujours pas "admissible" pour les utilisateurs. Mes questions sont donc
toujours d'actualité: C/S, WD10, MySQL
Encore merci pour vos avis (merci à Gilles notamment)
J'ai passé tous le fichiers en mode classic (champs terminés par /0). sur
la
requete que je donne en exemple, je passe de 12 sec à 10. malheureusement
toujours pas "admissible" pour les utilisateurs. Mes questions sont donc
toujours d'actualité: C/S, WD10, MySQL
Encore merci pour vos avis (merci à Gilles notamment)
J'ai passé tous le fichiers en mode classic (champs terminés par /0). sur
la
requete que je donne en exemple, je passe de 12 sec à 10. malheureusement
toujours pas "admissible" pour les utilisateurs. Mes questions sont donc
toujours d'actualité: C/S, WD10, MySQL
Encore merci pour vos avis (merci à Gilles notamment)
J'ai passé tous le fichiers en mode classic (champs terminés par /0). sur la
requete que je donne en exemple, je passe de 12 sec à 10. malheureusement
toujours pas "admissible" pour les utilisateurs. Mes questions sont donc
toujours d'actualité: C/S, WD10, MySQL
Encore merci pour vos avis (merci à Gilles notamment)
J'ai passé tous le fichiers en mode classic (champs terminés par /0). sur la
requete que je donne en exemple, je passe de 12 sec à 10. malheureusement
toujours pas "admissible" pour les utilisateurs. Mes questions sont donc
toujours d'actualité: C/S, WD10, MySQL
Encore merci pour vos avis (merci à Gilles notamment)
J'ai passé tous le fichiers en mode classic (champs terminés par /0). sur la
requete que je donne en exemple, je passe de 12 sec à 10. malheureusement
toujours pas "admissible" pour les utilisateurs. Mes questions sont donc
toujours d'actualité: C/S, WD10, MySQL
Encore merci pour vos avis (merci à Gilles notamment)
Voici le code (ultra-simple):
lCond = "select REFDOC,IDDOCUMLG,DESIGNATION,'',0,0 from DOCUMLG where
IDDOCUM = 3892 order by IDDOCUMLG"
si sqlexec(lCond,"ReqI") alors
sqltable(30,"ReqI","TABLE")
fin
sqlferme("ReqI")
La table (donc les trente 1eres lignes) s'affiche, EN LOCAL, en plus de 12
secondes (assez "insupportable" pour les utilisateurs) !!!
Pourtant toutes les clés sont bien positionnées (IDDOCUM, IDDOCUMLG
primaire) et donc impossible, à mon avis, d'optimiser la requète (j'ai aussi
essayé en rendant la table invisible et divers autres astuces sans succès).
Pensez vous qu'en HF C/S, ce sera mieux (notammment en réseau
multi-utilisateurs - rappel: essai fait en local) et de quel ordre ?
Dois je migrer en WD 10 (meilleures performances du moteur HF classic ?)
Faut-il vraiment que je migre la base vers MySQL par ex ?
Voici le code (ultra-simple):
lCond = "select REFDOC,IDDOCUMLG,DESIGNATION,'',0,0 from DOCUMLG where
IDDOCUM = 3892 order by IDDOCUMLG"
si sqlexec(lCond,"ReqI") alors
sqltable(30,"ReqI","TABLE")
fin
sqlferme("ReqI")
La table (donc les trente 1eres lignes) s'affiche, EN LOCAL, en plus de 12
secondes (assez "insupportable" pour les utilisateurs) !!!
Pourtant toutes les clés sont bien positionnées (IDDOCUM, IDDOCUMLG
primaire) et donc impossible, à mon avis, d'optimiser la requète (j'ai aussi
essayé en rendant la table invisible et divers autres astuces sans succès).
Pensez vous qu'en HF C/S, ce sera mieux (notammment en réseau
multi-utilisateurs - rappel: essai fait en local) et de quel ordre ?
Dois je migrer en WD 10 (meilleures performances du moteur HF classic ?)
Faut-il vraiment que je migre la base vers MySQL par ex ?
Voici le code (ultra-simple):
lCond = "select REFDOC,IDDOCUMLG,DESIGNATION,'',0,0 from DOCUMLG where
IDDOCUM = 3892 order by IDDOCUMLG"
si sqlexec(lCond,"ReqI") alors
sqltable(30,"ReqI","TABLE")
fin
sqlferme("ReqI")
La table (donc les trente 1eres lignes) s'affiche, EN LOCAL, en plus de 12
secondes (assez "insupportable" pour les utilisateurs) !!!
Pourtant toutes les clés sont bien positionnées (IDDOCUM, IDDOCUMLG
primaire) et donc impossible, à mon avis, d'optimiser la requète (j'ai aussi
essayé en rendant la table invisible et divers autres astuces sans succès).
Pensez vous qu'en HF C/S, ce sera mieux (notammment en réseau
multi-utilisateurs - rappel: essai fait en local) et de quel ordre ?
Dois je migrer en WD 10 (meilleures performances du moteur HF classic ?)
Faut-il vraiment que je migre la base vers MySQL par ex ?