J'ai 2 tableaux imbriqu=E9s dans 2 boucles for.
Je constate une importante d=E9gradation des performances lorsque la
quantit=E9 des =E9l=E9ments augmentent dans les tableaux.
Mon premier tableau est de type objet (int,int,int,{variable},int,int)
~ 1000 =E9l=E9ments
Mon deuxi=E8me tableau est de type scalaire
(int,int,double,String,String,int,String,double,String,String,double,
String) ~ 10 000 =E9l=E9ments
Plus on avance dans la boucle, plus la vitesse de traitement diminue.
Est-ce qu'il existe une limite =E0 ne pas d=E9passer dans le nombre des
=E9l=E9ments.
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
fabrice.pas-de-spam.bacchella
On 9 Oct 2006 13:39:33 -0700, wrote:
Bonjour,
J'ai 2 tableaux imbriqués dans 2 boucles for. Je constate une importante dégradation des performances lorsque la quantité des éléments augmentent dans les tableaux.
Mon premier tableau est de type objet (int,int,int,{variable},int,int) ~ 1000 éléments Mon deuxième tableau est de type scalaire (int,int,double,String,String,int,String,double,String,String,double, String) ~ 10 000 éléments
Plus on avance dans la boucle, plus la vitesse de traitement diminue.
Est-ce qu'il existe une limite à ne pas dépasser dans le nombre des éléments.
Est-ce normal, peut-on contourner ce problème ?
C'est pas plutôt des cout de GC qui plombent la vitesse moyenne ? Regarder avec jconsole si la baisse de vitesse instantané correspond a des phases de GC.
Merci.
On 9 Oct 2006 13:39:33 -0700, cibox@laposte.net wrote:
Bonjour,
J'ai 2 tableaux imbriqués dans 2 boucles for.
Je constate une importante dégradation des performances lorsque la
quantité des éléments augmentent dans les tableaux.
Mon premier tableau est de type objet (int,int,int,{variable},int,int)
~ 1000 éléments
Mon deuxième tableau est de type scalaire
(int,int,double,String,String,int,String,double,String,String,double,
String) ~ 10 000 éléments
Plus on avance dans la boucle, plus la vitesse de traitement diminue.
Est-ce qu'il existe une limite à ne pas dépasser dans le nombre des
éléments.
Est-ce normal, peut-on contourner ce problème ?
C'est pas plutôt des cout de GC qui plombent la vitesse moyenne ?
Regarder avec jconsole si la baisse de vitesse instantané correspond a
des phases de GC.
J'ai 2 tableaux imbriqués dans 2 boucles for. Je constate une importante dégradation des performances lorsque la quantité des éléments augmentent dans les tableaux.
Mon premier tableau est de type objet (int,int,int,{variable},int,int) ~ 1000 éléments Mon deuxième tableau est de type scalaire (int,int,double,String,String,int,String,double,String,String,double, String) ~ 10 000 éléments
Plus on avance dans la boucle, plus la vitesse de traitement diminue.
Est-ce qu'il existe une limite à ne pas dépasser dans le nombre des éléments.
Est-ce normal, peut-on contourner ce problème ?
C'est pas plutôt des cout de GC qui plombent la vitesse moyenne ? Regarder avec jconsole si la baisse de vitesse instantané correspond a des phases de GC.
Merci.
TestMan
Bonjour,
J'ai 2 tableaux imbriqués dans 2 boucles for. Je constate une importante dégradation des performances lorsque la quantité des éléments augmentent dans les tableaux.
Mon premier tableau est de type objet (int,int,int,{variable},int,int) ~ 1000 éléments Mon deuxième tableau est de type scalaire (int,int,double,String,String,int,String,double,String,String,double, String) ~ 10 000 éléments
Plus on avance dans la boucle, plus la vitesse de traitement diminue.
Est-ce qu'il existe une limite à ne pas dépasser dans le nombre des éléments.
Est-ce normal, peut-on contourner ce problème ?
Merci.
Bjr,
Peux tu fournir un exemple de code et préciser également ce que tu entends par "type scalaire" ?
A+ TM
Bonjour,
J'ai 2 tableaux imbriqués dans 2 boucles for.
Je constate une importante dégradation des performances lorsque la
quantité des éléments augmentent dans les tableaux.
Mon premier tableau est de type objet (int,int,int,{variable},int,int)
~ 1000 éléments
Mon deuxième tableau est de type scalaire
(int,int,double,String,String,int,String,double,String,String,double,
String) ~ 10 000 éléments
Plus on avance dans la boucle, plus la vitesse de traitement diminue.
Est-ce qu'il existe une limite à ne pas dépasser dans le nombre des
éléments.
Est-ce normal, peut-on contourner ce problème ?
Merci.
Bjr,
Peux tu fournir un exemple de code et préciser également ce que tu
entends par "type scalaire" ?
J'ai 2 tableaux imbriqués dans 2 boucles for. Je constate une importante dégradation des performances lorsque la quantité des éléments augmentent dans les tableaux.
Mon premier tableau est de type objet (int,int,int,{variable},int,int) ~ 1000 éléments Mon deuxième tableau est de type scalaire (int,int,double,String,String,int,String,double,String,String,double, String) ~ 10 000 éléments
Plus on avance dans la boucle, plus la vitesse de traitement diminue.
Est-ce qu'il existe une limite à ne pas dépasser dans le nombre des éléments.
Est-ce normal, peut-on contourner ce problème ?
Merci.
Bjr,
Peux tu fournir un exemple de code et préciser également ce que tu entends par "type scalaire" ?