Salut à tous,
j'ai des fichiers csv d'environ 12000 lignes chaqun à stocker dans une
table.
Quel est le bon moyen d'y parvenir ?
J'en suis à une boucle de 12000 itérations, un explode puis un insert to
par itérations mais je pense qu'il y plus beau
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Denis Beauregard
Le 29 Dec 2004 10:54:09 GMT, LeBuss écrivait dans fr.comp.lang.php:
Salut à tous, j'ai des fichiers csv d'environ 12000 lignes chaqun à stocker dans une table. Quel est le bon moyen d'y parvenir ? J'en suis à une boucle de 12000 itérations, un explode puis un insert to par itérations mais je pense qu'il y plus beau
phpmyadmin le fait en une étape.
Denis
Le 29 Dec 2004 10:54:09 GMT, LeBuss <lebuss@yahoo.fr> écrivait dans
fr.comp.lang.php:
Salut à tous,
j'ai des fichiers csv d'environ 12000 lignes chaqun à stocker dans une
table.
Quel est le bon moyen d'y parvenir ?
J'en suis à une boucle de 12000 itérations, un explode puis un insert to
par itérations mais je pense qu'il y plus beau
Le 29 Dec 2004 10:54:09 GMT, LeBuss écrivait dans fr.comp.lang.php:
Salut à tous, j'ai des fichiers csv d'environ 12000 lignes chaqun à stocker dans une table. Quel est le bon moyen d'y parvenir ? J'en suis à une boucle de 12000 itérations, un explode puis un insert to par itérations mais je pense qu'il y plus beau
phpmyadmin le fait en une étape.
Denis
bruno modulix
LeBuss wrote:
Salut à tous, j'ai des fichiers csv d'environ 12000 lignes chaqun à stocker dans une table. Quel est le bon moyen d'y parvenir ? J'en suis à une boucle de 12000 itérations, un explode puis un insert to par itérations mais je pense qu'il y plus beau
La plupart des SGBDR : - acceptent des requêtes multilignes, ie : <code> insert into MA_TABLE values(...); insert into MA_TABLE values(...); insert into MA_TABLE values(...); ... </code> ce qui permet d'envoyer une seule requête au lieu de 12000,
- et offrent un moyen d'importer directement un fichier csv dans une table - si la structure correspond pile poil, bien sûr - ('copy' sous pgsql, 'load data' pour MySQL, etc, cf la doc de ton SGBDR)
Merci d'avance
De rien
-- bruno desthuilliers ruby -e "print ''.split('@').collect{|p| p.split('.').collect{|w| w.reverse}.join('.')}.join('@')" --
LeBuss wrote:
Salut à tous,
j'ai des fichiers csv d'environ 12000 lignes chaqun à stocker dans une
table.
Quel est le bon moyen d'y parvenir ?
J'en suis à une boucle de 12000 itérations, un explode puis un insert to
par itérations mais je pense qu'il y plus beau
La plupart des SGBDR :
- acceptent des requêtes multilignes, ie :
<code>
insert into MA_TABLE values(...);
insert into MA_TABLE values(...);
insert into MA_TABLE values(...);
...
</code>
ce qui permet d'envoyer une seule requête au lieu de 12000,
- et offrent un moyen d'importer directement un fichier csv dans une
table - si la structure correspond pile poil, bien sûr - ('copy' sous
pgsql, 'load data' pour MySQL, etc, cf la doc de ton SGBDR)
Merci d'avance
De rien
--
bruno desthuilliers
ruby -e "print 'onurb@xiludom.gro'.split('@').collect{|p|
p.split('.').collect{|w| w.reverse}.join('.')}.join('@')"
--
Salut à tous, j'ai des fichiers csv d'environ 12000 lignes chaqun à stocker dans une table. Quel est le bon moyen d'y parvenir ? J'en suis à une boucle de 12000 itérations, un explode puis un insert to par itérations mais je pense qu'il y plus beau
La plupart des SGBDR : - acceptent des requêtes multilignes, ie : <code> insert into MA_TABLE values(...); insert into MA_TABLE values(...); insert into MA_TABLE values(...); ... </code> ce qui permet d'envoyer une seule requête au lieu de 12000,
- et offrent un moyen d'importer directement un fichier csv dans une table - si la structure correspond pile poil, bien sûr - ('copy' sous pgsql, 'load data' pour MySQL, etc, cf la doc de ton SGBDR)
Merci d'avance
De rien
-- bruno desthuilliers ruby -e "print ''.split('@').collect{|p| p.split('.').collect{|w| w.reverse}.join('.')}.join('@')" --