OVH Cloud OVH Cloud

12000 lignes vers table

2 réponses
Avatar
LeBuss
Salut à tous,
j'ai des fichiers csv d'environ 12000 lignes chaqun à stocker dans une
table.
Quel est le bon moyen d'y parvenir ?
J'en suis à une boucle de 12000 itérations, un explode puis un insert to
par itérations mais je pense qu'il y plus beau

Merci d'avance

2 réponses

Avatar
Denis Beauregard
Le 29 Dec 2004 10:54:09 GMT, LeBuss écrivait dans
fr.comp.lang.php:

Salut à tous,
j'ai des fichiers csv d'environ 12000 lignes chaqun à stocker dans une
table.
Quel est le bon moyen d'y parvenir ?
J'en suis à une boucle de 12000 itérations, un explode puis un insert to
par itérations mais je pense qu'il y plus beau


phpmyadmin le fait en une étape.


Denis

Avatar
bruno modulix
LeBuss wrote:
Salut à tous,
j'ai des fichiers csv d'environ 12000 lignes chaqun à stocker dans une
table.
Quel est le bon moyen d'y parvenir ?
J'en suis à une boucle de 12000 itérations, un explode puis un insert to
par itérations mais je pense qu'il y plus beau



La plupart des SGBDR :
- acceptent des requêtes multilignes, ie :
<code>
insert into MA_TABLE values(...);
insert into MA_TABLE values(...);
insert into MA_TABLE values(...);
...
</code>
ce qui permet d'envoyer une seule requête au lieu de 12000,

- et offrent un moyen d'importer directement un fichier csv dans une
table - si la structure correspond pile poil, bien sûr - ('copy' sous
pgsql, 'load data' pour MySQL, etc, cf la doc de ton SGBDR)


Merci d'avance


De rien

--
bruno desthuilliers
ruby -e "print ''.split('@').collect{|p|
p.split('.').collect{|w| w.reverse}.join('.')}.join('@')"
--