J'ai un site réalisé avec un CMS dont j'aimerais faire une co pie
fonctionnelle en locale.
Après une recherche sur le net, j'ai l'impression qu'avec wget il n'y a
aucune solution, mais bon, sait-on jamais...
J'ai un site réalisé avec un CMS dont j'aimerais faire une co pie
fonctionnelle en locale.
Après une recherche sur le net, j'ai l'impression qu'avec wget il n'y a
aucune solution, mais bon, sait-on jamais...
J'ai un site réalisé avec un CMS dont j'aimerais faire une co pie
fonctionnelle en locale.
Après une recherche sur le net, j'ai l'impression qu'avec wget il n'y a
aucune solution, mais bon, sait-on jamais...
Bonjour,
J'ai un site réalisé avec un CMS dont j'aimerais faire une copie
fonctionnelle en local.
J'utilise wget mais il m'est impossible de faire fonctionner
correctement le site en local: en effet, avec un CMS, un répertoire
est également une page web affichant du contenu: Mais wget crée
simplement un répertoire sans son contenu.
voici la commande que j'utilise:
wget -mkp -nH -F http://monsite.fr/
et, par exemple, à la fin du téléchargeùment du site, lors de la
création des liens locaux j'ai plein de:
*Systeme/Securite: est un dossier*
*Conversion de Systeme/Securite...rien à faire.*
(où *Securite* est un dossier comportant du contenu que j'aimerais
bien pouvoir afficher).
Après une recherche sur le net, j'ai l'impression qu'avec wget il n'y
a aucune solution, mais bon, sait-on jamais...
Merci d'avance.
Bonjour,
J'ai un site réalisé avec un CMS dont j'aimerais faire une copie
fonctionnelle en local.
J'utilise wget mais il m'est impossible de faire fonctionner
correctement le site en local: en effet, avec un CMS, un répertoire
est également une page web affichant du contenu: Mais wget crée
simplement un répertoire sans son contenu.
voici la commande que j'utilise:
wget -mkp -nH -F http://monsite.fr/
et, par exemple, à la fin du téléchargeùment du site, lors de la
création des liens locaux j'ai plein de:
*Systeme/Securite: est un dossier*
*Conversion de Systeme/Securite...rien à faire.*
(où *Securite* est un dossier comportant du contenu que j'aimerais
bien pouvoir afficher).
Après une recherche sur le net, j'ai l'impression qu'avec wget il n'y
a aucune solution, mais bon, sait-on jamais...
Merci d'avance.
Bonjour,
J'ai un site réalisé avec un CMS dont j'aimerais faire une copie
fonctionnelle en local.
J'utilise wget mais il m'est impossible de faire fonctionner
correctement le site en local: en effet, avec un CMS, un répertoire
est également une page web affichant du contenu: Mais wget crée
simplement un répertoire sans son contenu.
voici la commande que j'utilise:
wget -mkp -nH -F http://monsite.fr/
et, par exemple, à la fin du téléchargeùment du site, lors de la
création des liens locaux j'ai plein de:
*Systeme/Securite: est un dossier*
*Conversion de Systeme/Securite...rien à faire.*
(où *Securite* est un dossier comportant du contenu que j'aimerais
bien pouvoir afficher).
Après une recherche sur le net, j'ai l'impression qu'avec wget il n'y
a aucune solution, mais bon, sait-on jamais...
Merci d'avance.
Le Mon, 28 Jan 2013 23:04:34 +0100,
Luxpopuli Open source a écrit :
> Bonjour,
>
> J'ai un site réalisé avec un CMS dont j'aimerais faire une copie
> fonctionnelle en local.
> J'utilise wget mais il m'est impossible de faire fonctionner
> correctement le site en local: en effet, avec un CMS, un répertoire
> est également une page web affichant du contenu: Mais wget crée
> simplement un répertoire sans son contenu.
>
> voici la commande que j'utilise:
>
> wget -mkp -nH -F http://monsite.fr/
>
> et, par exemple, à la fin du téléchargeùment du site, lors de l a
> création des liens locaux j'ai plein de:
>
> *Systeme/Securite: est un dossier*
> *Conversion de Systeme/Securite...rien à faire.*
>
> (où *Securite* est un dossier comportant du contenu que j'aimerais
> bien pouvoir afficher).
>
> Après une recherche sur le net, j'ai l'impression qu'avec wget il n'y
> a aucune solution, mais bon, sait-on jamais...
>
> Merci d'avance.
bonjour,
pourquoi vouloir s'escrimer avec wget alors que curl le fait si
bien
ou en alternative wput ...
dans le cas où ssh soit possible scp permet de faire des miracl es
et ainsi copier toute une arborescence
pourquoi ne pas réaliser une archive tbz2 et ainsi la télév erser?
slt
bernard
--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">http://wiki.debian.org/fr/FrenchLists
Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Archive:
http://lists.debian.org/ fr
Le Mon, 28 Jan 2013 23:04:34 +0100,
Luxpopuli Open source <luxpopuli07@gmail.com> a écrit :
> Bonjour,
>
> J'ai un site réalisé avec un CMS dont j'aimerais faire une copie
> fonctionnelle en local.
> J'utilise wget mais il m'est impossible de faire fonctionner
> correctement le site en local: en effet, avec un CMS, un répertoire
> est également une page web affichant du contenu: Mais wget crée
> simplement un répertoire sans son contenu.
>
> voici la commande que j'utilise:
>
> wget -mkp -nH -F http://monsite.fr/
>
> et, par exemple, à la fin du téléchargeùment du site, lors de l a
> création des liens locaux j'ai plein de:
>
> *Systeme/Securite: est un dossier*
> *Conversion de Systeme/Securite...rien à faire.*
>
> (où *Securite* est un dossier comportant du contenu que j'aimerais
> bien pouvoir afficher).
>
> Après une recherche sur le net, j'ai l'impression qu'avec wget il n'y
> a aucune solution, mais bon, sait-on jamais...
>
> Merci d'avance.
bonjour,
pourquoi vouloir s'escrimer avec wget alors que curl le fait si
bien
ou en alternative wput ...
dans le cas où ssh soit possible scp permet de faire des miracl es
et ainsi copier toute une arborescence
pourquoi ne pas réaliser une archive tbz2 et ainsi la télév erser?
slt
bernard
--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists
Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers debian-user-french-REQUEST@lists.debian.org
En cas de soucis, contactez EN ANGLAIS listmaster@lists.debian.org
Archive:
http://lists.debian.org/20130129161025.123408ab.bernard.schoenacker@free. fr
Le Mon, 28 Jan 2013 23:04:34 +0100,
Luxpopuli Open source a écrit :
> Bonjour,
>
> J'ai un site réalisé avec un CMS dont j'aimerais faire une copie
> fonctionnelle en local.
> J'utilise wget mais il m'est impossible de faire fonctionner
> correctement le site en local: en effet, avec un CMS, un répertoire
> est également une page web affichant du contenu: Mais wget crée
> simplement un répertoire sans son contenu.
>
> voici la commande que j'utilise:
>
> wget -mkp -nH -F http://monsite.fr/
>
> et, par exemple, à la fin du téléchargeùment du site, lors de l a
> création des liens locaux j'ai plein de:
>
> *Systeme/Securite: est un dossier*
> *Conversion de Systeme/Securite...rien à faire.*
>
> (où *Securite* est un dossier comportant du contenu que j'aimerais
> bien pouvoir afficher).
>
> Après une recherche sur le net, j'ai l'impression qu'avec wget il n'y
> a aucune solution, mais bon, sait-on jamais...
>
> Merci d'avance.
bonjour,
pourquoi vouloir s'escrimer avec wget alors que curl le fait si
bien
ou en alternative wput ...
dans le cas où ssh soit possible scp permet de faire des miracl es
et ainsi copier toute une arborescence
pourquoi ne pas réaliser une archive tbz2 et ainsi la télév erser?
slt
bernard
--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists" target="_blank" class="text-blue hover:opacity-90 " style="word-break: break-all;" rel="noopener nofollow">http://wiki.debian.org/fr/FrenchLists
Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers
En cas de soucis, contactez EN ANGLAIS
Archive:
http://lists.debian.org/ fr
J'utilise wget mais il m'est impossible de faire fonctionner
correctement li site en local: en effet, avec un CMS, un répertoire
est également une page web affichant du contenu: Mais wget crée
simplement un répertoire sans son contenu.
J'utilise wget mais il m'est impossible de faire fonctionner
correctement li site en local: en effet, avec un CMS, un répertoire
est également une page web affichant du contenu: Mais wget crée
simplement un répertoire sans son contenu.
J'utilise wget mais il m'est impossible de faire fonctionner
correctement li site en local: en effet, avec un CMS, un répertoire
est également une page web affichant du contenu: Mais wget crée
simplement un répertoire sans son contenu.
pourquoi vouloir s'escrimer avec wget alors que curl le fait
si bien
pourquoi vouloir s'escrimer avec wget alors que curl le fait
si bien
pourquoi vouloir s'escrimer avec wget alors que curl le fait
si bien
Bonjour,
Logiquement le client ne récupère que le résultat du code exécu té par
le serveur (php, perl, shell etc...)
Bonsoir,
J'espère que "wget" ne peut pas copier les scripts PHP
des fichiers d'un site Web ?
(càd uniquement les scripts exécutés dans le navigateur
et pas ceux excutés dans le serveur).
André
Bonjour,
Logiquement le client ne récupère que le résultat du code exécu té par
le serveur (php, perl, shell etc...)
Bonsoir,
J'espère que "wget" ne peut pas copier les scripts PHP
des fichiers d'un site Web ?
(càd uniquement les scripts exécutés dans le navigateur
et pas ceux excutés dans le serveur).
André
Bonjour,
Logiquement le client ne récupère que le résultat du code exécu té par
le serveur (php, perl, shell etc...)
Bonsoir,
J'espère que "wget" ne peut pas copier les scripts PHP
des fichiers d'un site Web ?
(càd uniquement les scripts exécutés dans le navigateur
et pas ceux excutés dans le serveur).
André
Le 19/05/2013 06:50, Belaïd MOUNSI a écrit :
> Bonjour,
> Logiquement le client ne récupère que le résultat du code exécu té par
> le serveur (php, perl, shell etc...)
> J'espère que "wget" ne peut pas copier les scripts PHP
> des fichiers d'un site Web ?
> (càd uniquement les scripts exécutés dans le navigateur
> et pas ceux excutés dans le serveur).
> André
--> À ceci près qu'il faut que le serveur web interprétât tous les
fichiers PHP comme étant des scripts. Par exemple, si tu t'installes un
Nginx sans php-fpm, tu retrouves directement le contenu des fichiers PHP.
Mais sinon, que cherches-tu à faire précisément ? Si c'est récup érer des
scripts PHP de sites en production que tu ne possèdes pas, c'est /a
priori/ peine perdue par ce moyen ; si tu cherches à faire une copie de
tes scripts, utilise plutôt un scp, rsync (ou un scm (mais bon, ça
dépend de l'utilisation qu'on veut en faire (précision))).
Le 19/05/2013 06:50, Belaïd MOUNSI a écrit :
> Bonjour,
> Logiquement le client ne récupère que le résultat du code exécu té par
> le serveur (php, perl, shell etc...)
> J'espère que "wget" ne peut pas copier les scripts PHP
> des fichiers d'un site Web ?
> (càd uniquement les scripts exécutés dans le navigateur
> et pas ceux excutés dans le serveur).
> André
--> À ceci près qu'il faut que le serveur web interprétât tous les
fichiers PHP comme étant des scripts. Par exemple, si tu t'installes un
Nginx sans php-fpm, tu retrouves directement le contenu des fichiers PHP.
Mais sinon, que cherches-tu à faire précisément ? Si c'est récup érer des
scripts PHP de sites en production que tu ne possèdes pas, c'est /a
priori/ peine perdue par ce moyen ; si tu cherches à faire une copie de
tes scripts, utilise plutôt un scp, rsync (ou un scm (mais bon, ça
dépend de l'utilisation qu'on veut en faire (précision))).
Le 19/05/2013 06:50, Belaïd MOUNSI a écrit :
> Bonjour,
> Logiquement le client ne récupère que le résultat du code exécu té par
> le serveur (php, perl, shell etc...)
> J'espère que "wget" ne peut pas copier les scripts PHP
> des fichiers d'un site Web ?
> (càd uniquement les scripts exécutés dans le navigateur
> et pas ceux excutés dans le serveur).
> André
--> À ceci près qu'il faut que le serveur web interprétât tous les
fichiers PHP comme étant des scripts. Par exemple, si tu t'installes un
Nginx sans php-fpm, tu retrouves directement le contenu des fichiers PHP.
Mais sinon, que cherches-tu à faire précisément ? Si c'est récup érer des
scripts PHP de sites en production que tu ne possèdes pas, c'est /a
priori/ peine perdue par ce moyen ; si tu cherches à faire une copie de
tes scripts, utilise plutôt un scp, rsync (ou un scm (mais bon, ça
dépend de l'utilisation qu'on veut en faire (précision))).
"wget" (ou outils équivalents) aspire les fichiers "html" et uniquement
les scripts html, javascript ... càd que les scripts exécutés dans le navigateur.
Ce serait très ennuyeux si il capte les scripts php car certains peuvent contenir
des login + mot de passe ...
"wget" (ou outils équivalents) aspire les fichiers "html" et uniquement
les scripts html, javascript ... càd que les scripts exécutés dans le navigateur.
Ce serait très ennuyeux si il capte les scripts php car certains peuvent contenir
des login + mot de passe ...
"wget" (ou outils équivalents) aspire les fichiers "html" et uniquement
les scripts html, javascript ... càd que les scripts exécutés dans le navigateur.
Ce serait très ennuyeux si il capte les scripts php car certains peuvent contenir
des login + mot de passe ...