J'ai une liste d'URL (http) que je dois consulter =E0 intervalle
r=E9gulier. Ce sont des pages dynamiques (au sens : cr=E9=E9es au moment de
leur acc=E8s). Actuellement, j'ai simplement une liste de signets dans mon
navigateur favori et je les lance manuellement. C'est finalement assez
long et p=E9nible.
J'aimerais donc faire un script qui mette automatiquement dans un
r=E9pertoire une copie HTML de l'ensemble des pages acc=E9d=E9es pour que je
puisse, ensuite, les lire en local plus rapidement. (Pour chaque URL,
une seule page m'int=E9resse, pas tout un site.)
Auriez-vous des outils =E0 me conseiller pour faire cela ? (Je sais faire
un script Shell, ce sont les outils d'acc=E8s en ligne de commande =E0 une
page Web, avec sauvegarde de cette page, qui m'int=E9ressent ici mais que
je ne connais pas.) Merci.
Amiti=E9s,
[CITATION AL=C9ATOIRE : Il n'y a rien de nouveau dans l'art except=E9 le
talent. Anton Tchekhov]
--=20
Pierre Crescenzo
mailto:Pierre@crescenzo.nom.fr
http://www.crescenzo.nom.fr/
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Seb
Pierre Crescenzo a écrit :
Bonjour,
Bonjour,
[...]
J'aimerais donc faire un script qui mette automatiquement dans un répertoire une copie HTML de l'ensemble des pages accédées pour que je puisse, ensuite, les lire en local plus rapidement. (Pour chaque URL, une seule page m'intéresse, pas tout un site.)
Auriez-vous des outils à me conseiller pour faire cela ? (Je sais faire un script Shell, ce sont les outils d'accès en ligne de commande à une page Web, avec sauvegarde de cette page, qui m'intéressent ici mais que je ne connais pas.) Merci.
Ça m'a tout l'air d'un boulot pour wget... wget <url> sauvegarde le fichier pointé par url sur le disque dur.
Seb
-- Lisez la FAQ de la liste avant de poser une question : http://wiki.debian.net/?DebianFrench Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et "Reply-To:"
To UNSUBSCRIBE, email to with a subject of "unsubscribe". Trouble? Contact
Pierre Crescenzo a écrit :
Bonjour,
Bonjour,
[...]
J'aimerais donc faire un script qui mette automatiquement dans un
répertoire une copie HTML de l'ensemble des pages accédées pour que je
puisse, ensuite, les lire en local plus rapidement. (Pour chaque URL,
une seule page m'intéresse, pas tout un site.)
Auriez-vous des outils à me conseiller pour faire cela ? (Je sais faire
un script Shell, ce sont les outils d'accès en ligne de commande à une
page Web, avec sauvegarde de cette page, qui m'intéressent ici mais que
je ne connais pas.) Merci.
Ça m'a tout l'air d'un boulot pour wget...
wget <url> sauvegarde le fichier pointé par url sur le disque dur.
Seb
--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.net/?DebianFrench
Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et
"Reply-To:"
To UNSUBSCRIBE, email to debian-user-french-REQUEST@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmaster@lists.debian.org
J'aimerais donc faire un script qui mette automatiquement dans un répertoire une copie HTML de l'ensemble des pages accédées pour que je puisse, ensuite, les lire en local plus rapidement. (Pour chaque URL, une seule page m'intéresse, pas tout un site.)
Auriez-vous des outils à me conseiller pour faire cela ? (Je sais faire un script Shell, ce sont les outils d'accès en ligne de commande à une page Web, avec sauvegarde de cette page, qui m'intéressent ici mais que je ne connais pas.) Merci.
Ça m'a tout l'air d'un boulot pour wget... wget <url> sauvegarde le fichier pointé par url sur le disque dur.
Seb
-- Lisez la FAQ de la liste avant de poser une question : http://wiki.debian.net/?DebianFrench Vous pouvez aussi ajouter le mot ``spam'' dans vos champs "From" et "Reply-To:"
To UNSUBSCRIBE, email to with a subject of "unsubscribe". Trouble? Contact
Pierre Crescenzo
Bonjour,
Merci beaucoup à ceux qui m'ont répondu !
Si jamais cela peut servir à quelqu'un, voici mon script :
while read url do wget $url done << EOList http://www.monsite1.fr/ http://www.monsite2.fr/ http://www.monsite3.fr/ EOList
sendmail << EOMail Subject: $SCRIPTNAME Les fichiers créés par $SCRIPTNAME sont dans $TMPDIR sur $HOSTNAME. EOMail
#EOF *********
Amitiés,
[CITATION ALÉATOIRE : Je tombe sur un aimable monsieur aussi gracieux qu'un hépatique cocu qui vient de recevoir sa feuille d'impôts le lendemain du jour où on lui a appris qu'il a la vérole et que son fils unique est en réalité du voisin du dessus. San-Antonio]
-- Pierre Crescenzo mailto: http://www.crescenzo.nom.fr/
Bonjour,
Merci beaucoup à ceux qui m'ont répondu !
Si jamais cela peut servir à quelqu'un, voici mon script :
while read url
do
wget $url
done << EOList
http://www.monsite1.fr/
http://www.monsite2.fr/
http://www.monsite3.fr/
EOList
sendmail moi@monadresse.fr << EOMail
Subject: $SCRIPTNAME
Les fichiers créés par $SCRIPTNAME sont dans $TMPDIR sur $HOSTNAME.
EOMail
#EOF
*********
Amitiés,
[CITATION ALÉATOIRE : Je tombe sur un aimable monsieur aussi gracieux
qu'un hépatique cocu qui vient de recevoir sa feuille d'impôts le
lendemain du jour où on lui a appris qu'il a la vérole et que son fils
unique est en réalité du voisin du dessus. San-Antonio]
--
Pierre Crescenzo
mailto:Pierre@crescenzo.nom.fr
http://www.crescenzo.nom.fr/
while read url do wget $url done << EOList http://www.monsite1.fr/ http://www.monsite2.fr/ http://www.monsite3.fr/ EOList
sendmail << EOMail Subject: $SCRIPTNAME Les fichiers créés par $SCRIPTNAME sont dans $TMPDIR sur $HOSTNAME. EOMail
#EOF *********
Amitiés,
[CITATION ALÉATOIRE : Je tombe sur un aimable monsieur aussi gracieux qu'un hépatique cocu qui vient de recevoir sa feuille d'impôts le lendemain du jour où on lui a appris qu'il a la vérole et que son fils unique est en réalité du voisin du dessus. San-Antonio]
-- Pierre Crescenzo mailto: http://www.crescenzo.nom.fr/