Tout d'abord je tiens à dire que pour le moment je ne connais pas du tout
PERL.
Le décor est posé.
Mon besoin est le suivant:
Faire automatiquement des requetes sur le site des pages jaunes et lire
automatiquement les résultats (viendront après le traitement, la mise en
forme, et le tri).
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Fabrice L.
oui
"Stéphane" a écrit dans le message news: c7oass$1j3n$
Bonjour,
Tout d'abord je tiens à dire que pour le moment je ne connais pas du tout PERL.
Le décor est posé.
Mon besoin est le suivant: Faire automatiquement des requetes sur le site des pages jaunes et lire automatiquement les résultats (viendront après le traitement, la mise en forme, et le tri).
Question: Est-ce que PERL peut faire ça?
Merci.
Stéphane
oui
"Stéphane" <stephane@no.spam> a écrit dans le message news:
c7oass$1j3n$1@biggoron.nerim.net...
Bonjour,
Tout d'abord je tiens à dire que pour le moment je ne connais pas du tout
PERL.
Le décor est posé.
Mon besoin est le suivant:
Faire automatiquement des requetes sur le site des pages jaunes et lire
automatiquement les résultats (viendront après le traitement, la mise en
forme, et le tri).
"Stéphane" a écrit dans le message news: c7oass$1j3n$
Bonjour,
Tout d'abord je tiens à dire que pour le moment je ne connais pas du tout PERL.
Le décor est posé.
Mon besoin est le suivant: Faire automatiquement des requetes sur le site des pages jaunes et lire automatiquement les résultats (viendront après le traitement, la mise en forme, et le tri).
Question: Est-ce que PERL peut faire ça?
Merci.
Stéphane
Patrick
Faire automatiquement des requetes sur le site des pages jaunes et lire automatiquement les résultats (viendront après le traitement, la mise en forme, et le tri).
Sur CPAN, il existe WWW::Search::PagesJaunes (cf http://search.cpan.org/~briac/WWW-Search-Pagesjaunes-0.08/)
Patrick.
Faire automatiquement des requetes sur le site des pages jaunes et lire
automatiquement les résultats (viendront après le traitement, la mise en
forme, et le tri).
Sur CPAN, il existe WWW::Search::PagesJaunes
(cf http://search.cpan.org/~briac/WWW-Search-Pagesjaunes-0.08/)
Faire automatiquement des requetes sur le site des pages jaunes et lire automatiquement les résultats (viendront après le traitement, la mise en forme, et le tri).
Sur CPAN, il existe WWW::Search::PagesJaunes (cf http://search.cpan.org/~briac/WWW-Search-Pagesjaunes-0.08/)
Patrick.
Jérémy JUST
On Mon, 10 May 2004 18:36:59 +0200 "Stéphane" wrote:
Faire automatiquement des requetes sur le site des pages jaunes et lire automatiquement les résultats (viendront après le traitement, la mise en forme, et le tri).
Patrick t'a proposé un module au nom intrigant. Pour ma part, je t'envoie vers le module plus générique: LWP qui te permet de faire n'importe quelle requête HTTP, FTP, etc.
NAME LWP - The World-Wide Web library for Perl
SYNOPSIS use LWP; print "This is libwww-perl-$LWP::VERSIONn";
DESCRIPTION The libwww-perl collection is a set of Perl modules which provides a simple and consistent application programming interface (API) to the World-Wide Web. The main focus of the library is to provide classes and functions that allow you to write WWW clients. The library also contain modules that are of more general use and even classes that help you implement simple HTTP servers.
Most modules in this library provide an object oriented API. The user agent, requests sent and responses received from the WWW server are all represented by objects. This makes a simple and powerful interface to these services. The interface is easy to extend and customize for your own needs.
-- Jérémy JUST
On Mon, 10 May 2004 18:36:59 +0200
"Stéphane" <stephane@no.spam> wrote:
Faire automatiquement des requetes sur le site des pages jaunes et lire
automatiquement les résultats (viendront après le traitement, la mise en
forme, et le tri).
Patrick t'a proposé un module au nom intrigant. Pour ma part, je
t'envoie vers le module plus générique: LWP qui te permet de faire
n'importe quelle requête HTTP, FTP, etc.
NAME
LWP - The World-Wide Web library for Perl
SYNOPSIS
use LWP;
print "This is libwww-perl-$LWP::VERSIONn";
DESCRIPTION
The libwww-perl collection is a set of Perl modules which provides a
simple and consistent application programming interface (API) to the
World-Wide Web. The main focus of the library is to provide classes
and functions that allow you to write WWW clients. The library also
contain modules that are of more general use and even classes that
help you implement simple HTTP servers.
Most modules in this library provide an object oriented API. The user
agent, requests sent and responses received from the WWW server are
all represented by objects. This makes a simple and powerful
interface to these services. The interface is easy to extend and
customize for your own needs.
On Mon, 10 May 2004 18:36:59 +0200 "Stéphane" wrote:
Faire automatiquement des requetes sur le site des pages jaunes et lire automatiquement les résultats (viendront après le traitement, la mise en forme, et le tri).
Patrick t'a proposé un module au nom intrigant. Pour ma part, je t'envoie vers le module plus générique: LWP qui te permet de faire n'importe quelle requête HTTP, FTP, etc.
NAME LWP - The World-Wide Web library for Perl
SYNOPSIS use LWP; print "This is libwww-perl-$LWP::VERSIONn";
DESCRIPTION The libwww-perl collection is a set of Perl modules which provides a simple and consistent application programming interface (API) to the World-Wide Web. The main focus of the library is to provide classes and functions that allow you to write WWW clients. The library also contain modules that are of more general use and even classes that help you implement simple HTTP servers.
Most modules in this library provide an object oriented API. The user agent, requests sent and responses received from the WWW server are all represented by objects. This makes a simple and powerful interface to these services. The interface is easy to extend and customize for your own needs.
Tant que vous ne repompez l'intégralité de leur base de données... Et puis, votre script, vous l'avez écrit à la main : c'est donc une utilisation manuelle ;-)
-- Paul Gaborit - <http://www.enstimac.fr/~gaborit/> Perl en français - <http://www.enstimac.fr/Perl/>
À (at) Fri, 14 May 2004 13:02:14 +0200,
"Stéphane" <stephane@no.spam> écrivait (wrote):
je viens de le lire ...
"AVERTISSEMENT
L'accès au service de pagesjaunes.fr est limité à une utilisation manuelle,
tout usage d'un robot est interdit."
Tant que vous ne repompez l'intégralité de leur base de données... Et puis,
votre script, vous l'avez écrit à la main : c'est donc une utilisation
manuelle ;-)
--
Paul Gaborit - <http://www.enstimac.fr/~gaborit/>
Perl en français - <http://www.enstimac.fr/Perl/>
Tant que vous ne repompez l'intégralité de leur base de données... Et puis, votre script, vous l'avez écrit à la main : c'est donc une utilisation manuelle ;-)
-- Paul Gaborit - <http://www.enstimac.fr/~gaborit/> Perl en français - <http://www.enstimac.fr/Perl/>
Jérémy JUST
On Fri, 14 May 2004 14:03:55 +0200 Paul GABORIT wrote:
Tant que vous ne repompez l'intégralité de leur base de données... Et puis, votre script, vous l'avez écrit à la main : c'est donc une utilisation manuelle ;-)
Le problème est qu'il va beaucoup plus vite!
Indépendamment de la propriété intellectuelle ou autre raison juridique ou éthique, il faut faire attention aux serveurs et à ses autres utilisateurs. Il est raisonnable de s'imposer un délai entre deux requêtes (par exemple une seconde). Sinon, ne pas s'étonner de se voir couper l'accès par l'administrateur du serveur!!
-- Jérémy JUST
On Fri, 14 May 2004 14:03:55 +0200
Paul GABORIT <Paul.Gaborit@invalid.invalid> wrote:
Tant que vous ne repompez l'intégralité de leur base de données... Et
puis, votre script, vous l'avez écrit à la main : c'est donc une
utilisation manuelle ;-)
Le problème est qu'il va beaucoup plus vite!
Indépendamment de la propriété intellectuelle ou autre raison juridique
ou éthique, il faut faire attention aux serveurs et à ses autres
utilisateurs. Il est raisonnable de s'imposer un délai entre deux requêtes
(par exemple une seconde).
Sinon, ne pas s'étonner de se voir couper l'accès par l'administrateur
du serveur!!
Tant que vous ne repompez l'intégralité de leur base de données... Et puis, votre script, vous l'avez écrit à la main : c'est donc une utilisation manuelle ;-)
Le problème est qu'il va beaucoup plus vite!
Indépendamment de la propriété intellectuelle ou autre raison juridique ou éthique, il faut faire attention aux serveurs et à ses autres utilisateurs. Il est raisonnable de s'imposer un délai entre deux requêtes (par exemple une seconde). Sinon, ne pas s'étonner de se voir couper l'accès par l'administrateur du serveur!!