mais en faisant cela tu n'appelles pas les commandes curl et grep. Il faut : - soit que tu passes par des os.popen pour exécuter la ligne de commande et récupérer le résultat - soit que tu passes par urllib2 pour récupérer le flux rss et ensuite le parser. Cela revient faire en python ce que font tes commandes grep et curl - soit que tu récupères le flux xml directement avec une librairie adéquate. Feedparser à l'air de le faire, libxml2 le fait aussi
Et je ne sais pas parser le résultat pour récupérer le 1er mp3.
Ca dépend du choix que tu vas faire avant
En fait, on m'a donné un script en python qui scrap une playlist de morceaux diffusés à la radio.
scrap ?
Et je voudrais récupérer automatiquement le morceau s'il existe sur des sites tel que The Hype Machine.
Mais je rencontre plusieurs problèmes, notamment construire une url correcte. Pour l'url, j'ai trouvé :
if author.find(" "): author = author.replace(" ", "+")
Mais cela ne suffit.
Et après, il faut que j'apprenne à écrire un timer.
mais en faisant cela tu n'appelles pas les commandes curl et grep.
Il faut :
- soit que tu passes par des os.popen pour exécuter la ligne de
commande et récupérer le résultat
- soit que tu passes par urllib2 pour récupérer le flux rss et
ensuite le parser. Cela revient faire en python ce que font tes
commandes grep et curl
- soit que tu récupères le flux xml directement avec une librairie
adéquate. Feedparser à l'air de le faire, libxml2 le fait aussi
Et je ne sais pas parser le résultat pour récupérer le 1er mp3.
Ca dépend du choix que tu vas faire avant
En fait, on m'a donné un script en python qui scrap une playlist de
morceaux diffusés à la radio.
scrap ?
Et je voudrais récupérer automatiquement le morceau s'il existe sur des
sites tel que The Hype Machine.
Mais je rencontre plusieurs problèmes, notamment construire une url
correcte. Pour l'url, j'ai trouvé :
if author.find(" "):
author = author.replace(" ", "+")
Mais cela ne suffit.
Et après, il faut que j'apprenne à écrire un timer.
mais en faisant cela tu n'appelles pas les commandes curl et grep. Il faut : - soit que tu passes par des os.popen pour exécuter la ligne de commande et récupérer le résultat - soit que tu passes par urllib2 pour récupérer le flux rss et ensuite le parser. Cela revient faire en python ce que font tes commandes grep et curl - soit que tu récupères le flux xml directement avec une librairie adéquate. Feedparser à l'air de le faire, libxml2 le fait aussi
Et je ne sais pas parser le résultat pour récupérer le 1er mp3.
Ca dépend du choix que tu vas faire avant
En fait, on m'a donné un script en python qui scrap une playlist de morceaux diffusés à la radio.
scrap ?
Et je voudrais récupérer automatiquement le morceau s'il existe sur des sites tel que The Hype Machine.
Mais je rencontre plusieurs problèmes, notamment construire une url correcte. Pour l'url, j'ai trouvé :
if author.find(" "): author = author.replace(" ", "+")
Mais cela ne suffit.
Et après, il faut que j'apprenne à écrire un timer.
mais en faisant cela tu n'appelles pas les commandes curl et grep. Il faut : - soit que tu passes par des os.popen pour exécuter la ligne de commande et récupérer le résultat - soit que tu passes par urllib2 pour récupérer le flux rss et ensuite le parser. Cela revient faire en python ce que font tes commandes grep et curl - soit que tu récupères le flux xml directement avec une librairie adéquate. Feedparser à l'air de le faire, libxml2 le fait aussi
Merci.
J'ai trouvé un mini howto pour utiliser xml.dom <http://ask.metafilter.com/62318/Strip-me-some-mp3-urls#938507> ainsi qu'un script pour parser le RSS <http://www.learningpython.com/sources/pythonRSS.txt>.
J'arrive à afficher la liste des liens avec print (print link) mais lorsque je créé une variable avec la liste des liens et que j'utilise cette variable, seul le premier lien est affiché, et non la liste.
Y'a probablement une array à créer avec un loop, mais j'ai pas encore compris comment faire.
En fait, on m'a donné un script en python qui scrap une playlist de morceaux diffusés à la radio.
scrap ?
Récupérer une page HTML et parser que ce qui intéresse - comme parfois il n'y a pas d'API pour accéder aux data. :)
Et après, il faut que j'apprenne à écrire un timer.
En fait, je n'arrivais pas à faire fonctionner le timer parce que j'avais nommé le fichier time.py...
J'ai trouvé deux exemples :
import time
nb i=0 for i in range(nb): time.sleep(5) print "hello"
et
import threading def hello(): print "hello, world" nbr0 for i in range(nb): t = threading.Timer(10.0, hello) t.start() while t.isAlive(): continue #del t
Mais je ne trouve pas comment répéter une action un nombre illimité de fois.
C'est compliqué tout ça.
mais non :)
Bah, un p'tit peu quand même. :)
Mais une fois que l'on commence à se familiariser, ça devient un peu plus facile.
J'ai encore une question.
Avec les commandes suivantes j'obtiens :
import urllib2,commands,sys,os
link = "http://example.org" tinyurl = urllib2.urlopen("http://tinyurl.com/create.php?url=" + link) foo = sys.stdout.write(str(tinyurl)) # pas forcément réglementaire. $ <addinfourl at 136703724 whose fp = <socket._fileobject object at 0x825fdf4>>
Comment faire pour afficher l'url créée ?
-- kael
Jerome wrote:
kael wrote:
Mais étant novice en shell et python, je ne m'en sors pas.
Je ne comprends pas ce que tu souhaites faire en shell et ce que tu
souhaites faire en python.
En fait, en parlant du shell, je fais réference à grep, sed, etc.
Je me suis inspiré de ce howto <http://www.oreillynet.com/lpt/a/4679> :
mais en faisant cela tu n'appelles pas les commandes curl et grep.
Il faut :
- soit que tu passes par des os.popen pour exécuter la ligne de
commande et récupérer le résultat
- soit que tu passes par urllib2 pour récupérer le flux rss et ensuite
le parser. Cela revient faire en python ce que font tes commandes grep
et curl
- soit que tu récupères le flux xml directement avec une librairie
adéquate. Feedparser à l'air de le faire, libxml2 le fait aussi
Merci.
J'ai trouvé un mini howto pour utiliser xml.dom
<http://ask.metafilter.com/62318/Strip-me-some-mp3-urls#938507> ainsi
qu'un script pour parser le RSS
<http://www.learningpython.com/sources/pythonRSS.txt>.
J'arrive à afficher la liste des liens avec print (print link) mais
lorsque je créé une variable avec la liste des liens et que j'utilise
cette variable, seul le premier lien est affiché, et non la liste.
Y'a probablement une array à créer avec un loop, mais j'ai pas encore
compris comment faire.
En fait, on m'a donné un script en python qui scrap une playlist de
morceaux diffusés à la radio.
scrap ?
Récupérer une page HTML et parser que ce qui intéresse - comme parfois
il n'y a pas d'API pour accéder aux data. :)
Et après, il faut que j'apprenne à écrire un timer.
En fait, je n'arrivais pas à faire fonctionner le timer parce que
j'avais nommé le fichier time.py...
J'ai trouvé deux exemples :
import time
nb
i=0
for i in range(nb):
time.sleep(5)
print "hello"
et
import threading
def hello():
print "hello, world"
nbr0
for i in range(nb):
t = threading.Timer(10.0, hello)
t.start()
while t.isAlive(): continue
#del t
Mais je ne trouve pas comment répéter une action un nombre illimité de fois.
C'est compliqué tout ça.
mais non :)
Bah, un p'tit peu quand même. :)
Mais une fois que l'on commence à se familiariser, ça devient un peu
plus facile.
J'ai encore une question.
Avec les commandes suivantes j'obtiens :
import urllib2,commands,sys,os
link = "http://example.org"
tinyurl = urllib2.urlopen("http://tinyurl.com/create.php?url=" + link)
foo = sys.stdout.write(str(tinyurl)) # pas forcément réglementaire.
$ <addinfourl at 136703724 whose fp = <socket._fileobject object at
0x825fdf4>>
mais en faisant cela tu n'appelles pas les commandes curl et grep. Il faut : - soit que tu passes par des os.popen pour exécuter la ligne de commande et récupérer le résultat - soit que tu passes par urllib2 pour récupérer le flux rss et ensuite le parser. Cela revient faire en python ce que font tes commandes grep et curl - soit que tu récupères le flux xml directement avec une librairie adéquate. Feedparser à l'air de le faire, libxml2 le fait aussi
Merci.
J'ai trouvé un mini howto pour utiliser xml.dom <http://ask.metafilter.com/62318/Strip-me-some-mp3-urls#938507> ainsi qu'un script pour parser le RSS <http://www.learningpython.com/sources/pythonRSS.txt>.
J'arrive à afficher la liste des liens avec print (print link) mais lorsque je créé une variable avec la liste des liens et que j'utilise cette variable, seul le premier lien est affiché, et non la liste.
Y'a probablement une array à créer avec un loop, mais j'ai pas encore compris comment faire.
En fait, on m'a donné un script en python qui scrap une playlist de morceaux diffusés à la radio.
scrap ?
Récupérer une page HTML et parser que ce qui intéresse - comme parfois il n'y a pas d'API pour accéder aux data. :)
Et après, il faut que j'apprenne à écrire un timer.
En fait, je n'arrivais pas à faire fonctionner le timer parce que j'avais nommé le fichier time.py...
J'ai trouvé deux exemples :
import time
nb i=0 for i in range(nb): time.sleep(5) print "hello"
et
import threading def hello(): print "hello, world" nbr0 for i in range(nb): t = threading.Timer(10.0, hello) t.start() while t.isAlive(): continue #del t
Mais je ne trouve pas comment répéter une action un nombre illimité de fois.
C'est compliqué tout ça.
mais non :)
Bah, un p'tit peu quand même. :)
Mais une fois que l'on commence à se familiariser, ça devient un peu plus facile.
J'ai encore une question.
Avec les commandes suivantes j'obtiens :
import urllib2,commands,sys,os
link = "http://example.org" tinyurl = urllib2.urlopen("http://tinyurl.com/create.php?url=" + link) foo = sys.stdout.write(str(tinyurl)) # pas forcément réglementaire. $ <addinfourl at 136703724 whose fp = <socket._fileobject object at 0x825fdf4>>