Si je comprends bien, il est nécessaire d'utiliser une base de données
créée au préalable pour faire une sélection par le résultat du
formulaire qui ira l'interroger. Ensuite, il faudra évidemment mettre le
résultat de cette sélection en musique en créant une page affichant les
URL's puisque tel est le résultat recherché. 3 étapes, en somme.
Bien compliqué pour moi dans une situation de méconnaissance totale du
langage :-(
Si je comprends bien, il est nécessaire d'utiliser une base de données
créée au préalable pour faire une sélection par le résultat du
formulaire qui ira l'interroger. Ensuite, il faudra évidemment mettre le
résultat de cette sélection en musique en créant une page affichant les
URL's puisque tel est le résultat recherché. 3 étapes, en somme.
Bien compliqué pour moi dans une situation de méconnaissance totale du
langage :-(
Si je comprends bien, il est nécessaire d'utiliser une base de données
créée au préalable pour faire une sélection par le résultat du
formulaire qui ira l'interroger. Ensuite, il faudra évidemment mettre le
résultat de cette sélection en musique en créant une page affichant les
URL's puisque tel est le résultat recherché. 3 étapes, en somme.
Bien compliqué pour moi dans une situation de méconnaissance totale du
langage :-(
Bonsoir,
J'envisage de créer un outil de détermination (et donc de recherche) au
départ d'un formulaire.
Ce dernier, situé à http://mycorance.free.fr/valchamp/mycdeter.html ,
devrait aboutir par l'intermédiaire d'un script PHP (faisant le
traitement en fonction des cases cochées) d'afficher la ou les
différentes URL triées (correspondant à des pages HTML présentes sur le
site) afin de permettre leur activation par le visiteur.
C'est donc d'une fonction de tri qu'il s'agit.
Si je ne me trompe et selon ce que j'ai pu apprendre (je sais, c'est pas
grand-chose ... :-( ), il faut créer une base de données et un fichier
texte pour ce faire.
Toutefois, est-il possible d'obtenir ce résultat sans créer cette base
de données et uniquement en "balayant" la série des pages html situées
dans un dossier publié chez l'hébergeur ?
En effet, partant d'un certain
nombre de mots-clefs contenus dans près de 1000 pages, créer ce fichier
texte serait un boulot plutôt long !
Alors que si cette technique de
"balayage" était réalisable,
ce serait évidemment plus intéressant et
moins fastidieux ...
Le formulaire ne comporte que des "checkboxes" dont les "value"
contiennent les mots-clés et le principe est de faire un tri résultant
de l'addition de toutes les options cochées.
Avec la possibilité pour le visiteur de n'en cocher qu'une partie sans
pour autant bloquer l'action du script, bien entendu.
J'espère me faire bien comprendre ...
Quelles sont les options possibles ?
Bonsoir,
J'envisage de créer un outil de détermination (et donc de recherche) au
départ d'un formulaire.
Ce dernier, situé à http://mycorance.free.fr/valchamp/mycdeter.html ,
devrait aboutir par l'intermédiaire d'un script PHP (faisant le
traitement en fonction des cases cochées) d'afficher la ou les
différentes URL triées (correspondant à des pages HTML présentes sur le
site) afin de permettre leur activation par le visiteur.
C'est donc d'une fonction de tri qu'il s'agit.
Si je ne me trompe et selon ce que j'ai pu apprendre (je sais, c'est pas
grand-chose ... :-( ), il faut créer une base de données et un fichier
texte pour ce faire.
Toutefois, est-il possible d'obtenir ce résultat sans créer cette base
de données et uniquement en "balayant" la série des pages html situées
dans un dossier publié chez l'hébergeur ?
En effet, partant d'un certain
nombre de mots-clefs contenus dans près de 1000 pages, créer ce fichier
texte serait un boulot plutôt long !
Alors que si cette technique de
"balayage" était réalisable,
ce serait évidemment plus intéressant et
moins fastidieux ...
Le formulaire ne comporte que des "checkboxes" dont les "value"
contiennent les mots-clés et le principe est de faire un tri résultant
de l'addition de toutes les options cochées.
Avec la possibilité pour le visiteur de n'en cocher qu'une partie sans
pour autant bloquer l'action du script, bien entendu.
J'espère me faire bien comprendre ...
Quelles sont les options possibles ?
Bonsoir,
J'envisage de créer un outil de détermination (et donc de recherche) au
départ d'un formulaire.
Ce dernier, situé à http://mycorance.free.fr/valchamp/mycdeter.html ,
devrait aboutir par l'intermédiaire d'un script PHP (faisant le
traitement en fonction des cases cochées) d'afficher la ou les
différentes URL triées (correspondant à des pages HTML présentes sur le
site) afin de permettre leur activation par le visiteur.
C'est donc d'une fonction de tri qu'il s'agit.
Si je ne me trompe et selon ce que j'ai pu apprendre (je sais, c'est pas
grand-chose ... :-( ), il faut créer une base de données et un fichier
texte pour ce faire.
Toutefois, est-il possible d'obtenir ce résultat sans créer cette base
de données et uniquement en "balayant" la série des pages html situées
dans un dossier publié chez l'hébergeur ?
En effet, partant d'un certain
nombre de mots-clefs contenus dans près de 1000 pages, créer ce fichier
texte serait un boulot plutôt long !
Alors que si cette technique de
"balayage" était réalisable,
ce serait évidemment plus intéressant et
moins fastidieux ...
Le formulaire ne comporte que des "checkboxes" dont les "value"
contiennent les mots-clés et le principe est de faire un tri résultant
de l'addition de toutes les options cochées.
Avec la possibilité pour le visiteur de n'en cocher qu'une partie sans
pour autant bloquer l'action du script, bien entendu.
J'espère me faire bien comprendre ...
Quelles sont les options possibles ?
Oué ! un de mes sites préférés - surtout à l'automne !-)
Toutefois, est-il possible d'obtenir ce résultat sans créer cette base
de données et uniquement en "balayant" la série des pages html situées
dans un dossier publié chez l'hébergeur ?
Les deux sont-ils exclusifs ?
Il serait totalement innefficace de recommencer tout le balayage à
chaque requête, d'autant que les textes à indexer ne change pas
fréquemment.
La solution évidente est de créer un index (mot-clé=>liste
des pages concernées), que tu mets à jour quand tu ajoute/modifie une
page ou la liste de mots-clés.
Ceci étant, dans l'idéal, et vu la quantité de données que tu a, stocker
tout ton contenu dans une base relationnelle serait une bonne idée AMHA.
Déterminer le modèle de données qui convient, et écrire une moulinette
pour analyser tes fiches champignon et les injecter dans la base une
bonne fois pour toute, après quoi tu n'aurait plus besoin des pages. Il
faudra probablement fignoler quelques trucs à la main,
Egalement, ça permettrait
de formaliser les différents classement possibles - par
division/sous-division/classe/sous-classe/ordre, of course,
J'avais envisagé un travail de ce genre (un genre de "mycopedia") avec
un voisin mycologue il y a une paire d'année, mais ça n'a jamais été
plus loin - faute de disponibilité de ma part principalement...
Oué ! un de mes sites préférés - surtout à l'automne !-)
Toutefois, est-il possible d'obtenir ce résultat sans créer cette base
de données et uniquement en "balayant" la série des pages html situées
dans un dossier publié chez l'hébergeur ?
Les deux sont-ils exclusifs ?
Il serait totalement innefficace de recommencer tout le balayage à
chaque requête, d'autant que les textes à indexer ne change pas
fréquemment.
La solution évidente est de créer un index (mot-clé=>liste
des pages concernées), que tu mets à jour quand tu ajoute/modifie une
page ou la liste de mots-clés.
Ceci étant, dans l'idéal, et vu la quantité de données que tu a, stocker
tout ton contenu dans une base relationnelle serait une bonne idée AMHA.
Déterminer le modèle de données qui convient, et écrire une moulinette
pour analyser tes fiches champignon et les injecter dans la base une
bonne fois pour toute, après quoi tu n'aurait plus besoin des pages. Il
faudra probablement fignoler quelques trucs à la main,
Egalement, ça permettrait
de formaliser les différents classement possibles - par
division/sous-division/classe/sous-classe/ordre, of course,
J'avais envisagé un travail de ce genre (un genre de "mycopedia") avec
un voisin mycologue il y a une paire d'année, mais ça n'a jamais été
plus loin - faute de disponibilité de ma part principalement...
Oué ! un de mes sites préférés - surtout à l'automne !-)
Toutefois, est-il possible d'obtenir ce résultat sans créer cette base
de données et uniquement en "balayant" la série des pages html situées
dans un dossier publié chez l'hébergeur ?
Les deux sont-ils exclusifs ?
Il serait totalement innefficace de recommencer tout le balayage à
chaque requête, d'autant que les textes à indexer ne change pas
fréquemment.
La solution évidente est de créer un index (mot-clé=>liste
des pages concernées), que tu mets à jour quand tu ajoute/modifie une
page ou la liste de mots-clés.
Ceci étant, dans l'idéal, et vu la quantité de données que tu a, stocker
tout ton contenu dans une base relationnelle serait une bonne idée AMHA.
Déterminer le modèle de données qui convient, et écrire une moulinette
pour analyser tes fiches champignon et les injecter dans la base une
bonne fois pour toute, après quoi tu n'aurait plus besoin des pages. Il
faudra probablement fignoler quelques trucs à la main,
Egalement, ça permettrait
de formaliser les différents classement possibles - par
division/sous-division/classe/sous-classe/ordre, of course,
J'avais envisagé un travail de ce genre (un genre de "mycopedia") avec
un voisin mycologue il y a une paire d'année, mais ça n'a jamais été
plus loin - faute de disponibilité de ma part principalement...
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne,
Bruno Desthuilliers nous narre ce qui suit en ce 11/05/2007 9:29 :Oué ! un de mes sites préférés - surtout à l'automne !-)
Chouette, un fan ! ;-)
Toutefois, est-il possible d'obtenir ce résultat sans créer cette base
de données et uniquement en "balayant" la série des pages html situées
dans un dossier publié chez l'hébergeur ?
Les deux sont-ils exclusifs ?
Pas compris, là.
Il serait totalement innefficace de recommencer tout le balayage à
chaque requête, d'autant que les textes à indexer ne change pas
fréquemment.
Sauf lors de mises à jour et d'ajout de fiches.
La solution évidente est de créer un index (mot-clé=>liste des pages
concernées), que tu mets à jour quand tu ajoute/modifie une page ou la
liste de mots-clés.
Le script donné par P'tit Marcel répond très bien à ce besoin, me
semble-t'il ... sauf qu'il répète le nom de la page pour chaque
catégorie. Je crains que cela ne pose un petit problème pour la suite.
L'idéal serait sans doute de regrouper toutes les catégories de chaque
page en ne citant cette dernière qu'une fois. Je me trompe peut-être ...
Ceci étant, dans l'idéal, et vu la quantité de données que tu a,
stocker tout ton contenu dans une base relationnelle serait une bonne
idée AMHA.
Le fichier créé par le script de P'tit Marcel pèse 1,5 Mo !
C'est donc effectivement préférable pour rendre le processus de
recherche plus rapide.
Déterminer le modèle de données qui convient, et écrire une moulinette
pour analyser tes fiches champignon et les injecter dans la base une
bonne fois pour toute, après quoi tu n'aurait plus besoin des pages.
Il faudra probablement fignoler quelques trucs à la main,
?
Déterminer le modèle de données qui convient,
et écrire une moulinette
pour analyser tes fiches champignon et les injecter dans la base une
bonne fois pour toute, après quoi tu n'aurait plus besoin des pages.
Il faudra probablement fignoler quelques trucs à la main.
Egalement, ça permettrait de formaliser les différents classement
possibles - par division/sous-division/classe/sous-classe/ordre, of
course,
Cela fait l'objet d'une rubrique voisine :
http://mycorance.free.fr/valchamp/familles.htm
et de toute façon, pour
un amateur ne connaissant rien au sujet, cette partie est sans intérêt
pour la clef de détermination.
J'avais envisagé un travail de ce genre (un genre de "mycopedia") avec
un voisin mycologue il y a une paire d'année, mais ça n'a jamais été
plus loin - faute de disponibilité de ma part principalement...
Toujours pas le temps ? Sinon, je suis *très* intéressé ;-)
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne,
Bruno Desthuilliers nous narre ce qui suit en ce 11/05/2007 9:29 :
Oué ! un de mes sites préférés - surtout à l'automne !-)
Chouette, un fan ! ;-)
Toutefois, est-il possible d'obtenir ce résultat sans créer cette base
de données et uniquement en "balayant" la série des pages html situées
dans un dossier publié chez l'hébergeur ?
Les deux sont-ils exclusifs ?
Pas compris, là.
Il serait totalement innefficace de recommencer tout le balayage à
chaque requête, d'autant que les textes à indexer ne change pas
fréquemment.
Sauf lors de mises à jour et d'ajout de fiches.
La solution évidente est de créer un index (mot-clé=>liste des pages
concernées), que tu mets à jour quand tu ajoute/modifie une page ou la
liste de mots-clés.
Le script donné par P'tit Marcel répond très bien à ce besoin, me
semble-t'il ... sauf qu'il répète le nom de la page pour chaque
catégorie. Je crains que cela ne pose un petit problème pour la suite.
L'idéal serait sans doute de regrouper toutes les catégories de chaque
page en ne citant cette dernière qu'une fois. Je me trompe peut-être ...
Ceci étant, dans l'idéal, et vu la quantité de données que tu a,
stocker tout ton contenu dans une base relationnelle serait une bonne
idée AMHA.
Le fichier créé par le script de P'tit Marcel pèse 1,5 Mo !
C'est donc effectivement préférable pour rendre le processus de
recherche plus rapide.
Déterminer le modèle de données qui convient, et écrire une moulinette
pour analyser tes fiches champignon et les injecter dans la base une
bonne fois pour toute, après quoi tu n'aurait plus besoin des pages.
Il faudra probablement fignoler quelques trucs à la main,
?
Déterminer le modèle de données qui convient,
et écrire une moulinette
pour analyser tes fiches champignon et les injecter dans la base une
bonne fois pour toute, après quoi tu n'aurait plus besoin des pages.
Il faudra probablement fignoler quelques trucs à la main.
Egalement, ça permettrait de formaliser les différents classement
possibles - par division/sous-division/classe/sous-classe/ordre, of
course,
Cela fait l'objet d'une rubrique voisine :
http://mycorance.free.fr/valchamp/familles.htm
et de toute façon, pour
un amateur ne connaissant rien au sujet, cette partie est sans intérêt
pour la clef de détermination.
J'avais envisagé un travail de ce genre (un genre de "mycopedia") avec
un voisin mycologue il y a une paire d'année, mais ça n'a jamais été
plus loin - faute de disponibilité de ma part principalement...
Toujours pas le temps ? Sinon, je suis *très* intéressé ;-)
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne,
Bruno Desthuilliers nous narre ce qui suit en ce 11/05/2007 9:29 :Oué ! un de mes sites préférés - surtout à l'automne !-)
Chouette, un fan ! ;-)
Toutefois, est-il possible d'obtenir ce résultat sans créer cette base
de données et uniquement en "balayant" la série des pages html situées
dans un dossier publié chez l'hébergeur ?
Les deux sont-ils exclusifs ?
Pas compris, là.
Il serait totalement innefficace de recommencer tout le balayage à
chaque requête, d'autant que les textes à indexer ne change pas
fréquemment.
Sauf lors de mises à jour et d'ajout de fiches.
La solution évidente est de créer un index (mot-clé=>liste des pages
concernées), que tu mets à jour quand tu ajoute/modifie une page ou la
liste de mots-clés.
Le script donné par P'tit Marcel répond très bien à ce besoin, me
semble-t'il ... sauf qu'il répète le nom de la page pour chaque
catégorie. Je crains que cela ne pose un petit problème pour la suite.
L'idéal serait sans doute de regrouper toutes les catégories de chaque
page en ne citant cette dernière qu'une fois. Je me trompe peut-être ...
Ceci étant, dans l'idéal, et vu la quantité de données que tu a,
stocker tout ton contenu dans une base relationnelle serait une bonne
idée AMHA.
Le fichier créé par le script de P'tit Marcel pèse 1,5 Mo !
C'est donc effectivement préférable pour rendre le processus de
recherche plus rapide.
Déterminer le modèle de données qui convient, et écrire une moulinette
pour analyser tes fiches champignon et les injecter dans la base une
bonne fois pour toute, après quoi tu n'aurait plus besoin des pages.
Il faudra probablement fignoler quelques trucs à la main,
?
Déterminer le modèle de données qui convient,
et écrire une moulinette
pour analyser tes fiches champignon et les injecter dans la base une
bonne fois pour toute, après quoi tu n'aurait plus besoin des pages.
Il faudra probablement fignoler quelques trucs à la main.
Egalement, ça permettrait de formaliser les différents classement
possibles - par division/sous-division/classe/sous-classe/ordre, of
course,
Cela fait l'objet d'une rubrique voisine :
http://mycorance.free.fr/valchamp/familles.htm
et de toute façon, pour
un amateur ne connaissant rien au sujet, cette partie est sans intérêt
pour la clef de détermination.
J'avais envisagé un travail de ce genre (un genre de "mycopedia") avec
un voisin mycologue il y a une paire d'année, mais ça n'a jamais été
plus loin - faute de disponibilité de ma part principalement...
Toujours pas le temps ? Sinon, je suis *très* intéressé ;-)
Un script qui fait le "balayage" à la demande, et stocke le résultat
dans la base. Ce qui évite de refaire le balayage (opération lourde) à
chaque requête.
Pas assez de contexte pour savoir. Il est évident que la bonne structure
de données est celle qui convient pour le traitement à effectuer !-)
Accessoirement, et pour ce genre de besoins, une base emabarquée comme
SQLite est largement suffisante, et évite toute la lourdeur d'un SGBDR
comme MySQL sans renoncer à la souplesse du SQL.
Une "moulinette" est un script/programme ayant pour but de prendre des
données sous une forme et de les restituer sous une autre
L'idée est d'en finir avec les pages statiques et d'avoir un programme
spécialisé pour gérer ton site - avec une interface web permettant de
créer/modifier les 'fiches' (et le reste...).
Il faudra probablement fignoler quelques trucs à la main.
L'expérience prouve qu'une moulinette ... est généralement
incapable de gérer correctement toutes les irrégularités ... et un humain repasse
derrière pour vérifier et éventuellement corriger.
Certes, ça ne sert pas à grand chose pour le formulaire de détermination
Par contre, ça évite de devoir
maintenir à la main la rubrique "familles" ...
Par contre, si tu a des compétences en dev PHP - ou si tu es partant
pour en acquérir -, on peut discuter d'une éventuelle collaboration.
Un script qui fait le "balayage" à la demande, et stocke le résultat
dans la base. Ce qui évite de refaire le balayage (opération lourde) à
chaque requête.
Pas assez de contexte pour savoir. Il est évident que la bonne structure
de données est celle qui convient pour le traitement à effectuer !-)
Accessoirement, et pour ce genre de besoins, une base emabarquée comme
SQLite est largement suffisante, et évite toute la lourdeur d'un SGBDR
comme MySQL sans renoncer à la souplesse du SQL.
Une "moulinette" est un script/programme ayant pour but de prendre des
données sous une forme et de les restituer sous une autre
L'idée est d'en finir avec les pages statiques et d'avoir un programme
spécialisé pour gérer ton site - avec une interface web permettant de
créer/modifier les 'fiches' (et le reste...).
Il faudra probablement fignoler quelques trucs à la main.
L'expérience prouve qu'une moulinette ... est généralement
incapable de gérer correctement toutes les irrégularités ... et un humain repasse
derrière pour vérifier et éventuellement corriger.
Certes, ça ne sert pas à grand chose pour le formulaire de détermination
Par contre, ça évite de devoir
maintenir à la main la rubrique "familles" ...
Par contre, si tu a des compétences en dev PHP - ou si tu es partant
pour en acquérir -, on peut discuter d'une éventuelle collaboration.
Un script qui fait le "balayage" à la demande, et stocke le résultat
dans la base. Ce qui évite de refaire le balayage (opération lourde) à
chaque requête.
Pas assez de contexte pour savoir. Il est évident que la bonne structure
de données est celle qui convient pour le traitement à effectuer !-)
Accessoirement, et pour ce genre de besoins, une base emabarquée comme
SQLite est largement suffisante, et évite toute la lourdeur d'un SGBDR
comme MySQL sans renoncer à la souplesse du SQL.
Une "moulinette" est un script/programme ayant pour but de prendre des
données sous une forme et de les restituer sous une autre
L'idée est d'en finir avec les pages statiques et d'avoir un programme
spécialisé pour gérer ton site - avec une interface web permettant de
créer/modifier les 'fiches' (et le reste...).
Il faudra probablement fignoler quelques trucs à la main.
L'expérience prouve qu'une moulinette ... est généralement
incapable de gérer correctement toutes les irrégularités ... et un humain repasse
derrière pour vérifier et éventuellement corriger.
Certes, ça ne sert pas à grand chose pour le formulaire de détermination
Par contre, ça évite de devoir
maintenir à la main la rubrique "familles" ...
Par contre, si tu a des compétences en dev PHP - ou si tu es partant
pour en acquérir -, on peut discuter d'une éventuelle collaboration.
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne,
Bruno Desthuilliers nous narre ce qui suit en ce 13/05/2007 18:16 :Un script qui fait le "balayage" à la demande, et stocke le résultat
dans la base. Ce qui évite de refaire le balayage (opération lourde) à
chaque requête.
Donc il se fait après chaque mise à jour ou ajout de fiches par
l'administrateur afin de stocker les résultats de manière à les rendre
plus rapidement accessibles dès la première requête.Pas assez de contexte pour savoir. Il est évident que la bonne
structure de données est celle qui convient pour le traitement à
effectuer !-)
Le contexte est simple : extraction des mots-clefs situés dans 6
rubriques de chaque fiche/url et stockage de ceux-ci dans la base. Le
script de P'tit Marcel est parfait pour cette extraction mais possède un
défaut (que j'ai tenté de comprendre et modifier "en aveugle" sans
résultat) : la répétitivité du nom de page pour chaque rubrique au lieu
du groupage des 6 rubriques sous une seule inscription du nom de page.
Accessoirement, et pour ce genre de besoins, une base emabarquée comme
SQLite est largement suffisante, et évite toute la lourdeur d'un SGBDR
comme MySQL sans renoncer à la souplesse du SQL.
Je vais m'informer à ce sujet.Une "moulinette" est un script/programme ayant pour but de prendre des
données sous une forme et de les restituer sous une autre
Ce qui correspond au script de P'tit Marcel, si je suis bien.
L'idée est d'en finir avec les pages statiques et d'avoir un programme
spécialisé pour gérer ton site - avec une interface web permettant de
créer/modifier les 'fiches' (et le reste...).
C'est bien joli tout ça ... mais ça suppose que je retouche la totalité
des pages du site ! :-(
Il faudra probablement fignoler quelques trucs à la main.
L'expérience prouve qu'une moulinette ... est généralement incapable
de gérer correctement toutes les irrégularités ... et un humain
repasse derrière pour vérifier et éventuellement corriger.
Pfiou ! Eliminer les irrégularités, passe encore, mais attribuer un
nouvel index pour garder une indexation logique (je parle ici des [1]
[2] etc ...) si certaines chaines de caractères sont éliminées, ça
risque d'être très long.
Certes, ça ne sert pas à grand chose pour le formulaire de détermination
Ce n'est donc pas un sujet de préoccupation pour le moment.Par contre, ça évite de devoir maintenir à la main la rubrique
"familles" ...
Dans le cadre d'une refonte complète XHTML -> PHP, alors.
Par contre, si tu a des compétences en dev PHP - ou si tu es partant
pour en acquérir -, on peut discuter d'une éventuelle collaboration.
Aucune compétence : PHP est une inconnue et je dois tout apprendre.
J'ai téléchargé une série de tutoriels, retrouvé 2 bouquins traînant
dans ma bibliothèque (encore sous cello d'origine) "Pages Web
dynamiques" et "PHP 4 developpement" de Campus Press pour m'attaquer au
sujet.
Ça risque de prendre du temps : mon DD physique est presque saturé :-).
Cordialement,
De même.
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne,
Bruno Desthuilliers nous narre ce qui suit en ce 13/05/2007 18:16 :
Un script qui fait le "balayage" à la demande, et stocke le résultat
dans la base. Ce qui évite de refaire le balayage (opération lourde) à
chaque requête.
Donc il se fait après chaque mise à jour ou ajout de fiches par
l'administrateur afin de stocker les résultats de manière à les rendre
plus rapidement accessibles dès la première requête.
Pas assez de contexte pour savoir. Il est évident que la bonne
structure de données est celle qui convient pour le traitement à
effectuer !-)
Le contexte est simple : extraction des mots-clefs situés dans 6
rubriques de chaque fiche/url et stockage de ceux-ci dans la base. Le
script de P'tit Marcel est parfait pour cette extraction mais possède un
défaut (que j'ai tenté de comprendre et modifier "en aveugle" sans
résultat) : la répétitivité du nom de page pour chaque rubrique au lieu
du groupage des 6 rubriques sous une seule inscription du nom de page.
Accessoirement, et pour ce genre de besoins, une base emabarquée comme
SQLite est largement suffisante, et évite toute la lourdeur d'un SGBDR
comme MySQL sans renoncer à la souplesse du SQL.
Je vais m'informer à ce sujet.
Une "moulinette" est un script/programme ayant pour but de prendre des
données sous une forme et de les restituer sous une autre
Ce qui correspond au script de P'tit Marcel, si je suis bien.
L'idée est d'en finir avec les pages statiques et d'avoir un programme
spécialisé pour gérer ton site - avec une interface web permettant de
créer/modifier les 'fiches' (et le reste...).
C'est bien joli tout ça ... mais ça suppose que je retouche la totalité
des pages du site ! :-(
Il faudra probablement fignoler quelques trucs à la main.
L'expérience prouve qu'une moulinette ... est généralement incapable
de gérer correctement toutes les irrégularités ... et un humain
repasse derrière pour vérifier et éventuellement corriger.
Pfiou ! Eliminer les irrégularités, passe encore, mais attribuer un
nouvel index pour garder une indexation logique (je parle ici des [1]
[2] etc ...) si certaines chaines de caractères sont éliminées, ça
risque d'être très long.
Certes, ça ne sert pas à grand chose pour le formulaire de détermination
Ce n'est donc pas un sujet de préoccupation pour le moment.
Par contre, ça évite de devoir maintenir à la main la rubrique
"familles" ...
Dans le cadre d'une refonte complète XHTML -> PHP, alors.
Par contre, si tu a des compétences en dev PHP - ou si tu es partant
pour en acquérir -, on peut discuter d'une éventuelle collaboration.
Aucune compétence : PHP est une inconnue et je dois tout apprendre.
J'ai téléchargé une série de tutoriels, retrouvé 2 bouquins traînant
dans ma bibliothèque (encore sous cello d'origine) "Pages Web
dynamiques" et "PHP 4 developpement" de Campus Press pour m'attaquer au
sujet.
Ça risque de prendre du temps : mon DD physique est presque saturé :-).
Cordialement,
De même.
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne,
Bruno Desthuilliers nous narre ce qui suit en ce 13/05/2007 18:16 :Un script qui fait le "balayage" à la demande, et stocke le résultat
dans la base. Ce qui évite de refaire le balayage (opération lourde) à
chaque requête.
Donc il se fait après chaque mise à jour ou ajout de fiches par
l'administrateur afin de stocker les résultats de manière à les rendre
plus rapidement accessibles dès la première requête.Pas assez de contexte pour savoir. Il est évident que la bonne
structure de données est celle qui convient pour le traitement à
effectuer !-)
Le contexte est simple : extraction des mots-clefs situés dans 6
rubriques de chaque fiche/url et stockage de ceux-ci dans la base. Le
script de P'tit Marcel est parfait pour cette extraction mais possède un
défaut (que j'ai tenté de comprendre et modifier "en aveugle" sans
résultat) : la répétitivité du nom de page pour chaque rubrique au lieu
du groupage des 6 rubriques sous une seule inscription du nom de page.
Accessoirement, et pour ce genre de besoins, une base emabarquée comme
SQLite est largement suffisante, et évite toute la lourdeur d'un SGBDR
comme MySQL sans renoncer à la souplesse du SQL.
Je vais m'informer à ce sujet.Une "moulinette" est un script/programme ayant pour but de prendre des
données sous une forme et de les restituer sous une autre
Ce qui correspond au script de P'tit Marcel, si je suis bien.
L'idée est d'en finir avec les pages statiques et d'avoir un programme
spécialisé pour gérer ton site - avec une interface web permettant de
créer/modifier les 'fiches' (et le reste...).
C'est bien joli tout ça ... mais ça suppose que je retouche la totalité
des pages du site ! :-(
Il faudra probablement fignoler quelques trucs à la main.
L'expérience prouve qu'une moulinette ... est généralement incapable
de gérer correctement toutes les irrégularités ... et un humain
repasse derrière pour vérifier et éventuellement corriger.
Pfiou ! Eliminer les irrégularités, passe encore, mais attribuer un
nouvel index pour garder une indexation logique (je parle ici des [1]
[2] etc ...) si certaines chaines de caractères sont éliminées, ça
risque d'être très long.
Certes, ça ne sert pas à grand chose pour le formulaire de détermination
Ce n'est donc pas un sujet de préoccupation pour le moment.Par contre, ça évite de devoir maintenir à la main la rubrique
"familles" ...
Dans le cadre d'une refonte complète XHTML -> PHP, alors.
Par contre, si tu a des compétences en dev PHP - ou si tu es partant
pour en acquérir -, on peut discuter d'une éventuelle collaboration.
Aucune compétence : PHP est une inconnue et je dois tout apprendre.
J'ai téléchargé une série de tutoriels, retrouvé 2 bouquins traînant
dans ma bibliothèque (encore sous cello d'origine) "Pages Web
dynamiques" et "PHP 4 developpement" de Campus Press pour m'attaquer au
sujet.
Ça risque de prendre du temps : mon DD physique est presque saturé :-).
Cordialement,
De même.
Ce qui correspond au script de P'tit Marcel, si je suis bien.
Bouge pas, je regarde... (...)
Oui et non. Disont qu'en général, une moulinette ne sert qu'une fois...
Et ce à quoi je pense, c'est non pas juste construire un index, mais
réinjecter *tout* le contenu actuel du site - ou du moins cette partie
(les fiches champignons etc) - dans une base, et de générer les pages
dynamiquement à partir de la base. De la gestion de contenu, quoi.
Pfiou ! Eliminer les irrégularités, passe encore, mais attribuer un
nouvel index pour garder une indexation logique (je parle ici des [1]
[2] etc ...) si certaines chaines de caractères sont éliminées, ça
risque d'être très long.
Excuse moi, mais je ne comprends pas de quoi tu parles. Tu peux
préciser, s'il te plait ?
Des compétences en programmation dans d'autres langages ?
Ce qui correspond au script de P'tit Marcel, si je suis bien.
Bouge pas, je regarde... (...)
Oui et non. Disont qu'en général, une moulinette ne sert qu'une fois...
Et ce à quoi je pense, c'est non pas juste construire un index, mais
réinjecter *tout* le contenu actuel du site - ou du moins cette partie
(les fiches champignons etc) - dans une base, et de générer les pages
dynamiquement à partir de la base. De la gestion de contenu, quoi.
Pfiou ! Eliminer les irrégularités, passe encore, mais attribuer un
nouvel index pour garder une indexation logique (je parle ici des [1]
[2] etc ...) si certaines chaines de caractères sont éliminées, ça
risque d'être très long.
Excuse moi, mais je ne comprends pas de quoi tu parles. Tu peux
préciser, s'il te plait ?
Des compétences en programmation dans d'autres langages ?
Ce qui correspond au script de P'tit Marcel, si je suis bien.
Bouge pas, je regarde... (...)
Oui et non. Disont qu'en général, une moulinette ne sert qu'une fois...
Et ce à quoi je pense, c'est non pas juste construire un index, mais
réinjecter *tout* le contenu actuel du site - ou du moins cette partie
(les fiches champignons etc) - dans une base, et de générer les pages
dynamiquement à partir de la base. De la gestion de contenu, quoi.
Pfiou ! Eliminer les irrégularités, passe encore, mais attribuer un
nouvel index pour garder une indexation logique (je parle ici des [1]
[2] etc ...) si certaines chaines de caractères sont éliminées, ça
risque d'être très long.
Excuse moi, mais je ne comprends pas de quoi tu parles. Tu peux
préciser, s'il te plait ?
Des compétences en programmation dans d'autres langages ?
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne,
Bruno Desthuilliers nous narre ce qui suit en ce 14/05/2007 7:37 :
(snip)
Ta réflexion porte donc sur une refonte totale du concept de base
aujourd'hui "limité" à un XHTML statique.
Pfiou ! Eliminer les irrégularités, passe encore, mais attribuer un
nouvel index pour garder une indexation logique (je parle ici des [1]
[2] etc ...) si certaines chaines de caractères sont éliminées, ça
risque d'être très long.
Excuse moi, mais je ne comprends pas de quoi tu parles. Tu peux
préciser, s'il te plait ?
L'extraction des mots effectuées dans les rubriques des pages crée une
indexation de ceux-ci de la manière suivante :
___________________
champiX.htm. chapeau
[0] => conique
[1] => maturité
[2] => brun
[3] etc ...
Si je fais un nettoyage à la main des mots non repris dans la liste des
mots-clefs du formulaire, j'élimine donc le "[1] => maturité". Ce
faisant, l'indexation (si je puis utiliser ce terme ...=) passe de [0] à
[2] et si je ne corrige pas ce "trou", je suppose que cela posera
problème pour le script destiné à faire la sélection.
Ai-je tort ?
Des compétences en programmation dans d'autres langages ?
Qui datent ! DOS et basic à l'origine (mais ou le if -> elseif -> else
-> était plutôt du if -> then -> else parfois associé à du goto ou
gosub, etc) mais devenu obsolète (et d'ailleurs presqu'entièrement
oublié) suivi d'un apprentissage très limité à JS il y a une dizaine
d'années pour quelques besoins ponctuels.
Une "logique" peut-être parfois un peu semblable à PHP mais avec des
termes différents ... et surtout beaucoup plus limitée. Le problème
réside donc essentiellement dans mes capacités de mémorisation de termes
nouveaux ... et d'une "logique" sans doute aussi un peu différente.
Le handicap essentiel : le DD physique ; à partir d'un certain âge, ses
cylindres finissent par rouiller ... :-(
Si tu connais un tutoriel pour les nuls (en français !) *telechargeable*
(car je ne dispose que du RTC) sur le net, n'hésite pas à m'en donner
l'url !
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne,
Bruno Desthuilliers nous narre ce qui suit en ce 14/05/2007 7:37 :
(snip)
Ta réflexion porte donc sur une refonte totale du concept de base
aujourd'hui "limité" à un XHTML statique.
Pfiou ! Eliminer les irrégularités, passe encore, mais attribuer un
nouvel index pour garder une indexation logique (je parle ici des [1]
[2] etc ...) si certaines chaines de caractères sont éliminées, ça
risque d'être très long.
Excuse moi, mais je ne comprends pas de quoi tu parles. Tu peux
préciser, s'il te plait ?
L'extraction des mots effectuées dans les rubriques des pages crée une
indexation de ceux-ci de la manière suivante :
___________________
champiX.htm. chapeau
[0] => conique
[1] => maturité
[2] => brun
[3] etc ...
Si je fais un nettoyage à la main des mots non repris dans la liste des
mots-clefs du formulaire, j'élimine donc le "[1] => maturité". Ce
faisant, l'indexation (si je puis utiliser ce terme ...=) passe de [0] à
[2] et si je ne corrige pas ce "trou", je suppose que cela posera
problème pour le script destiné à faire la sélection.
Ai-je tort ?
Des compétences en programmation dans d'autres langages ?
Qui datent ! DOS et basic à l'origine (mais ou le if -> elseif -> else
-> était plutôt du if -> then -> else parfois associé à du goto ou
gosub, etc) mais devenu obsolète (et d'ailleurs presqu'entièrement
oublié) suivi d'un apprentissage très limité à JS il y a une dizaine
d'années pour quelques besoins ponctuels.
Une "logique" peut-être parfois un peu semblable à PHP mais avec des
termes différents ... et surtout beaucoup plus limitée. Le problème
réside donc essentiellement dans mes capacités de mémorisation de termes
nouveaux ... et d'une "logique" sans doute aussi un peu différente.
Le handicap essentiel : le DD physique ; à partir d'un certain âge, ses
cylindres finissent par rouiller ... :-(
Si tu connais un tutoriel pour les nuls (en français !) *telechargeable*
(car je ne dispose que du RTC) sur le net, n'hésite pas à m'en donner
l'url !
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne,
Bruno Desthuilliers nous narre ce qui suit en ce 14/05/2007 7:37 :
(snip)
Ta réflexion porte donc sur une refonte totale du concept de base
aujourd'hui "limité" à un XHTML statique.
Pfiou ! Eliminer les irrégularités, passe encore, mais attribuer un
nouvel index pour garder une indexation logique (je parle ici des [1]
[2] etc ...) si certaines chaines de caractères sont éliminées, ça
risque d'être très long.
Excuse moi, mais je ne comprends pas de quoi tu parles. Tu peux
préciser, s'il te plait ?
L'extraction des mots effectuées dans les rubriques des pages crée une
indexation de ceux-ci de la manière suivante :
___________________
champiX.htm. chapeau
[0] => conique
[1] => maturité
[2] => brun
[3] etc ...
Si je fais un nettoyage à la main des mots non repris dans la liste des
mots-clefs du formulaire, j'élimine donc le "[1] => maturité". Ce
faisant, l'indexation (si je puis utiliser ce terme ...=) passe de [0] à
[2] et si je ne corrige pas ce "trou", je suppose que cela posera
problème pour le script destiné à faire la sélection.
Ai-je tort ?
Des compétences en programmation dans d'autres langages ?
Qui datent ! DOS et basic à l'origine (mais ou le if -> elseif -> else
-> était plutôt du if -> then -> else parfois associé à du goto ou
gosub, etc) mais devenu obsolète (et d'ailleurs presqu'entièrement
oublié) suivi d'un apprentissage très limité à JS il y a une dizaine
d'années pour quelques besoins ponctuels.
Une "logique" peut-être parfois un peu semblable à PHP mais avec des
termes différents ... et surtout beaucoup plus limitée. Le problème
réside donc essentiellement dans mes capacités de mémorisation de termes
nouveaux ... et d'une "logique" sans doute aussi un peu différente.
Le handicap essentiel : le DD physique ; à partir d'un certain âge, ses
cylindres finissent par rouiller ... :-(
Si tu connais un tutoriel pour les nuls (en français !) *telechargeable*
(car je ne dispose que du RTC) sur le net, n'hésite pas à m'en donner
l'url !