liens sommaire

main
p 3 years ago
parent 210282109b
commit b0300de137

@ -5,7 +5,9 @@
2. [Windows](#win)
3. [Usage](#usage)
# Un webcrawler pour extraire les arrêtés de péril du site de Marseille <a name="intro"></a>
<div id='intro'/>
# Un webcrawler pour extraire les arrêtés de péril du site de Marseille
Les données sont inscrites manuellement sur le site de la mairie, et présentent de nombreux problèmes de structure et de nomemclature qui empêchent d'extraire proprement chaque arrêté.
@ -17,9 +19,13 @@ Il est ensuite possible d'en éditer une carte, sur Qgis par exemple, en retrouv
<a href="./doc/img/map.jpeg"><img src="./doc/img/map.jpeg" width="1024" alt="Carte des périls de Marseille-Centre"></a><br><br>
<div id='install'/>
# Installation
# Installation <a name="install"></a>
## Linux/Unix/MacOs <a name="unix"></a>
<div id='unix'/>
## Linux/Unix/MacOs
### Dépendances
- Python >=3.5
@ -38,8 +44,9 @@ Mise en place d'un environnement virtuel pour scrapy dans lequel seront install
python -m pip install regex
python -m pip install scrapy
<div id='win'/>
## Windows <a name="win"></a>
## Windows
### Dépendances
- [Python >= 3.5](https://www.python.org/downloads/windows/)
- [Microsoft Visual C++ Build-tools](https://visualstudio.microsoft.com/visual-cpp-build-tools/)
@ -65,7 +72,9 @@ Mise en place d'un environnement virtuel pour scrapy dans lequel seront install
python -m pip install regex
python -m pip install scrapy
# Usage <a name="usage"></a>
<div id='usage'/>
# Usage
On exporte l'output du crawler dans un fichier csv.
D'autres formats sont disponibles (json, xml, etc.) plus d'informations sur la [documentation de scrapy](https://docs.scrapy.org/en/latest/topics/feed-exports.html)

Loading…
Cancel
Save