# Un webcrawler pour extraire les arrêtés de péril du site de Marseille <aname="intro"></a>
<divid='intro'/>
# Un webcrawler pour extraire les arrêtés de péril du site de Marseille
Les données sont inscrites manuellement sur le site de la mairie, et présentent de nombreux problèmes de structure et de nomemclature qui empêchent d'extraire proprement chaque arrêté.
@ -17,9 +19,13 @@ Il est ensuite possible d'en éditer une carte, sur Qgis par exemple, en retrouv
<ahref="./doc/img/map.jpeg"><imgsrc="./doc/img/map.jpeg"width="1024"alt="Carte des périls de Marseille-Centre"></a><br><br>
<divid='install'/>
# Installation
# Installation <aname="install"></a>
## Linux/Unix/MacOs <aname="unix"></a>
<divid='unix'/>
## Linux/Unix/MacOs
### Dépendances
- Python >=3.5
@ -38,8 +44,9 @@ Mise en place d'un environnement virtuel pour scrapy dans lequel seront install
- [Microsoft Visual C++ Build-tools](https://visualstudio.microsoft.com/visual-cpp-build-tools/)
@ -65,7 +72,9 @@ Mise en place d'un environnement virtuel pour scrapy dans lequel seront install
python -m pip install regex
python -m pip install scrapy
# Usage <aname="usage"></a>
<divid='usage'/>
# Usage
On exporte l'output du crawler dans un fichier csv.
D'autres formats sont disponibles (json, xml, etc.) plus d'informations sur la [documentation de scrapy](https://docs.scrapy.org/en/latest/topics/feed-exports.html)